(Marzia Giglioli)
La domanda della domande è se davvero la corsa dell’intelligenza artificiale possa essere regolamentata ‘in tempo’ rispetto agli snodi fondamentali che si presentano in un futuro brevissimo. La rivoluzione tecnologica sta superando la tecnologia stessa ed è difficile prevederne fino in fondo gli sviluppi e gli effetti, come ripete Sam Altman (il fondatore di OpenAI). L’umanità si trova di fronte ad un nuovo incrocio del suo cammino che coincide fortemente con il 2024, in cui tra elezioni nazionali, continentali e locali, si vota in 76 Paesi, in alcuni più democraticamente che in altri. Oltre 4 miliardi di persone eleggeranno i propri rappresentanti.
Nessuno, in questo momento, può davvero ‘misurare’ quanto l’intelligenza artificiale possa determinare gli orientamenti e, in mix di disinformazione e di fake, possa causare a breve anche il più grande pericolo globale che le democrazie sono chiamate ad affrontare’, così come indicato dal Global Risks Report 2024 del World Economic Forum. In realtà non abbiamo mai vissuto un momento così incerto e di incerti modelli di riferimento.
In questo incrocio della storia che vede tra le espressioni di libera scelta mescolarsi i nuovi sovranismi, le nostalgie di vissuti storici e la cancel culture, in attesa di nuove redenzioni si tratteggia il futuro prossimo dell’umanità. Ma non è un problema solo politico o geopolitico.
Con una tecnologia così potente si combatterà inevitabilmente per modelli e il rischio è che si tratti di quelli già usurati. Mentre mai come ora si dovrebbe concepirne di nuovi e più adatti al mondo che si trasforma anche nei suoi fondamentali come spazio, tempo e funzionalità individuali e collettive. Servirebbe un modello di fusione complessa. Mentre si rischia, invece, la fusione tra gli atomi in una deflagrazione pericolosa. La guerra per modelli non promette certo orizzonti pacifici. Sa appunto di guerra e non di coesistenza.
La nascente vita tecnologica ‘intelligente’ avrà invece bisogno di mettere insieme particolare ed universale, passato e futuro. I modelli narrativi del ‘mondo nuovissimo’ saranno la vera sfida e dovranno essere in grado di legare noi e l’intelligenza artificiale per la costruzione di una nuova visione, per una cultura etica che sappia inserire gli algoritmi nella società in giuste proporzioni, senza abdicare a noi stessi. Senza mettere, come sta accadendo ora, la paura al centro di tutto: l’IA come sostituzione dell’ umano, l’IA che brucia posti di lavoro, l’IA con in mano i destini del mondo. La tecnologia non è intelligente. Noi lo siamo di più.
C’è bisogno anche di una nuova grammatica. Forse sostituendo all’espressione ‘intelligenza ‘artificiale un altro termine che ne identifichi meglio il ruolo di ‘servizio’ e non di sostituzione. La sua sussidiarietà dovrà essere normata, dipenderà sempre da noi. Non è l’era dell’intelligenza artificiale: è l’era della nuova responsabilità.
(riproduzione autorizzata citando la fonte)