L’intelligenza artificiale corre troppo in fretta

(Marzia Giglioli)

Serve una pausa mondiale. Spunti di riflessione in vista del summit di novembre in Inghilterra a Bletchey

In vista del summit sull’intelligenza artificiale dell’ 1 e 2 novembre a Bletchey Park e dopo le dichiarazioni del premier Sunak su nuova conoscenza, nuovi pericoli e paure riassumiamo alcuni punti di riflessione.

L’intelligenza artificiale corre troppo in fretta. Sembra andare ‘oltre l”uomo’ e non ci sono ancora regole condivise. A preoccuparsi di questo futuro inesplorato sono gli stessi guru del mondo tecnologico.
Ad aprile, una lettera aperta con migliaia di firme prestigiose tra cui Elon Musk e il co-fondatore di Apple Steve Wozniak aveva lanciato il grido d’allarme e la richiesta di una pausa di sei mesi negli esperimenti mondiali di AI.

Ora Max Tegmark, professore di fisica e ricercatore di intelligenza artificiale presso il Massachusetts Institute of Technology, lancia un altro allarme che ha il tono di massima urgenza: ‘il mondo sta assistendo a una corsa al ribasso che deve essere fermata. Dalle pagine del Guardian, Tegmark chiede che si decidano al più presto gli standard di sicurezza.

‘L’AI promette molti benefici incredibili, ma lo sviluppo sconsiderato e incontrollato di sistemi sempre più potenti, senza alcuna supervisione, mette a rischio la nostra economia, la nostra società e le nostre vite’, afferma Tegmark che insiste sul fatto che “la regolamentazione è fondamentale per un’innovazione sicura, in modo che una manciata di aziende di intelligenza artificiale non mettano a repentaglio il nostro futuro condiviso’.

A gennaio, il National Institute for Standards and Technology (NIST) ha pubblicato un quadro di gestione del rischio legato all’intelligenza artificiale che comprende 72 risultati che le organizzazioni dovrebbero raggiungere per ridurre i rischi: dalla discriminazione al rendere i sistemi più trasparenti e, nel complesso, garantire che i sistemi di intelligenza artificiale costruiti siano soprattutto affidabili. ‘In definitiva, ciò che stiamo cercando di fare è convincere le organizzazioni coinvolte acambiare la loro cultura per essere più in linea nella valutazione dei rischi dell’intelligenza artificiale, proprio come stiamo facendo per il rischio informatico o per i rischi per la privacy’, ha affermato – in un forum organizzato da Fortune – Reva Schwartz, ricercatrice per AI Bias presso il NIST.

Una ricerca condotta dal colosso della consulenza Accenture ha rilevato che il 95% dei dirigenti ritiene che la gestione del rischio per l’intelligenza artificiale dovrebbe essere una delle loro massime priorità, ma solo il 6% delle organizzazioni ritiene di essere pronto .

Intanto i tempi si vanno stringendo. E gli effetti già misurabili riguardano l’impatto sul lavoro. Entro 7 anni, negli Usa, il 33% delle ore lavorate saranno svolte dall’ intelligenza artificiale.

Ma la previsione potrebbe avere anche tempi più brevi in base all’accelerazione ed ai progressi dell’AI, soprattutto nell’ultimo anno.

Il numero 7 sembra essere comunque il ‘periodo’ di vera metamorfosi nella quale siamo già entrati.

Non c’è molto tempo.

(riproduzione autorizzata citando la fonte)

 

Latest articles

Related articles