OpenAI e i rischi ‘catastrofici’ dell’IA / OpenAI and the ‘catastrophic’ risks of AI

(M.E.) 

I potenziali rischi catastrofici dell’intelligenza artificiale preoccupano OpenAI.

Non ci voleva la decisione di un importante produttore di IA, di affidare l’analisi dei rischi dell’IA a un team ‘ad hoc’, per renderci consapevoli delle prospettive, anche catastrofiche, legate allo sviluppo di una tecnologia sempre più necessaria, invasiva e trasformante. Il team di monitoraggio e valutazione si concentrerà sui modelli in fase di sviluppo e assegnerà un livello di rischio, da “basso” a “critico”: possono essere utilizzati solo i modelli con un punteggio di rischio pari o inferiore a “medio”.

E’ significativo, in ogni caso, che OpenAI individui quattro categorie principali: la sicurezza informatica e la capacità del modello di effettuare attacchi informatici su larga scala; la propensione del software a contribuire alla creazione di una miscela chimica, di un virus o di un’arma nucleare; il potere persuasivo del modello, ovvero la misura in cui può influenzare il comportamento umano; la potenziale autonomia del modello.

Sono tutti temi noti e rischi già discussi dai think tank e dai media più attenti. The Global Eye propone un approccio di ‘tecno-realismo’ laddove né il tecno-appiattimento né il tecno-antagonismo sono modalità adeguate per pensare l’intelligenza artificiale.

E’ certamente affascinante, e necessario, pensare l’IA attraverso il pensiero complesso. Kissinger, Schmidt e Huttenlocher hanno ‘finalizzato’ il libro ‘L’erA dell’Intelligenza artificiale’ sul futuro dell’identità umana; la guerra ‘si nutre’ sempre di più d’intelligenza artificiale (si veda la riflessione di Marzia Giglioli); è noto il legame tra intelligenza artificiale e CBRNe (si veda la nostra intervista all’esperto David Heslop).

Nostra intenzione è di ricercare in un ‘nuovo umanesimo’, impossibile senza considerare ciò che sta accadendo, e accadrà, nel campo dell’evoluzione tecnologica, in particolare dell’intelligenza artificiale. Qualunque siano le ragioni che hanno indotto OpenAI a tale iniziativa sui rischi dell’IA, potrebbe trattarsi di un passo verso la responsabilità in un progresso all’apparenza inarrestabile.

(English version)

The potential catastrophic risks of artificial intelligence worry OpenAI.

It didn’t take the decision of a major AI manufacturer to entrust the analysis of AI risks to an ‘ad hoc’ team to make us aware of the prospects, even catastrophic, linked to the development of an increasingly necessary, invasive and transforming technology. The monitoring and evaluation team will focus on the models under development and assign a risk level, from “low” to “critical”: only models with a risk score of “medium” or lower can be used.

It is significant, in any case, that OpenAI identifies four main categories: cybersecurity and the model’s ability to carry out large-scale cyber attacks; the propensity of the software to contribute to the creation of a chemical mixture, a virus or a nuclear weapon; the persuasive power of the model, i.e. the extent to which it can influence human behavior; the potential autonomy of the model.

These are all well-known issues and risks already discussed by think tanks and the most attentive media. The Global Eye proposes a ‘techno-realism’ approach where neither techno-flattening nor techno-antagonism are adequate ways to think about artificial intelligence.

It is certainly fascinating, and necessary, to think about AI through complex thinking. Kissinger, Schmidt and Huttenlocher have ‘finalized’ the book ‘The Age of AI’ on the future of human identity; war ‘feeds’ more and more on artificial intelligence (see Marzia Giglioli’s reflection); the link between artificial intelligence and CBRNe is well known (see our interview with the expert David Heslop).

Our intention is to research a ‘new humanism’, impossible without considering what is happening, and will happen, in the field of technological evolution, in particular artificial intelligence. Whatever the reasons that led OpenAI to this initiative on the risks of AI, it could be a step towards responsibility in a seemingly unstoppable progress.

(riproduzione autorizzata citando la fonte – reproduction authorized citing the source)

Latest articles

Related articles