Intelligenza artificiale e guerra. Riflessione sui limiti

(Marzia Giglioli)

Secondo il SIPRI (Stockolm International Peace Research Institute) non c’è più un’area di attività militare in cui l’intelligenza artificiale non venga utilizzata: i droni sono solo un esempio. Secondo gli analisti, nel 2028 il volume del mercato associato all’IA in ambito militare supererà i 13,7 miliardi di dollari.
L’intelligenza artificiale può formulare raccomandazioni basate sui dati molto più velocemente di un essere umano ma, soprattutto, essa è priva del ‘pregiudizio’ insito nei controlli umani e non soffre dell’effetto ‘occhio sfocato’, particolarmente importante in un ambiente di combattimento in rapida evoluzione. L’IA è in grado non solo di valutare la situazione sul campo di battaglia ma, entro certi limiti, è in grado di ‘prevedere il futuro’ sulla base dell’esperienza delle azioni del nemico.

L’intelligenza artificiale può ‘simulare’ il funzionamento di nuove attrezzature militari, nuovi dispositivi e persino nuovi concetti tattici, riducendo i tempi necessari per organizzare test reali.

L’intelligenza artificiale può fare previsioni e dare ‘consigli’ ai responsabili. In alcune condizioni, quando il tempo è estremamente breve, può ‘prendere una decisione’ da sola, come ha spiegato in una intervista di qualche mese fa Vincent Boulanin dello Stockholm Peace Research Institute, distinguendo che ci sono due livelli di rischio. II primo livello è tecnologico. L’intelligenza artificiale è progettata in modo tale che anche gli stessi sviluppatori non possano sempre tracciare connessioni logiche e capire perché il robot ‘ha ‘preso’ questa o quella decisione. Il secondo livello riguarda come l’IA possa cambiare il modo in cui organizzare guerre e conflitti, con gravi conseguenze umanitarie.

Quattro mesi fa, il SIPRI e l’UNODA (United Nations Office for Disarmament Affairs) hanno tenuto il primo di due dialoghi multilaterali sul tema ‘IA responsabile per la pace e la sicurezza’. Esperti provenienti dall’industria, dal mondo accademico, dalla società civile e dai governi si sono riuniti online per due giorni di discussioni. I partecipanti hanno esplorato come la ricerca e l’innovazione pacifiche dell’IA civile possano comunque presentare rischi per la pace e la sicurezza e hanno anche mappato potenziali scenari di uso improprio.

Dopo i lavori, SIPRI e UNODA hanno lanciato la serie di podcast ‘Responsible AI for Peace’.

La serie di dialoghi continuerà anche nel 2024, Il prossimo appuntamento sarà il 6 e l’ 8 maggio con il Forum ‘Al limite: navigare in un mondo che cambia’.

Secondo i relatori del Sipri, ‘oggi ci sono pochi barlumi di speranza nel panorama della sicurezza. Guerre, conflitti armati, colpi di stato – e il relativo costo in vite umane – dominano i titoli dei giornali e i bisogni umanitari sono in aumento. La competizione geopolitica sta salendo. Una serie di crisi ambientali a spirale, dal cambiamento climatico alla perdita di biodiversità, sta destabilizzando il mondo naturale da cui dipende la vita umana’.

‘In questo contesto’ – secondo il SIPRI – ‘la diplomazia inciampa. La capacità del sistema delle Nazioni Unite di gestire e contenere i conflitti e di costruire la pace appare sempre più incerta. Le questioni irrisolte di giustizia globale, equità e doppi standard stanno creando un cuneo tra il Nord e il Sud del mondo. Mentre il sistema globale si frammenta, nuove alleanze e sfere di influenza stanno emergendo’.

Il SIPRI esaminerà come gli attori principali si stanno comportando sul campo di fronte a queste sfide. Si discuterà anche dei modi per affrontare la crescente sfiducia tra il Nord e il Sud del mondo e tra i cittadini e i loro rappresentanti politici. Si analizzerà come gli sforzi multilaterali potrebbero rafforzare gli accordi internazionali per la pace e la sicurezza.

Un elemento cruciale del Forum sarà anche quello di approfondire la prevenzione dei conflitti e quali compromessi siano necessari a fronte di priorità concorrenti. La ricerca sull’intelligenza artificiale spaziera’ anche su altri temi caldi: come possa trovare utilizzo nei sistemi convenzionali, informatici e quelli legati alla forza nucleare, in che modo l’uso militare dell’IA possa creare rischi umanitari, ma anche strategici per il controllo degli armamenti. Un altro tema riguarda come i rischi posti dall’IA possano essere disciplinati attraverso il diritto internazionale, il processo di controllo degli armamenti e la ricerca e l’innovazione responsabile.

Le ipotesi di rischio portano davvero lontano, anche a quei visionari profetici che avevano lavorato sul rapporto tra gli esseri umani e le macchine.

Günther Anders non aveva ancora visto l’informatica e ciò che vediamo noi oggi. Non poteva immaginare quello che viviamo e la corsa dell’intelligenza artificiale: ma è stato profetico. Nel suo libro ‘L’uomo è antiquato’, scritto nel 1956, aveva già posto la domanda delle domande: le macchine possono superarci?

La risposta di Anders era già implicita nei suoi scritti: l’uomo è ormai ‘antiquato’ rispetto alle macchine che crea e ne perde inesorabilmente il controllo. Il progresso della tecnologia è di gran lunga più rapido di quello umano: le macchine, inoltre, possono essere immortali mentre noi abbiamo il limite della fine terrena. E’ fatale che l’’uomo sia condannato ad essere progressivamente meno efficiente e meno aggiornato: così, il suo ruolo di ‘faber’ diventa sempre più appannato.

Ma quali confini dovremmo stabilire per non essere sostituiti dalle tecnologie in quel terreno pericoloso che andasse oltre l’efficienza?
Esiste davvero un limite oltre il quale non andare?
La sindrome Oppenheimer ci riguarda tutti.
Lo stesso Anders aveva vissuto la stessa angoscia. La sua fitta corrispondenza
con Claude Eatherly, aviatore e meteorologo che il 6 agosto 1945, dopo aver controllato le condizioni di visibilità, diede il via libera allo sgancio della bomba atomica su Hiroshima, lasciava un segno indelebile. Eatherly come Oppenheimer visse anni tormentati, culminati con il ricovero in un ospedale psichiatrico. Anders venne a conoscenza della sua storia nel 1959 dal Newsweek e decise di scrivergli. Eatherly non era colpevole, era ‘l’ultima vittima di Hiroshima’.

Di recente Umberto Galimberti ha parlato de ‘L’uomo è antiquato’, un libro da leggere come profetico. Ha sottolineato come esso vada attualizzato perché ormai ‘la tecnica non è uno strumento nelle mani dell’uomo, la tecnica è un mondo, e il concetto di mondo è diverso dal concetto di strumento’.
Nell’anno dell’intelligenza Artificiale, come viene battezzato il 2024, il tema è decisivo e le crescenti tensioni internazionali lo rendono ancora più irrinunciabile.

Forse, come prevedeva Anders, la supremazia della macchina sull’uomo è davvero scontata, ma il vero limite è quello dell’uomo sull’uomo. L’Intelligenza Artificiale c’entra ben poco.

SIPRI: Per ulteriori informazioni sul Forum, contattare il team (SthlmForum@sipri.org)

(riproduzione autorizzata citando la fonte)

 

Latest articles

Related articles