Comprendere la governance globale dell’intelligenza artificiale attraverso un framework a tre livelli

(nostra traduzione da Lawfare / Cedric (Yehuda) Sabbah, Moshe Uziel)

“Se il XX secolo è stato alimentato dal petrolio e dall’acciaio, il XXI secolo è alimentato dall’informatica e dai minerali critici”. Pertanto, l’iniziativa Pax Silica dell’amministrazione Trump, un impegno tra gli Stati Uniti e otto paesi partner a collaborare per “garantire la sicurezza strategica della catena di approvvigionamento tecnologico globale”, è stata avviata l’11 dicembre 2025. Due giorni prima, la Linux Foundation ha annunciato la costituzione della Agentic AI Foundation (AAIF), un gruppo di aziende di intelligenza artificiale (AI) – tra cui Amazon, Google, Microsoft, OpenAI e Cloudflare – impegnate a “gettare le basi per un ecosistema condiviso di strumenti, standard e innovazione guidata dalla comunità” per l’AI agentica, riferendosi agli strumenti di AI in grado di eseguire una serie di compiti in modo autonomo.

Queste iniziative si aggiungono a un panorama di governance dell’IA già frammentato, con nuovi organismi e gruppi di lavoro che emergono periodicamente e organizzazioni internazionali che producono un numero crescente di testi normativi e documenti politici. Solo dal 2024, il Consiglio d’Europa ha finalizzato la Convenzione sull’intelligenza artificiale e una metodologia di valutazione dei rischi per i diritti umani per l’IA; l’Organizzazione per la cooperazione e lo sviluppo economico (OCSE) ha aggiornato i suoi principi di affidabilità dell’IA e pubblicato un rapporto con raccomandazioni sull’uso dell’IA nel governo; il governo degli Stati Uniti ha lanciato Pax Silica; il Vertice sull’azione per l’IA del 2025 ha prodotto una dichiarazione sull’IA inclusiva e sostenibile; e le Nazioni Unite hanno istituito un “Comitato scientifico internazionale indipendente sull’intelligenza artificiale” e un “Dialogo globale sulla governance dell’intelligenza artificiale”.

Con questa crescita esponenziale della produzione globale di politiche sull’IA, si presenta il rischio di duplicazione delle iniziative, sovrapposizioni sostanziali, sfide di interoperabilità e persino potenziali contraddizioni tra politiche e norme. Il numero elevato di organismi e iniziative rende inoltre difficile per gli attori dell’IA determinare dove impegnarsi al meglio nella governance globale dell’IA in modo da ottenere un impatto duraturo. Le Nazioni Unite hanno recentemente riconosciuto le sfide di questo contesto, sottolineando la necessità di una “governance dell’IA multistakeholder”, senza tuttavia specificare cosa ciò significhi nella pratica, creando così maggiore confusione.

Nel tentativo di dare un senso all’attuale panorama dell’IA, noi autori proponiamo un quadro multilivello per concettualizzare la governance globale dell’IA basato sul quadro a tre livelli ampiamente utilizzato per la governance di Internet. Esso è modellato sui comuni schemi dell’“AI stack”, in particolare l’hardware, il software, i dati e le applicazioni che fanno parte della catena di fornitura dell’IA, nonché i suoi componenti materiali ed energetici sottostanti. Questo articolo non pretende di stabilire uno schema definitivo. In effetti, un tale schema sarebbe sconsigliabile, data la natura dinamica del settore. Ciononostante, speriamo che possa fornire alcune indicazioni e orientamenti per orientarsi meglio nel panorama globale dell’IA.

Il quadro a tre livelli della governance di Internet

Un utile punto di partenza per mappare il panorama della governance dell’IA proviene da un quadro di riferimento vecchio di 25 anni che rimane rilevante nella ricerca accademica odierna. Nel 2000, Yochai Benkler ha pubblicato un articolo fondamentale, “From Consumers to Users: Shifting the Deeper Structures of Regulation Toward Sustainable Commons and User Access” (Da consumatori a utenti: spostare le strutture più profonde della regolamentazione verso beni comuni sostenibili e accesso degli utenti), che distingue tre “livelli” di attività Internet:

  1. Il livello infrastrutturale comprende le basi fisiche e tecniche di Internet, come cavi, router, server, data center e l’hardware complessivo che consente la comunicazione digitale. La governance a questo livello si concentra su questioni quali l’accesso, la connettività e l’affidabilità della rete.
  2. Il livello logico è costituito dal software, dai protocolli e dagli standard che determinano il flusso delle informazioni e l’interoperabilità dei sistemi. La governance in questo caso riguarda gli standard che consentono l’interoperabilità e la sicurezza tra reti e applicazioni. Organizzazioni come l’Internet Corporation for Assigned Names and Numbers (ICANN), l’Internet Engineering Task Force (IETF) e il World Wide Web Consortium (W3C) svolgono un ruolo di primo piano nella definizione di questo livello.
  3. Il livello dei contenuti è visibile agli utenti di Internet. L’attività che si svolge in questo livello comprende tutte le interazioni umane e organizzative che avvengono su Internet, come la creazione di contenuti, la criminalità informatica e l’attività economica.

Nel 2016, l’ICANN ha ampliato questo quadro indicando come varie organizzazioni internazionali siano coinvolte in diversi aspetti della governance di Internet. Quanto segue si ispira all’infografica dell’ICANN e propone una nuova visualizzazione della governance globale dell’IA.

Applicazione del quadro a tre livelli alla governance dell’IA

L’applicazione della matrice a tre livelli alla governance dell’IA porta alla seguente classificazione:

  1. Il livello dell’infrastruttura dell’IA comprende l’infrastruttura informatica e dei dati alla base dell’elaborazione ad alte prestazioni dell’IA, come semiconduttori, GPU, TPU, NPU, data center, sistemi di raffreddamento e piattaforme di cloud computing. Si potrebbe estenderlo per includere la catena di fornitura dell’elaborazione ad alte prestazioni, i sistemi energetici e le risorse (acqua, gas, nucleare) necessarie per alimentarli. I produttori di semiconduttori come Nvidia e Taiwan Semiconductor Manufacturing Company (TSMC) operano a questo livello.
  2. Il livello logico comprende modelli di IA, sistemi software e servizi incentrati sui modelli attraverso i quali l’IA viene sviluppata, accessibile, orchestrata e integrata, compresi i protocolli di interoperabilità emergenti. A differenza del livello logico di Internet, basato su standard aperti e ampiamente condivisi come TCP/IP, il livello logico dell’IA è attualmente dominato dai modelli proprietari sviluppati da un numero ristretto di aziende, tra cui OpenAI, Google DeepMind e Anthropic. Nel frattempo, questo livello include anche importanti componenti open source, come i framework di apprendimento automatico PyTorch e TensorFlow, piattaforme di scambio di modelli come ONNX e una serie crescente di protocolli di interoperabilità proposti per consentire l’integrazione e il coordinamento tra i sistemi di IA, come il Model Context Protocol (MCP) di Anthropic.
  3. Il livello sociale si riferisce alle interazioni umane e istituzionali, come quelle tra aziende, tra governo e consumatori, tra aziende e consumatori e tra consumatori, che utilizzano applicazioni di IA per produrre risultati di ogni tipo. L’elenco degli attori di questo livello è impressionante e comprende applicazioni orientate alle aziende e rivolte ai consumatori, testi, suoni, immagini e video, applicazioni di codifica e agenti di IA che svolgono compiti per i consumatori o le aziende. Queste applicazioni di IA sono utilizzate in una serie di attività sociali, dagli strumenti di assunzione alla prevenzione della criminalità, al marketing e all’automazione del flusso di lavoro. Tra le applicazioni rappresentative figurano Gemini, ChatGPT, Veo, Napkin, Canva, Base44 e Genspark. Sono sviluppate e commercializzate da attori di ogni tipo e dimensione. Analogamente all’evoluzione di Internet, si assiste a una democratizzazione degli strumenti di IA nel livello sociale (agenti, vibe coding). Ciò che accomuna concettualmente queste applicazioni è il fatto che l’IA è fondamentale per il loro funzionamento e la produzione di contenuti, attingendo a modelli e protocolli dal livello logico.

Certo, esistono altri metodi per identificare l’attività intorno allo stack IA. IBM propone, ad esempio, uno schema multistrato di livelli di calcolo, dati, modelli, applicazioni e “osservabilità”. La società di ricerca sull’IA Gartner applica una concettualizzazione più astratta con la gestione dei dati, le applicazioni IA e la mitigazione dei rischi. Urs Gasser include un livello etico nel suo modello. Ciascuno di questi modelli è prezioso a modo suo. Tuttavia, nel contesto della governance globale dell’IA, un modello a tre livelli più semplice, simile a quello utilizzato da Brad Smith di Microsoft, in cui ogni livello comprende un ampio spettro di attività, coglie meglio il modo in cui gli attori dell’IA vedono e operano realisticamente all’interno dello stack dell’IA. Inoltre, i suoi parallelismi con il modello di governance di Internet ampiamente adottato consentono di effettuare confronti tra la governance globale dell’IA e quella di Internet. Il quadro a tre livelli può anche essere esportato ad altri argomenti di governance tecnologica, come la quantistica, l’interfaccia cervello-macchina e la robotica, promuovendo una maggiore interoperabilità delle discussioni politiche tra i principali assi tecnologici. Detto questo, come verrà discusso di seguito, il modello potrebbe richiedere un certo ampliamento.

Con una descrizione generale dei livelli di attività dell’IA, il passo successivo è identificare gli organismi internazionali rilevanti per ciascun livello. La visualizzazione della governance di Internet realizzata dall’ICANN nel 2016 fornisce spunti per mappare gli organismi internazionali che influenzano ciascun livello dell’ecosistema dell’IA.

Osservazioni e questioni politiche

In primo luogo, occorre raggruppare varie iniziative politiche in base al livello su cui si concentrano. Possiamo notare, ad esempio, che il Transparency in Frontier AI Act della California, che applica le sue disposizioni principali agli “sviluppatori di frontiera”, si concentra sul livello logico. Nel frattempo, il Codice di condotta del processo di Hiroshima fa riferimento a “modelli di base avanzati e sistemi di IA generativa”, utilizzando termini diversi ma con un ambito simile. Al contrario, le disposizioni dell’EU AI Act sulle “applicazioni ad alto rischio” si riferiscono principalmente al livello sociale, mentre quelle sulla trasparenza dei modelli di base riguardano il livello logico. Inoltre, la Convenzione sull’IA del Consiglio d’Europa si concentra maggiormente sulle applicazioni dell’IA nel settore pubblico. Questo esercizio di raggruppamento è utile per confrontare le iniziative in base al loro ambito di applicazione previsto, per verificare se le misure adottate sono in linea con gli obiettivi dichiarati e per consentire alle organizzazioni internazionali di semplificare la loro tassonomia.

Al di là della tassonomia, il quadro offre alcune osservazioni sulle sfide che attendono la governance globale dell’IA. Ad esempio, le aziende all’avanguardia nel campo dell’IA stanno spingendo per acquisire i “mezzi di produzione” – l’energia e l’infrastruttura informatica dell’IA – in modo da poter gestire l’intero “stack” di applicazioni di IA con una dipendenza minima da terzi. Ad esempio, Microsoft ha annunciato nel 2024 un accordo per ottenere energia nucleare per alimentare i propri data center, e Meta ha annunciato un accordo simile nel gennaio 2026. I principali fornitori di servizi cloud, tra cui Amazon, Microsoft e Google, ospitano i propri modelli di base mentre sviluppano applicazioni all’avanguardia. Questi attori possono operare strategicamente su più livelli e nessuna singola organizzazione nazionale o internazionale è in grado di cogliere la portata completa della loro attività. Inoltre, si notano significative collaborazioni strategiche tra livelli, come la partnership tra Nvidia e Google su hardware ottimizzato per l’IA, la fornitura da parte di Google ad Anthropic di infrastruttura cloud e accesso a TPU, e la fornitura da parte di AWS a OpenAI di infrastruttura avanzata per la formazione sull’IA e l’offerta ai propri clienti dell’accesso ai modelli open-weight di OpenAI attraverso Amazon Bedrock. Queste alleanze dimostrano che molte applicazioni di IA a livello sociale sono costruite su un mix di infrastrutture e componenti logici governati da attori diversi.

C’è anche l’emergere di verticali cross-layer. Si prendano ad esempio gli agenti che combinano le capacità del livello logico (pianificazione, ragionamento, esecuzione di strumenti) con le funzioni del livello sociale (azioni autonome all’interno di applicazioni o flussi di lavoro). Un altro verticale che attraversa i livelli è quello dei dati, in particolare i massivi set di dati utilizzati per addestrare i modelli di base. Mentre i data center cloud sono tipicamente associati al livello infrastrutturale, i dati che tradizionalmente derivano dall’attività nel livello sociale vengono reimmessi nei modelli a livello logico.

Allargando ulteriormente la prospettiva, i sistemi di IA generici producono valore a tutti i livelli, generando ottimizzazioni a livello infrastrutturale, logico e sociale, in un ciclo di IA continuo e intrecciato. Ciò evidenzia ancora una volta come le politiche relative all’attività in un livello possano influenzare gli altri livelli. Ad esempio, le regole sulla correttezza dei risultati, una funzione del livello sociale, possono richiedere modifiche ai set di dati utilizzati per addestrare i modelli a livello logico. Un recente articolo, condotto da OpenAI e co-autore Yoshua Bengio, dimostra come la regolamentazione dell’elaborazione dell’IA a livello di infrastruttura possa creare risultati in altri livelli. Gli esempi sopra riportati suggeriscono che, insieme ai livelli esistenti, alcuni domini dell’IA potrebbero essere meglio compresi come verticali cross-layer piuttosto che come categorie ben definite. La considerazione di tali verticali non sostituisce il quadro a tre livelli, ma può integrarlo e aiutare a cogliere le questioni di governance che derivano da sistemi di IA sempre più integrati e incarnati.

Queste tendenze pongono sfide significative in materia di governance. Un approccio potrebbe essere quello di cercare un ruolo più importante per le Nazioni Unite, ma ciò solleverebbe probabilmente alcune questioni significative: in primo luogo, perché è difficile regolamentare le questioni fondamentali relative all’IA con agilità e senza il rischio di ostacolare l’innovazione, come ha dimostrato il processo di redazione della legge sull’IA dell’UE. L’ONU, con la sua burocrazia e i suoi processi decisionali relativamente lenti, non è adatta ad affrontare la natura altamente dinamica della governance dell’IA. In secondo luogo, c’è il rischio che un’azione su larga scala dell’ONU dia un peso eccessivo agli interessi degli Stati non democratici. Laura DeNardis e altri hanno dimostrato come i paesi non democratici abbiano cercato di esercitare un “controllo” sulla governance di Internet attraverso gli organismi dell’ONU in cui hanno maggiore influenza. L’ONU ha recentemente ribadito il suo impegno, sebbene con alcune modifiche, a favore di un modello di governance di Internet aperto e non centralizzato, ma ora si rischia di assistere alle stesse battaglie per il controllo della governance dell’IA. A nostro avviso, piuttosto che limitarsi a ricorrere alla governance guidata dall’ONU, la sfida per gli organismi internazionali di ogni tipo è quella di proteggersi dai rischi di una deriva della missione e di un eccessivo intervento istituzionale. Gli sforzi delle Nazioni Unite in materia di definizione delle politiche dovrebbero invece rimanere mirati, agili e basati sui dati, con l’obiettivo di garantire l’interoperabilità. Ciò consentirebbe ai paesi con valori simili di affrontare le questioni più urgenti e permetterebbe la condivisione futura delle migliori pratiche e delle esperienze politiche. In questo senso, Pax Silica è tempestiva e costituisce un appropriato riavvio delle discussioni globali.

Domande per future indagini

Per semplicità, abbiamo proposto tre livelli generali per visualizzare lo stack dell’IA, ma ammettiamo che livelli aggiuntivi e più dettagliati potrebbero ampliare il modello. Ad esempio, si potrebbero concettualizzare i modelli di base come un livello separato, parallelo al livello dell’infrastruttura fisica. Inoltre, con l’imminente ubiquità dei sistemi fisici di IA, come i veicoli autonomi, i droni per le consegne, i robot umanoidi industriali, commerciali e privati, le città intelligenti e i dispositivi indossabili alimentati dall’IA, si potrebbe aggiungere un altro livello parallelo al livello sociale. Infine, in linea con il Piano d’azione sull’IA e il riferimento di Pax Silica allo “stack IA” completo, si potrebbe aggiungere un nuovo livello al di sotto del livello dell’infrastruttura per coprire i materiali e i minerali essenziali per lo stack IA. Ciò include il silicio per la produzione di semiconduttori e i composti a base di gallio utilizzati nell’elettronica ad alta efficienza per ridurre la perdita di energia nei data center IA. Inoltre, gli elementi delle terre rare, come il disprosio, sono fondamentali per migliorare i magneti permanenti ad alte prestazioni utilizzati nei sistemi di raffreddamento dei data center e nei motori elettrici avanzati. Molti di questi minerali chiave si trovano in Cina o in paesi allineati con la Cina, sollevando più ampie preoccupazioni geopolitiche riguardo all’approvvigionamento della catena di fornitura.

I data center spaziali sono un altro sviluppo degno di nota. Ad esempio, il progetto Starcloud di Nvidia mira a ridurre il consumo energetico terrestre. Ciò potrebbe plausibilmente coinvolgere la governance spaziale nella discussione sulla governance dell’IA. La regolamentazione dei vari attori sia a livello di IA che di governance spaziale probabilmente porrà nuove sfide e richiederà adeguamenti al quadro a tre livelli.

Il quadro a tre livelli presentato ha scopo descrittivo. Identifica gli attori e le istituzioni che operano a ciascun livello, evidenzia dove potrebbe essere opportuno un coordinamento e suggerisce un approccio sfumato alla regolamentazione. In questo senso, la solidità del quadro può essere messa alla prova: riflette accuratamente la complessa realtà dell’ecosistema dell’IA? Sì, il quadro proposto è solo un punto di partenza, un modo per organizzare ciò che è noto oggi, lasciando spazio alle domande, alle sfide e alle scelte politiche che daranno forma alla prossima generazione di governance dell’IA. Senza dubbio, il quadro dovrebbe essere perfezionato ed evolversi in base a questa realtà. Pertanto, qualsiasi modifica al quadro che ne rafforzi la solidità è benvenuta. A tal fine, abbiamo creato un repository GitHub pubblico e invitiamo i lettori a suggerire ulteriori modifiche.

Come osservato in precedenza, il quadro può essere applicato anche alla governance globale di altre tecnologie importanti. Ad esempio, si potrebbe immaginare un livello infrastrutturale, logico e sociale nel quantum computing. Identificare gli attori rilevanti in un dominio quantistico e le organizzazioni che li “regolamentano” potrebbe essere un esercizio fruttuoso, in particolare ora che l’OCSE sta intraprendendo un lavoro innovativo per sviluppare raccomandazioni per una gestione responsabile delle tecnologie quantistiche. Inoltre, i progressi nelle neurotecnologie e nelle interfacce uomo-macchina sollevano domande affascinanti sull’interazione tra l’hardware utilizzato per queste tecnologie e il ruolo del corpo umano come “livello” ancora più fondamentale in questo ecosistema.

In definitiva, noi autori speriamo che l’applicazione del quadro a tre livelli alla governance dell’IA e ad altri campi della governance tecnologica possa aiutare i responsabili politici, gli accademici, gli organismi di normazione, le organizzazioni della società civile e, naturalmente, gli attori industriali a dare un senso a un panorama tecnologico frammentato e sempre più complesso. Ciò, a sua volta, potrebbe contribuire a un dialogo più approfondito e sofisticato sulle politiche globali in grado di sbloccare i potenziali benefici di queste tecnologie.

Latest articles

Related articles