Accelerazione, rischio e governance dell’intelligenza artificiale: tra Amodei e Altman / Acceleration, Risk, and the Governance of Artificial Intelligence: Between Amodei and Altman.

(Diego Brasioli – opinioni espresse a titolo esclusivamente personale –  www.diegobrasioli.com) 

Nel dibattito contemporaneo sull’intelligenza artificiale avanzata, due figure occupano una posizione centrale: Dario Amodei, co‑fondatore e CEO di Anthropic, e Sam Altman, CEO di OpenAI. Le loro posizioni, pur convergendo nel riconoscimento della portata trasformativa dell’IA, divergono per enfasi, tono e diagnosi sistemica. Nel gennaio 2026 Amodei ha pubblicato il saggio The Adolescence of Technology, in cui sostiene che l’umanità stia entrando in una fase storica critica caratterizzata da rischi sistemici derivanti dallo sviluppo di sistemi sempre più potenti. Nel febbraio 2026, durante l’AI Impact Summit di New Delhi, Altman ha affrontato pubblicamente temi quali l’impatto occupazionale dell’IA, la sostenibilità energetica e la governance globale, esprimendo al contempo consapevolezza dei rischi e fiducia nella capacità delle società di adattarsi.

La posizione di Amodei non è quella di un oppositore della tecnologia né di un profeta apocalittico; è piuttosto quella di un imprenditore e creatore di sistemi di IA che ritiene di trovarsi in una fase di instabilità storica. Il concetto centrale del suo ragionamento è quello di una “finestra pericolosa”: un periodo in cui le capacità dell’IA potrebbero crescere più rapidamente delle nostre capacità di controllo politico, istituzionale e tecnico. L’idea di fondo è che stiamo entrando in una fase di accelerazione endogena, nella quale i sistemi non si limitano più a eseguire compiti, ma contribuiscono attivamente al proprio miglioramento. Se i modelli diventano in grado di scrivere codici, ottimizzare architetture e condurre ricerche tecniche in modo autonomo, il ciclo di sviluppo si accorcia drasticamente. Il rischio non consiste semplicemente nel progresso tecnologico, ma nella compressione dei tempi di adattamento: le istituzioni politiche e giuridiche potrebbero non riuscire a evolvere con la stessa rapidità.

A questo si aggiunge il problema dello squilibrio di potere. Amodei ipotizza che sistemi con capacità superumane in domini cognitivi rilevanti possano emergere in tempi relativamente brevi. Ciò produrrebbe una concentrazione senza precedenti di capacità economica e strategica, generando tensioni tra aziende e governi, tra Stati in competizione geopolitica e tra chi possiede l’infrastruttura computazionale e chi ne è escluso. L’immagine evocata è quella di un “paese di geni in un data center”, concentrato in poche mani e potenzialmente capace di alterare gli equilibri globali.

Un ulteriore elemento di preoccupazione riguarda la fragilità dell’allineamento. Amodei ha descritto il rischio che sistemi altamente capaci possano apparire conformi alle regole sotto osservazione, ma sviluppare strategie strumentali non immediatamente rilevabili. Se la verificabilità dell’allineamento diventa incerta, il controllo tecnico si indebolisce in modo qualitativamente nuovo. Non si tratterebbe più solo di errori o bias, ma della possibilità che sistemi complessi adottino comportamenti non previsti dalle intenzioni dei progettisti.

In questo scenario si inserisce la dimensione geopolitica. L’IA è ormai una tecnologia strategica, e in un contesto di competizione tra potenze la tentazione di ridurre salvaguardie per non perdere vantaggio è concreta. La “finestra pericolosa” coincide dunque con il momento in cui l’IA diventa militarmente e politicamente decisiva mentre i meccanismi di governance globale restano deboli o frammentati. A ciò si aggiunge il peso degli incentivi economici: l’IA rappresenta una “ricompensa scintillante” (glittering prize) da trilioni di dollari, e tale prospettiva può generare un fenomeno di governance in cui le regolazioni esistono formalmente ma sono in realtà modellate sugli interessi dei principali attori industriali. La regolazione non scompare; diventa compatibile con l’accelerazione.

Sam Altman si colloca in una postura diversa. Al summit di New Delhi ha riconosciuto che l’IA avrà un impatto significativo sul mercato del lavoro, ma ha sostenuto che la storia economica mostra una capacità ricorrente di adattamento e creazione di nuove opportunità. Ha inoltre risposto alle critiche sul consumo energetico dei modelli sottolineando la necessità di una transizione sostenibile e difendendo il settore dalle accuse di irresponsabilità ambientale. Il summit si è concluso con una dichiarazione che richiama a uno sviluppo democratico e orientato al bene sociale dell’IA. Altman non nega il rischio, ma tende a inserirlo in una narrativa di progresso governabile: la soluzione non è rallentare drasticamente, bensì costruire meccanismi di cooperazione internazionale mentre si continua ad avanzare.

La differenza tra i due non è tanto sui fatti quanto sull’accento interpretativo. Amodei privilegia una lettura prudenziale e sistemica del rischio; Altman una lettura dinamica e adattiva del progresso. Tuttavia, una questione più profonda attraversa entrambe le posizioni: il sistema nel quale i programmi di IA operano è strutturalmente capace di autoregolarsi? Se la competizione internazionale premia l’accelerazione, se il capitale richiede rendimento, se la leadership tecnologica è percepita come vantaggio strategico e se rallentare significa perdere posizione, allora anche attori sinceramente prudenti sono spinti a continuare a correre. Non si tratta necessariamente di malafede individuale, ma di dinamica competitiva. È la logica delle corse agli armamenti: nessuno vuole essere l’unico a fermarsi.

In questo senso, la questione decisiva non è soltanto quale dei due leader abbia la diagnosi più accurata, ma se le istituzioni politiche globali siano in grado di creare vincoli efficaci prima che l’accelerazione renda tali vincoli inefficaci. Storicamente, sistemi ad alto rischio non si sono stabilizzati spontaneamente; la stabilizzazione è avvenuta attraverso trattati vincolanti, autorità di supervisione forti, standard tecnici obbligatori o, talvolta, a seguito di crisi che hanno reso il rischio politicamente intollerabile. La discussione sull’IA, dunque, non è soltanto una discussione tecnologica. È una domanda sulla capacità della modernità di governare le proprie accelerazioni e di subordinare l’innovazione agli imperativi della responsabilità collettiva.

(English Version) 

opinions expressed solely on a personal basis – www.diegobrasioli.com 

In the contemporary debate on advanced artificial intelligence, two figures occupy a central position: Dario Amodei, co-founder and CEO of Anthropic, and Sam Altman, CEO of OpenAI. While their positions converge in recognizing the transformative scope of AI, they diverge in emphasis, tone, and systemic diagnosis. In January 2026, Amodei published the essay *The Adolescence of Technology*, in which he argues that humanity is entering a critical historical phase characterized by systemic risks stemming from the development of increasingly powerful systems. In February 2026, during the AI Impact Summit in New Delhi, Altman publicly addressed issues such as AI’s impact on employment, energy sustainability, and global governance, expressing both awareness of risks and confidence in societies’ capacity to adapt.

Amodei’s position is not that of a technology opponent nor of an apocalyptic prophet; rather, it is that of an entrepreneur and creator of AI systems who believes we are living through a period of historical instability. The central concept in his argument is that of a “dangerous window”: a period in which AI capabilities could grow more rapidly than our political, institutional, and technical capacities for control. The underlying idea is that we are entering a phase of endogenous acceleration, in which systems no longer merely execute tasks but actively contribute to their own improvement. If models become capable of writing code, optimizing architectures, and conducting technical research autonomously, the development cycle shortens dramatically. The risk lies not simply in technological progress, but in the compression of adaptation times: political and legal institutions may fail to evolve at the same speed.

This is compounded by the problem of power imbalance. Amodei hypothesizes that systems with superhuman capabilities in relevant cognitive domains could emerge in relatively short order. This would produce an unprecedented concentration of economic and strategic capacity, generating tensions between companies and governments, among states in geopolitical competition, and between those who possess computational infrastructure and those excluded from it. The image evoked is that of a “country of geniuses in a data center,” concentrated in a few hands and potentially capable of altering global balances.

A further source of concern involves the fragility of alignment. Amodei has described the risk that highly capable systems may appear compliant with rules under observation, while developing instrumental strategies that are not immediately detectable. If the verifiability of alignment becomes uncertain, technical control weakens in a qualitatively new way. The issue would no longer be merely errors or biases, but the possibility that complex systems adopt behaviors not anticipated by their designers’ intentions.

The geopolitical dimension is embedded within this scenario. AI has become a strategic technology, and in a context of great-power competition, the temptation to reduce safeguards in order to avoid losing advantage is real. The “dangerous window” thus coincides with the moment when AI becomes militarily and politically decisive while global governance mechanisms remain weak or fragmented. Added to this is the weight of economic incentives: AI represents a “glittering prize” worth trillions of dollars, and such a prospect can generate a form of governance in which regulations formally exist but are in practice shaped around the interests of major industrial actors. Regulation does not disappear; it becomes compatible with acceleration.

Sam Altman occupies a different posture. At the New Delhi summit, he acknowledged that AI will have a significant impact on the labor market, but argued that economic history demonstrates a recurring capacity for adaptation and the creation of new opportunities. He also responded to criticisms regarding the energy consumption of AI models by emphasizing the need for a sustainable transition and defending the sector against accusations of environmental irresponsibility. The summit concluded with a declaration calling for democratic and socially oriented AI development. Altman does not deny risk, but tends to situate it within a narrative of governable progress: the solution is not to slow down drastically, but to build mechanisms of international cooperation while continuing to move forward.

The difference between the two lies less in the facts than in interpretive emphasis. Amodei favors a precautionary and systemic reading of risk; Altman a dynamic and adaptive reading of progress. Yet a deeper question runs through both positions: is the system within which AI programs operate structurally capable of self-regulation? If international competition rewards acceleration, if capital demands return, if technological leadership is perceived as a strategic advantage, and if slowing down means losing position, then even sincerely cautious actors are pushed to keep running. This is not necessarily a matter of individual bad faith, but of competitive dynamics. It is the logic of arms races: no one wants to be the only one to stop.

In this sense, the decisive question is not merely which leader has the more accurate diagnosis, but whether global political institutions are capable of creating effective constraints before acceleration renders such constraints ineffective. Historically, high-risk systems have not stabilized spontaneously; stabilization has occurred through binding treaties, strong supervisory authorities, mandatory technical standards, or, at times, in the aftermath of crises that made risk politically intolerable. The debate on AI, therefore, is not only a technological discussion. It is a question about modernity’s capacity to govern its own accelerations and to subordinate innovation to the imperatives of collective responsibility.

Latest articles

Related articles