AI ed elezioni. Il default della verità – AI and elections. The default of truth

(Marzia Giglioli)

La parola è propaganda ma non ha più le connotazioni di una volta. E’ più misteriosa e più intelligente. Ed anche le sfide elettorali sono diventate più complesse, perché sul palcoscenico della politica c’è un nuovo attore che si chiama Intelligenza Artificiale. Uno dei guru della cybersecurity Bruce Schneier mette tutti sull’avviso: ‘l’AI è lo strumento ideale da usare nelle varie campagne elettorali e nei prossimi mesi c’è una particolare concentrazione di scadenze nell’ambito dei Paesi democratici’. Non è certo un elemento nuovo che i Paesi cerchino di influenzarsi a vicenda ma dal 2016, quando si è parlato di influenze russe sui social media mirate alle elezioni presidenziali americane, si è aperta una nuova era.

Senza entrare nella giungla di chi sia più responsabile di altri in termini di ‘influenza tecnologica’, si deve però registrare un nuovo fattore importante che riguarda la maggiore raffinatezza e potenza dell’intelligenza artificiale generativa e i grandi modelli linguistici. Questi ora hanno la capacità di produrre rapidamente e facilmente infiniti testi su qualsiasi argomento in qualsiasi tono e da qualsiasi prospettiva.

‘È uno strumento particolarmente adatto alla propaganda nell’era di Internet – afferma Schneier – inoltre tutto questo è molto nuovo. ChatGPT è stato introdotto nel novembre 2022. Il più potente GPT-4 è stato rilasciato nel marzo 2023. Altre IA per la produzione di linguaggi e immagini hanno più o meno la stessa età. Non è chiaro come queste tecnologie cambieranno la disinformazione, quanto saranno efficaci o quali effetti avranno. Ma stiamo per scoprirlo’.

Intanto si avvicina uno dei periodi elettorali a maggiore concentrazione, elemento di particolare rilevanza. Il 71% delle persone che vivono nelle democrazie voteranno da qui alla fine del prossimo anno. Argentina e Polonia a ottobre, Taiwan a gennaio, Indonesia a febbraio, India ad aprile, Unione Europea e Messico a giugno, gli Stati Uniti a novembre. Ed anche nove democrazie africane, incluso il Sud Africa, saranno chiamate alle urne nel 2024.

Di intelligenza artificiale e di elezioni si occupa da anni David Clementson dell’Università della Georgia che studia gli elementi anomali delle campagne elettorali. Egli ha stilato un vademecum di 6 modi con i quali l’intelligenza artificiale può generare campagne elettorali ingannevoli. Alla base di tutto c’è che gli uomini, anche i più scettici, tendono a credere a quanto gli viene proposto. Così si finisce per credere anche alle bugie più eclatanti, cadendo in quello che gli esperti chiamano ‘default della verità’.

Tra i 6 punti elencati nel menù dei rischi di una falsa propaganda elettorale c’è n’è uno che spicca e che riguarda i limiti morali dell’AI. I chatbot, secondo Clementson, tendono ad inventare cose che sono spesso prive di senso producendo informazioni ingannevoli. Ma mentre un operatore umano, anche se con pochi scrupoli, può avere ancora un briciolo di responsabilità, l’AI non ne ha alcuna. In pratica,  non ha nessuna coscienza. Se le campagne elettorali diffondessero messaggi dell’Intelligenza Artificiale senza alcun filtro umano o senza ‘bussola morale’, le bugie potrebbero essere senza controllo con i danni che si possono immaginare.

Possiamo dire che il web rappresenterà sicuramente il nuovo teatro di scontro politico con molti attori in scena e molte comparse nascoste dietro le quinte.

(English version) 

The word is propaganda but it no longer has the connotations it once had. It is more mysterious and more intelligent. And electoral challenges have also become more complex, because there is a new actor on the political stage called artificial intelligence. One of the cybersecurity gurus Bruce Schneier puts everyone on notice: ‘AI is the ideal tool to use in various election campaigns, and in the coming months there is a particular concentration of deadlines in democratic countries’. It is certainly not a new element that countries try to influence each other, but since 2016, when there was talk of Russian influences on social media targeted at the US presidential elections, a new era has opened up.

Without getting into the jungle of who is more responsible than others in terms of ‘technological influence’, however, there is an important new factor to be recorded, which concerns the increased sophistication and power of generative artificial intelligence and large language models. These now have the ability to quickly and easily produce endless texts on any subject in any tone and from any perspective.

‘It is a tool particularly suited for propaganda in the Internet age’, Schneier says, ‘and it is also very new. ChatGPT was introduced in November 2022. The more powerful GPT-4 was released in March 2023. Other AI for language and image production are about the same age. It is unclear how these technologies will change disinformation, how effective they will be, or what effects they will have. But we are about to find out.

In the meantime, one of the most concentrated election periods is approaching. 71% of people in democracies will vote between now and the end of next year. Argentina and Poland in October, Taiwan in January, Indonesia in February, India in April, the European Union and Mexico in June, the United States in November. And nine African democracies, including South Africa, will also be called to the polls in 2024.

Artificial intelligence and elections have been the concern of David Clementson of the University of Georgia for years, who studies the anomalous elements of election campaigns. He has compiled a vademecum of 6 ways in which artificial intelligence can generate misleading election campaigns. Humans, even the most sceptical, tend to believe what is put before them. So they end up believing even the most blatant lies, falling into what experts call the ‘truth default’.

Among the 6 points listed in the menu of risks of false election propaganda there is one that stands out and concerns the moral limits of AI. Chatbots, according to Clementson, tend to invent things that are often meaningless by producing misleading information. But while a human operator, even one with few scruples, may still have a shred of responsibility, the AI has none. In practice, it has no conscience. If election campaigns were to spread AI messages without any human filter or ‘moral compass’, the lies could be unchecked with the damage one can imagine.

What is certain is only that the web will surely be the new theatre of political confrontation with many actors on stage and many extras hidden behind the scenes.

(riproduzione riservata)

Latest articles

Related articles