(Marzia Giglioli)
Le fake news stanno passando di moda per chi vuole innescare la malainformazione.
Oggi il rischio si chiama deepfake. E la vittima più illustre in questi giorni è stato il presidente Biden con le false telefonate (con la sua voce copiata) che hanno invitato molti elettori a non andare a votare. La Federal Communications Commission ha vietato le false chiamate robotizzate tramite intelligenza artificiale agli elettori. La FCC multerà i robocaller fino a $ 23.000. La misura arriva mentre l’agenzia sta lavorando con gli stati per rintracciare i trasgressori.
False news, deepfake, video e social bugiardi. Alla base di tutto funziona il principio che le persone condividono le comunicazioni false quando supportano le loro convinzioni, anche se si ha la percezione che siano false. È un paradosso ma succede così e i ricercatori lo confermano in tante analisi e studi sulla comunicazione. E non importa se il contenuto sia contrassegnato come notizia falsa. I contenuti e le false news li ricordiamo spesso come reali. “Inoltre, attraverso la ripetizione, il contenuto si radica nella testa delle persone”, afferma Steven Sloman, psicologo cognitivo della Brown University.
Questo processo di “riconoscimento” viene accentuato con le immagini, i video e l’audio che tendono a rimanere nella mente più del testo. “Quando vediamo accadere qualcosa, è naturale che ci crediamo”, afferma ancora Sloman. Quindi i deepfake sono condivisi e creduti ancora di più.
Ma c’è un pericolo ancora più subdolo: seminano incertezza.
E, se le persone non riescono a distinguere tra due versioni, tendono a considerare le immagini che non sono in linea con le loro opinioni come fossero reali.
Tutti siamo anche piuttosto scadenti nel riconoscere deepfake soprattutto audio (come è accaduto agli elettori del New Hampshire) .
“Non sorprende che possiamo essere ingannati”, afferma il neuroscienziato computazionale Tijl Grootswagers della Western Sydney University citato da Cnn: “Nella nostra vita, non dobbiamo mai pensare a chi è una persona reale o una persona falsa”, afferma. “Non è un compito per il quale siamo stati addestrati”.
Uno studio ha scoperto addirittura che avvisare le persone che i video potrebbero essere generati dall’intelligenza artificiale non li ha resi più bravi ad essere critici. Invece, li ha resi più propensi a non credere a tutto ciò che vedono. Così i deepfake rappresentano una minaccia maggiore. Seminano caos. E in politica è davvero un rischio troppo elevato.
Molte società stanno elaborando software per riconoscere ed intercettare deepfake ma è un lavoro arduo perché le immagini false sono sempre più perfezionate, presentano meno errori e l’AI è sempre più sofisticata.
(riproduzione autorizzata citando la fonte)