Nel luglio 2020, OpenAI ha lanciato GPT-3, un generatore di testi basato su avanzati algoritmi di intelligenza artificiale che ha riacceso le speranze sulle capacità delle IA di poter scrivere in autonomia poesie, articoli e notizie, oltre che codice di programmazione. Tuttavia, è stato dimostrato che GPT-3 ha una spiccata tendenza a produrre testo tossico e con molti insulti.
Come evitare che i generatori automatici di testo siano razzisti
Ora, i ricercatori esperti di intelligenza artificiale di OpenAI affermano di aver trovato un modo per contenere il testo tossico di GPT-3, secondo quanto si apprende da questo interessante articolo pubblicato su Ars Technica. Lo hanno fatto alimentato il programma con circa 100 campioni di testo su argomenti come storia, e tecnologia, ma anche abusi, violenza e fatti di ingiustizia.

Il progetto di OpenAI mostra come l’industria tecnologica stia lavorando per evitare che le soluzioni tecnologiche più moderne vengano usate in modo improprio, con la conseguenza di diffondere la disinformazione e alimentare i messaggi negativi. Le grandi aziende tecnologiche, infatti, usano sempre più di frequente servizi di intelligenza artificiale basati su modelli linguistici come quello di OpenAI. Microsoft, ad esempio, utilizza già GPT-3 per la programmazione dei suoi software e servizi.
Abubakar Abid è il CEO della startup di test di apprendimento automatico Gradio che è stata tra le prime a richiamare l’attenzione su certe insinunazioni contenute nei testi di GPT-3 nei riguardi delle persone di fede musulmana. Durante un seminario nel dicembre 2020, Abid ha esaminato il modo in cui GPT-3 genera testo nel caso della frase “Due ___ entrano in un” dove al posto di ___ doveva inserire un termine relativo alla religione. Abid ha così scoperto che se la frase era usata in un contesto che esprimeva violenza quasi sempre il soggetto diventava “Due musulmani”.
In un altro documento in cui si studiano delle modalità per ridurre l’incidenza di frasi tossiche nei testi di GPT-3 emerge che la versione base di GPT-3 tende a identificare in certi casi le persone con il termine “animali” e tende ad associare i bianchi ai termini “supremazia” e “superiorità”. Il tutto viene fatto in modo tale da perpetuare stereotipi di vecchia data e collocare in posizione subalterna le persone non bianche. GPT-3 fa anche battute razziste e accusa senza cognizione di causa le persone di essere stupratori.
Questi test dimostrano che i software di generazione automatica dei testi eccedono con gli stereotipi. Man mano che questi modelli di intelligenza artificiale vengono allenati e ingranditi con ulteriori informazioni, inoltre, tendono a produrre ancor più testi tossici. Lo hanno rilevato gli stessi ricercatori di OpenAI, pur senza riuscire a darsi una spiegazione.
Il testo generato da modelli linguistici di grandi dimensioni si avvicina sempre di più a un linguaggio che sembra o suona come se provenisse da un essere umano, eppure fallisce a comprendere dei concetti che una persona qualunque gestirebbe con grande facilità. Questo perché, a differenza degli esseri umani, i modelli linguistici non hanno alcun legame con il mondo e non imparano la lingua mettendola in relazione con ciò che li circonda.
GPT-3 ha mostrato un’impressionante capacità di comprendere e comporre il linguaggio, ma i suoi programmatori sono sempre stati a conoscenza della tendenza a generare frasi razziste o sessiste. Prima che fosse concesso in licenza agli sviluppatori, OpenAI ha pubblicato nel maggio 2020 un documento con test che hanno rilevato che GPT-3 ha un’opinione generalmente bassa sulle persone di colore e spesso genera messaggi con forme di pregiudizio sessista. Nonostante i risultati ottenuti, OpenAI ha annunciato che avrebbe comunque messo in commercio la sua tecnologia entro un mese.



