Intelligenza artificiale e stereotipi – Artificial intelligence and stereotypes

(Marzia Giglioli) 

Intelligenza artificiale e stereotipi. Il mondo come un cartone animato

Si può giocare con l’intelligenza artificiale e scoprire poi che il gioco diventa insidioso. È quanto ha fatto Buzzfeed, società anericana che si occupa di media e di monitorare sul web i contenuti virali. Ha chiesto all’IA di abbinare una Barbie ad un Paese d’origine e ne è scaturita una sequenza di luoghi comuni e di stereotipi che rappresentano l’immagine esterna delle idee artificiali predominanti.

Per alcune Barbie ci sono stati evidenti errori come il colore della pelle ma altre Barbie fanno riflettere: la Barbie libanese posava in piedi sulle macerie; la Barbie tedesca indossava abiti in stile militare; la Barbie del Sud Sudan portava la pistola.

Giocando con l’intelligenza artificiale, Bloomberg ha invece scoperto a che, sempre con l’IA, le immagini associate ai lavori meglio retribuiti  fanno apparire persone dalla pelle chiara e per la maggior parte uomini.

Come riporta Rest of World, Amba Kak – direttore esecutivo dellAI Now Institute, che si occupa di ricerca politica – ha detto che gli stereotipi non sono intrinsecamente negativi, ma sono comunque stereotipi e riflettono un particolare giudizio di valore, segnando inevitabilmente anche le diversità. ‘Sicuramente non rappresenta la complessità, l’eterogeneità delle culture’ ha dichiarato Sacha Luccioni, ricercatrice di Intelligenza Artificiale etica presso Hugging Face.

I generatori di immagini ormai vengono utilizzati nei campi più diversi e le rappresentazioni non possono che avere implicitamente un alto quoziente di ‘giudizio implicito’ sul modo con il quale viene rappresentata, per esempio, una comunità o un singolo abbinato alle sue radici di appartenenza.

Il mondo rischia di essere un cartone animato fatto di immagini, e non sempre dal lieto fine.

(English version)

Artificial intelligence and stereotypes. The world as a cartoon

We can play with artificial intelligence and then find that the game becomes insidious. This is what Buzzfeed, an American media company that monitors viral content on the web, did. It asked the AI to match a Barbie to a country of origin and the result was a sequence of clichés and stereotypes representing the external image of the predominant artificial ideas.

For some Barbies there were obvious mistakes such as skin colour but other Barbies make us thinking: the Lebanese Barbie stood on rubble; the German Barbie wore military-style clothes; the South Sudanese Barbie carried a gun.

Playing with artificial intelligence, Bloomberg instead discovered that, again with AI, the images associated with better paid jobs make light-skinned and mostly male people appear.

As Rest of World reports, Amba Kak – executive director of theAI Now Institute, which focuses on political research – said that stereotypes are not inherently negative, but they are stereotypes nonetheless and reflect a particular value judgement, inevitably marking diversity as well. ‘It certainly does not represent the complexity, the heterogeneity of cultures,’ said Sacha Luccioni, researcher in ethical artificial intelligence at Hugging Face.

Image generators are now used in the most diverse fields and representations cannot but have a high quotient of ‘implicit judgement’ on the way a community or an individual is represented, for example, matched to its roots.

The world runs the risk of being a cartoon made of images, and not always with a happy ending.

(riproduzione autorizzata citando la fonte)

 

Latest articles

Related articles