(Marzia Giglioli)
L’intelligenza artificiale ha bisogno di più coscienza. Socrate si chiedeva se esista un modo per distinguere la pietà dalla non pietà: con molta lungimiranza, stava anticipando il concetto di algoritmo. Noi oggi ci chiediamo se l’intellgenza artificiale sapra’ essere pietosa e se potrà davvero interpretare concetti etici.
Non si tratta solo di regole, quelle che anche l’AI Act – appena approvato dai Paesi europei – cerca di adottare, ma di trovare linguaggi profondamente interpretativi.
Si tratta di saper entrare nel campo semantico che separa la pietà dalla crudeltà. Il peso delle parole deve saper interpretare il peso dei principi, e gli algoritmi non dovranno sbagliare. Cercando nelle regole del linguaggio, la crudeltà è una nozione che non ha una grande forza teoretica, rimanda più che altro a comportamenti, piuttosto che a elaborazioni astratte. L’esercizio della crudeltà è a sua volta abnorme, si può nascondere nel linguaggio antagonista, nella propaganda che ne legittima l’uso, nelle false verità, nella violenza di genere. È spesso più invisibile e per questo più insidioso. Il campo semantico della pietas è invece più definito, si associa a una rosa di concetti astratti più identificabili come umanità, giustizia, carità, che ne definiscono il concetto etico, ma tradurlo non è impresa facile per un algoritmo.
L’intelligenza artificiale, che è addestrata su grandi modelli linguistici, dovrà essere capace di definire i confini tra questi due linguaggi, per arginare il proprio potere di distruzione e per non attentare, come ha detto giorni fa Papa Francesco, ‘alla casa comune dell’uomo’.
Uno studio di un gruppo di ricerca tedesco (pubblicato sulla Rivista Plos One) dimostra intanto che la pietà sembra svilupparsi più dalla parte dell’uomo verso la macchina, che non viceversa. Le persone coinvolte nel test si sono dimostrate estremamente sensibili dichiarando di non riuscire a togliere il contatto se i robot chiedono di non essere spenti.
Nel test i robot dichiaravano di aver ‘paura del buio’ e di voler ‘salva la vita’. Lo scopo dei ricercatori era quello di far familiarizzare gli uomini e le macchine e misurare, appunto, la pietà. Dei 43 volontari dell’esperimento, 13 si sono rifiutati di spegnere il robot, mentre gli altri 30 hanno impiegato molto tempo nel decidere. Si chiama regola della reciprocità, teorizzata dagli psicologi Reeves e Nasseck per spiegare che si tende a trattare le macchine (tv, computer e robot) come fossero umani. Impossibile, per ora, dimostrare se l’intelligenza Artificiale abbia la stessa coscienza e gli stessi scrupoli.
(English version)
Artificial intelligence needs more consciousness. Socrates wondered if there was a way to distinguish pity from non-pity: with great foresight, he was anticipating the concept of the algorithm. Today we ask ourselves whether artificial intelligence will be able to be compassionate and whether it will really be able to interpret ethical concepts.
It is not just a question of rules, those that the AI Act – just approved by European countries – seeks to adopt, but of finding deeply interpretative languages.
It’s about knowing how to enter the semantic field that separates mercy from cruelty. The weight of words must be able to interpret the weight of principles, and the algorithms must not make mistakes. Looking at the rules of language, cruelty is a notion that does not have great theoretical strength, it refers more to behaviors rather than abstract elaborations. The exercise of cruelty is itself abnormal, it can be hidden in antagonistic language, in propaganda that legitimizes its use, in false truths, in gender violence. It is often more invisible and therefore more insidious. The semantic field of pietas is instead more defined, it is associated with a series of more identifiable abstract concepts such as humanity, justice, charity, which define the ethical concept, but translating it is not an easy task for an algorithm.
Artificial intelligence, which is trained on large linguistic models, will have to be able to define the boundaries between these two languages, to stem its own power of destruction and not to attack, as Pope Francis said a few days ago, ‘the common home of man’.
Meanwhile, a study by a German research group (published in the journal Plos One) demonstrates that pity seems to develop more from man towards the machine, rather than vice versa. The people involved in the test proved to be extremely sensitive, declaring that they were unable to remove the contact if the robots asked not to be turned off.
In the test the robots declared that they were ‘afraid of the dark’ and wanted to ‘save their lives’. The researchers’ aim was to familiarize men and machines and measure pity. Of the 43 volunteers in the experiment, 13 refused to turn off the robot, while the other 30 took a long time to decide. It’s called the reciprocity rule, theorized by psychologists Reeves and Nasseck to explain that we tend to treat machines (TV, computers and robots) as if they were humans. It is impossible, for now, to demonstrate whether artificial intelligence has the same conscience and the same scruples.
(riproduzione autorizzata citando la fonte – reproduction authorized citing the source)