(Marzia Giglioli)
I bias dell’intelligenza artificiale sono un problema. Gli algoritmi e i loro database stanno dimostrando sempre di più di non prescindere dai pregiudizi e dai sessismi e a farne le spese sono le minoranze e le donne.
Ma se fino a qualche tempo fa si trattava di dissertazioni accademiche e di allarmi inascoltati, ora della questione se ne occupa lo Stato della California che ha presentato una legge rivolta alle ‘discriminazioni finanziarie’, ovvero a quelle scelte selettive che vengono attuate nel concedere aiuti economici alle società richiedenti.
La California potrebbe diventare così il primo Stato a chiedere alle società di venture capital di rivelare i dati relativi alla razza e al sesso dei proprietari delle società che vengono finanziate. Il disegno di legge attende ora la firma del Governatore, Gavin Newsom.
E naturalmente è già scontro tra le società finanziarie che parlano di esagerazioni burocratiche e i gruppi per i diritti civili. In prima linea c’è l’imprenditoria femminile che da tempo si batte per le pari opportunità nella Silicon Valley e che guarda alla proposta legislativa come ad uno strumento di nuova tutela.
Proprio nella Silicon Valley i dati dimostrano forti disuguaglianze nella concessione dei finanziamenti. Basti guardare a come affluiscono i capitali alle startup che, nella stragrande maggioranza, vanno agli imprenditori maschi e bianchi. Come riporta il Guardian, uno studio del Project Diane nel 2022 ha registrato che le aziende fondate da donne hanno ottenuto solo il 2% dei finanziamenti, quelle guidate da donne nere o latine hanno ricevuto appena lo 0,85%.
Intanto, l ‘intelligenza artificiale sommessamente è già da tempo entrata nella nostra vita: può determinare se una persona verrà assunta o meno da un’azienda, decide una diagnosi clinica e la terapia, modella le classifiche per gli aiuti sociali. Sostituisce il lavoro intellettuale e ne determinerà così il valore e gli orientamenti e sembra inevitabile che entrerà nelle scelte strategiche senza avere ‘coscienza’ della complessità .
La riflessione che si impone è quella di definirne i confini più equi, perché l’ AI viene addestrata e costruita su dati non ‘depurati’ e diventa così lo specchio della società, difetti compresi e assimilati.
(English version)
Artificial intelligence bias are a problem. Algorithms and their databases are proving again and again that they do not disregard biases and sexism, and it is minorities and women who suffer.
But if until recently these were academic dissertations and unheeded alarms, now the State of California is dealing with the issue. It has introduced a law targeting ‘financial discrimination’, i.e. those selective choices that are made when granting economic aid to applicant companies.
California could thus become the first State to require venture capital companies to disclose data on the race and gender of the owners of the companies being financed. The bill now awaits the signature of the Governor, Gavin Newsom.
And of course it is already a clash between the financial companies, who speak of bureaucratic exaggerations, and civil rights groups. At the forefront is the women’s business community, which has been fighting for equal opportunities in Silicon Valley for some time now and is looking at the proposed legislation as a means of new protection.
Precisely in Silicon Valley, the data show strong inequalities in the granting of funding. Just look at how capital flows to start-ups, the vast majority of which goes to white, male entrepreneurs. As the Guardian reports, a study by Project Diane in 2022 recorded that companies founded by women received only 2% of funding, those led by black or Latina women received just 0.85%.
Meanwhile, artificial intelligence has long since entered our lives: it can determine whether or not a person will be hired by a company, it decides on a clinical diagnosis and therapy, it shapes social aid rankings. It replaces intellectual work and thus determines its value and orientation, and it seems inevitable that it will enter into strategic choices without being ‘aware’ of the complexity.
The reflection that is required is to define its boundaries more fairly, because AI is trained and built on data that are not ‘purified’ and thus becomes a mirror of society, faults included and assimilated.
(riproduzione riservata)