Intelligenza artificiale, equilibrio bipartisan tra prevenzione e innovazione. Ma c’è chi vede i rischi di troppe regole

(Marzia Giglioli)

Mentre l’intelligenza Artificiale si materializza in sempre più ambiti, l’interrogativo di fondo è se sia davvero possibile una soluzione bipartisan tra la prevenzione dei possibili rischi e il futuro dell’innovazione. Un quesito complesso che The Global Eye affronta ogni giorno dando spazio ad interviste e analisi dai think tank che raccolgono opinioni anche opposte, non necessariamente rappresenti il nostro punto di vista, e che sarebbe sbagliato non mettere a confronto.
Il focus rimane quello di affrontare in maniera complessa quello che rappresenta l’intelligenza artificiale, simbolo – ormai – del futuro già  presente.

Mentre si discute tutto il mondo di nuovi codici e di regolamentazioni idonee, riportiamo una voce fuori dal coro: quella di Jeremy Straub, direttore del Cybersecurity Institute della North Dakota State University che, su The Hill, ha pubblicato un lungo intervento che abbiamo sintetizzato nei punti più salienti: ‘Troppe regole minacciano di soffocare l’innovazione dell’IA’ e, in tal modo, si potrebbe persino ‘violare i diritti del Primo Emendamento’.

‘Regolamentare lo sviluppo è una cattiva idea – afferma Straub -. Lo sviluppo dell’intelligenza artificiale deve essere trattato come un discorso protetto ed è soggetto allo stesso divieto di restrizione preventiva di qualsiasi altra forma di discorso’. ‘La regolamentazione dello sviluppo dell’intelligenza artificiale – continua Straub – rappresenta una sfida significativa regolamentando l’uso del linguaggio descrittivo del software. Sarà inoltre difficile per le autorità di regolamentazione distinguere tra intelligenza artificiale e altri tipi di software’.

Inoltre, secondo Straub ‘i costi e gli oneri della regolamentazione soffocheranno l’innovazione e potrebbero danneggiare drasticamente le startup di intelligenza artificiale che non hanno le conoscenze, le risorse e il tempo per destreggiarsi in un quadro normativo complesso’ (leggasi complicato, ndr …).

Nella sua nota Straub afferma che ‘qualsiasi intelligenza artificiale che potrebbe avere un effetto dannoso verrà comunque sviluppata, ma da qualche altra parte. Nel peggiore dei casi, potrebbe essere usata contro gli Stati Uniti, che rimarrebbero senza le difese che avrebbero potuto avere se l’innovazione fosse stata incoraggiata’.

‘Inoltre, non abbiamo bisogno di una nuova agenzia di regolamentazione dell’IA. Oltre al costo per i contribuenti, alla potenziale duplicazione degli sforzi e alla confusione che creerà, l’intelligenza artificiale non dovrebbe essere trattata diversamente da un essere umano (o altro software) che prende le stesse decisioni’.

‘La discriminazione di classe protetta dovrebbe essere vietata. Non abbiamo bisogno di gestire un’intelligenza artificiale discriminante in modo diverso da un processo software discriminante umano o automatizzato non basato sull’intelligenza artificiale. Lo stesso argomento vale in numerosi altri ambiti. I consumatori dovrebbero essere protetti dalle pratiche commerciali sleali, indipendentemente dal fatto che coinvolgano o meno un’intelligenza artificiale. I farmaci e i dispositivi medici dovrebbero essere sicuri, indipendentemente dal fatto che siano progettati o implementati da un’intelligenza artificiale o meno. Fortunatamente, disponiamo già di agenzie preposte a svolgere tutte queste attività, come la Commissione per le pari opportunità di lavoro (EEOC), la Federal Trade Commission (FTC) e la Food and Drug Administration (FDA)’.

‘Invece di sviluppare una nuova agenzia, il Congresso dovrebbe stanziare fondi a ciascuna agenzia pertinente per riunire esperti provenienti dal governo, dal settore privato e dal mondo accademico per identificare e proporre soluzioni a qualsiasi legge esistente che potrebbe dover essere aggiornata alla luce dell’intelligenza artificiale’.

Jeremy Straub è il direttore del Cybersecurity Institute della North Dakota State University, senior fellow del Challey Institute e professore associato presso il Dipartimento di informatica dell’NDSU. Le opinioni presentate sono le sue

Latest articles

Related articles