TechInnovation/Digital Sovereignity – Der Arbeiter 4.0. La sfida della sovranità digitale al tempo dell’intelligenza artificiale (Mario Bozzi Sentieri, Barbadillo)

Sovranità digitale?

Il 21 aprile 2021 la Commissione Europea ha presentato la propria proposta di Regolamento europeo sull’Intelligenza Artificiale, volta ad introdurre una disciplina unanime e condivisa tra gli Stati Membri nell’ottica di garantire i diritti e le libertà fondamentali di tutti i cittadini europei.

Non è un passaggio di poco conto. Con questo atto, in via di discussione/approvazione, l’Unione Europea si vuole posizionare come attore di riferimento nell’ambito dell’Intelligenza  Artificiale , offrendo un’alternativa al modello Statunitense e a quello Cinese. Due approcci molto diversi: negli Stati Uniti, in assenza di una legislazione specifica, vengono applicate le regole a tutela dei consumatori, volte soprattutto a evitare pratiche ingannevoli e discriminatorie. I poteri in questo campo spettano, infatti, alla Federal Trade Commission (FTC), l’autorità garante dei diritti dei consumatori.

In Cina, contrariamente, gli algoritmi di Intelligenza Artificiale sono  utilizzati per assegnare ai cittadini un social scoring, un punteggio che in tutto e per tutto determina la loro vita: dall’accesso ad alcuni servizi (come la possibilità di richiedere un prestito bancario), alla possibilità o meno di ricevere un’offerta di lavoro, fino ad arrivare a limitazioni agli spostamenti (sotto a un determinato punteggio ai cittadini non è permesso di uscire dal Paese).

Non avendo le tecnologie sufficienti per contrastare le due superpotenze tecnologiche l’Europa si muove cercando di regolamentare il mercato, puntando sulla tutela degli  “utenti” e quindi sull’obbligo per le aziende straniere di rispettare i criteri di eticità indicati dall’Unione Europea, per la quale – si legge nel regolamento europeo sull’Intelligenza Artificiale – “devono essere centrate sull’essere umano, per garantire fiducia nel fatto che la tecnologia venga utilizzata in maniera sicura e coerente con il diritto, inclusi i diritti fondamentali”.

La  proposta della Commissione europea  prevede la suddivisione delle tecnologie e dei sistemi di AI in:

  • Tecnologie con rischio inaccettabile che comprendono tutti i sistemi AI considerati una chiara minaccia alla sicurezza, ai mezzi di sussistenza e ai diritti delle persone. Rientrano in questa categoria sistemi o applicazioni di AI che manipolano il comportamento umano per aggirare il libero arbitrio degli utenti (ad esempio, giocattoli che usano l’assistenza vocale incoraggiando comportamenti pericolosi dei minori) e sistemi che permettono il “punteggio sociale” da parte dei governi. Queste tecnologie saranno vietate;
  • tecnologie con rischio alto“, che comprendono ad esempio i sistemi AI di verifica dei documenti per il passaggio di frontiera, di affidabilità delle prove in sede giudiziaria e di identificazione biometrica a distanza. Questi sistemi dovranno aderire ad obblighi e standard rigorosi prima di venire immessi sul mercato;
  • tecnologie a rischio minimo“, come filtri anti-spam o videogiochi abilitati dall’Intelligenza Artificiale, che rimarranno esclusi dal regolamento.

Non tutti però sono convinti che questo approccio riuscirà veramente a garantire il rispetto dei diritti umani. 

Come si legge in una nota di FDI: “Lo sviluppo e l’applicazione dell’intelligenza artificiale deve basarsi su rigide regole o rischiamo scenari inquietanti da “Omniscient”, come avviene per il riconoscimento biometrico per le fattezze razziali degli Uiguri, accusati in quanto tali di essere terroristi, fino ad arrivare alla distorsione della stessa natura umana, come avvertono numerosi esperti di etica dell’innovazione come Paolo Benanti”. 

La questione è troppo seria per lasciarla in balia degli “specialisti” di settore. Qui  si gioca una partita di civiltà che non va sottovalutata e che deve vedere il coinvolgimento delle forze sociali, del mondo della cultura e dell’informazione. A partire soprattutto dai rischi rappresentanti  dall’uso distorto dell’AI. La via individuata dalla Commissione europea al fine  di rispettare i criteri di eticità indicati è una buona base di partenza. A patto però di non limitarsi alle dichiarazioni di principio, come spesso, purtroppo, accade nell’ambito dell’Unione Europea.

Marco Emanuele
Marco Emanuele è appassionato di cultura della complessità, cultura della tecnologia e relazioni internazionali. Approfondisce il pensiero di Hannah Arendt, Edgar Morin, Raimon Panikkar. Marco ha insegnato Evoluzione della Democrazia e Totalitarismi, è l’editor di The Global Eye e scrive per The Science of Where Magazine. Marco Emanuele is passionate about complexity culture, technology culture and international relations. He delves into the thought of Hannah Arendt, Edgar Morin, Raimon Panikkar. He has taught Evolution of Democracy and Totalitarianisms. Marco is editor of The Global Eye and writes for The Science of Where Magazine.

Latest articles

Related articles