Nell’agosto 2021, un attacco di droni statunitensi a Kabul, in Afghanistan, ha ucciso un operatore umanitario dopo che questi aveva caricato delle taniche d’acqua nella sua auto, e altri nove civili, tra cui sette bambini. Nel novembre 2023, un missile israeliano al confine con il Libano ha ucciso una nonna e le sue tre nipoti che stavano anch’esse trasportando taniche d’acqua. Nell’aprile 2024, quando le Forze di Difesa Israeliane (IDF) hanno colpito un convoglio della World Central Kitchen, chiaramente identificabile, la condanna internazionale della campagna israeliana a Gaza è aumentata vertiginosamente. E più recentemente, l’attacco con un missile Tomahawk del 28 febbraio alla scuola elementare Shajarah Tayyebeh a Minab, così come le notizie sull’uso diffuso di algoritmi di targeting nella campagna in corso contro l’Iran, hanno suscitato profonda preoccupazione nel Congresso degli Stati Uniti e nell’opinione pubblica riguardo alle operazioni militari che si basano su modelli di intelligenza artificiale (sebbene non sia ancora chiaro in che misura l’IA abbia contribuito ai fallimenti che hanno portato all’attacco di Minab). Con il targeting algoritmico che riduce il ruolo degli operatori umani e le capacità di attacco decentralizzate che amplificano le sfide di coordinamento, gli incidenti di alto profilo che causano la morte di civili sul campo di battaglia producono conseguenze a livello strategico sia per i Paesi che per le aziende che finanziano le capacità militari. Le procedure esistenti di test, valutazione, convalida e verifica (TEVV) non affrontano in modo sufficiente il ruolo crescente degli algoritmi nel targeting militare, il che rischia di compromettere il rispetto del diritto umanitario. Sebbene le linee guida del Dipartimento della Difesa statunitense (DoD) sull’implementazione responsabile dell’IA enfatizzino i principi etici e la Direttiva 3000.09 imponga una revisione legale dell’acquisizione o della modifica di sistemi d’arma autonomi per garantire la conformità con il diritto nazionale e internazionale, il DoD attualmente non ha un requisito specifico per garantire che gli algoritmi di targeting riconoscano gli attori umanitari, compresi gli operatori umanitari, né esiste uno standard chiaro con cui misurare la conformità. Ciò è palesemente insufficiente rispetto all’obbligo degli Stati Uniti di prestare costante attenzione e garantire precauzioni fattibili per proteggere i civili ai sensi dell’articolo 57 del Protocollo aggiuntivo I (AP I) alle Convenzioni di Ginevra e del corrispondente diritto internazionale umanitario consuetudinario (DIU). Colmare questo divario è fondamentale sia per l’efficacia militare e strategica degli Stati Uniti, sia per il rispetto della legge.
Una riflessione da Just Security



