Quanto serve l’intelligenza artificiale ? Riflessioni su benefici, deficit e ‘mostri di utilità’

(Marzia Giglioli)

La domanda è se esista davvero l’utility monster descritto da Robert Nozick e se oggi il cammino non sia quello di un modello che uccide molti (per esempio, sul mercato del lavoro) in nome di uno sviluppo totale (leggi: intelligenza artificiale). L’esperimento mentale di Nozick non è solo uno studio di etica, più o meno condivisibile, ma è uno spunto di riflessione sull’oggi. C’è davvero la possibilità che ‘mostri di utilità’ ottengano il massimo risultato da qualsiasi sacrificio di altri ? La teoria sembra richiedere che tutti noi siamo sacrificati nelle fauci del mostro, al fine di aumentare l’utilità totale. E Nick Bostrom, il filosofo della Silicon Valley e mente influente di Oxford, scrive che “ciò che è buono per l’AI può essere molto diverso da ciò che è buono per l”essere umano”. E ora è molto atteso il suo prossimo libro che, come si legge nel suo sito, dovrà uscire in primavera.
Intanto immaginiamo un mondo poco popolato in cui esistono 5 persone con livello di felicità 10 (totale: 50), ma potremmo anche pensare che un mondo più popolato con 10 persone con livello di felicità 6 (totale 60) sia migliore, perché il livello totale di felicità è maggiore.
Il tema riguarda il fatto se sia giusto ridurre la felicità media per aumentare quella totale, o se non sia meglio ridurre la totale per aumentare la media, ma questo non piace all’utility monster.
La questione, meno filosofica, riguarda il nostro futuro tecnologico e quanto i traguardi dell’intelligenza artificiale possano essere misurati in rapporto ai possibili deficit che si creano (nei settori della sicurezza, della salute, dei diritti).
Derek Parfit sosteneva che non esiste barriera concettuale ai valori estremi e che le menti digitali possono superare di gran lunga gli esseri umani nei benefici che traggono. Ma è un catastrofismo per ora filosofico.
I progressi indotti dall’AI sono immensi, la paura del mostro non può inibirne il futuro, sarebbe negare l’evoluzione tecnologica ed il futuro possibile. Il traguardo auspicabile e’ l’equilibrio complesso che bisognerà raggiungere in questo Mondo Nuovissimo.
Intanto, in queste ore, Sam Altman, il papà di ChatGPT, dichiara: “Non dormo la notte se penso ai rischi e alla mancanza di regole”.
Il rischio che l’AI divenga incontenibile è dietro l’angolo: per questo Altman insiste che bisogna prevenire e mette in guardia tutti.

(riproduzione autorizzata citando la fonte)

Latest articles

Related articles