Intelligenza artificiale e guerra. La campagna Stop killer robots per il bando

by Rachele Gonnelli * | 19 Marzo 2019 9:50

Loading

Ecco, questo delicato marchingegno kamikaze senza colpe né dubbi è un killer robots, un mini drone programmato per decidere autonomamente chi uccidere e chi no, il protagonista prescelto per le guerre «intelligenti» del futuro, un futuro non tanto lontano.

GIÀ DA UN PAIO D’ANNI negli Stati uniti si è sviluppato un dibattito sulla messa al bando preventiva di questi sistemi d’arma che, utilizzando robotica di precisione e tutte le tecnologie più innovative nel campo dell’intelligenza artificiale, sono chiamati ad agire militarmente, nuovi soldatini guidati da una complessa serie di algoritmi piuttosto che dalla imprecisa e tremolante mano umana.

Già 28 Paesi, tra cui la Cina, hanno chiesto la loro messa al bando; ci sono a Bruxelles tavoli di esperti che studiano la materia e riferiscono a governi europei estremamente preoccupati del possibile lancio di questa nuova gamma di micidiali prodotti, ordigni intelligenti ma non troppo, visto che possono scambiare uno scuolabus per uno struzzo e forse per un commando terrorista attraverso errori di progettazione e quelli che gli esperti chiamano «bias» o «bachi di sistema», in ogni caso capaci di rivoluzionare lo scenario di una conflittualità mondiale permanente come quando e molto di più fu esploso il primo fungo nucleare.

Pochi giorni fa la Rete italiana per il disarmo – vincitrice del premio Nobel per la pace 2017 come partner dell’Ican – ha lanciato la campagna «Stop killer robots» anche in Italia – dopo Francia, Germania e Usa – con un appello firmato da 110 scienziati italiani, ricercatori, dottorandi e professori universitari, quasi tutti informatici, ingegneri della conoscenza, esperti di robotica e di Ai, intelligenza artificiale, che chiede alla comunità internazionale di fermare l’elaborazione di sistemi d’arma a guida autonoma.

«In realtà ci può anche essere una autonomia totale dell’arma per quanto riguarda l’autodiagnosi, per vedere se c’è un malfunzionamento, o sulla mobilità ma non sul targeting e sul firing, cioè sulla scelta dell’obiettivo da colpire e sul far fuoco», spiega Diego Latella, segretario dell’Unione scienziati per il disarmo (Uspid) e informatico ricercatore del Cnr.

QUELLO CHE GLI SCIENZIATI chiedono anche nella petizione lanciata dall’associazione Life for Future (finanziata anche da Elon Musk di Tesla ndr) è la messa al bando delle armi completamente autonome quando i gradi di autonomia sono tre – spiega Latella – e si definiscono con la minimizzazione dell’intervento umano: «human in the loop» a totale controllo dell’uomo, «human on the loop», quando l’uomo interviene, «human out the loop», quando la presenza umana non è richiesta per niente.

«Non si tratta qui di dividerci tra apocalittici e integrati – dice Guglielmo Tamburrini, professore di filosofia della scienza alla Federico II di Napoli – ma di maturare una sensibilità morale a ogni grande innovazione tecnologica e se è vero che l’intelligenza artificiale e la robotica hanno un grande impatto positivo applicate alla sanità o ai trasporti, persino ad attività di sorveglianza e di difesa, armi che vagano in uno spazio alla ricerca del nemico da colpire indipendentemente da qualsiasi controllo umano pongono l’umanità stessa a rischio».

SI PONGONO PROBLEMI ETICI e giuridici, visto che interrompendo la catena umana di comando, sarebbe impossibile definire la responsabilità dei crimini di guerra, mettendo in mora tutto il diritto internazionale e la convenzione di Ginevra. Piccoli e grandi Terminator poi non sono completamente prevedibili e si potrebbero verificare inarrestabili genocidi in una lotta tra uomo e macchina di cui abbiamo avuto un assaggio con il recente caso del jet etiope precipitato.

* Fonte: Rachele Gonnelli, IL MANIFESTO[1]

Post Views: 354
Endnotes:
  1. IL MANIFESTO: https://ilmanifesto.it/

Source URL: https://www.dirittiglobali.it/2019/03/intelligenza-artificiale-e-guerra-la-campagna-stop-killer-robots-per-il-bando/