L’oggetto decolla con un rombo e si libra nel cielo fino ad individuare l’obbiettivo, un missile nemico, e neutralizzarlo in una palla di fuoco. Ma la missione del Roadrunner (questo il nome del drone, in omaggio all’uccello nemesi di Willy il Coyote) non è finita, infatti l’ordigno non è esploso contro il “nemico” ma lo ha incenerito con un proiettile, dopodiché compie una larga parabola e torna alla base, atterrando verticalmente come un modulo lunare, o i razzi riutilizzabili di ultima generazione Space X, pronto per la prossima missione.

È UNA FUNZIONALITÀ che da solo lo renderebbe all’avanguardia, ma il drone si distingue soprattutto per la modalità opzionale di intelligenza artificiale che lo mette in grado di pattugliare il cielo, individuando ed attaccando autonomamente i propri obbiettivi. Il roadrunner cioè è un lethal autonomous weapons systems (Laws) che in base al programma Ia di cui può essere dotato decide senza input di operatori umani chi attaccare e distruggere.

Si tratta in altre parole dell’ultimo esemplare di “robot assassini” che mentre l’opinione pubblica era distratta da Chat Gpt, sono già di fatto stati portati allo stadio operativo. La guerra è considerata la più letale delle “inevitabili” applicazioni dell’intelligenza artificiale, e qui i riferimenti fantascientifici diventano Terminator e Westworld: se è vero che ci avviciniamo alla soglia in cui l’auto apprendimento (machine learning) potrebbe diminuire la comprensione e l’effettivo controllo che gli operatori possono esercitare sulle macchine – nel caso automi in grado di uccidere i rischi sono più immediatamente evidenti.

EPPURE, gli operatori del settore danno per scontato che la prossima corsa agli armamenti è destinata a disputarsi su questo terreno tecnologico. Prima del suo ritiro lo scorso novembre, l’ex capo di stato americano, generale Mark Milley, ha dichiarato che «siamo di fronte ad un cambiamento fondamentale e senza precedenti del carattere della guerra, e la nostra finestra per mantenere un duraturo vantaggio competitivo si sta chiudendo». Non a caso gli Stati uniti hanno posto un embargo di semiconduttori per Ia, come gli Nvidia H880 e A 800, su Cina e 27 altri paesi, come la Russia e l’Iran. In realtà l’opinione diffusa degli analisti è che quel vantaggio l’abbia già assicurato la Cina, il paese che più ha investito sullo sviluppo dell’intelligenza artificiale in tutte le sue applicazioni

Negli Stati uniti la priorità della partita cinese sull’egemonia globale è vangelo bipartisan. Lo ha ribadito la scorsa settimana la ministra del commercio dell’amministrazione Biden, Gina Raimondo, dichiarando che la Cina «ha il diritto di sviluppare una maggiore potenza militare e noi quello di cercare di impedirglielo in ogni modo». Né ha avuto esito distensivo l’incontro con Biden il mese scorso ai margini del summit Apec, dove le aperture del presidente cinese Xi Jinping sono state respinte al mittente dal presidente che lo ha definito «un dittatore». Di fatto, sulla Ia nessuna nazione rinuncerebbe volontariamente al primato militare- tecnologico, tantomeno gli Usa che ad un nuovo complesso digitale-militare-industriale sembrano semmai estendere un assegno in bianco simile a quello elargito alle piattaforme che assicurano il predominio americano su internet.

In ambienti militari, intanto, molti hanno iniziato a criticare la mastodontica spesa tuttora sostenuta per l’acquisto di tradizionale tecnologia analogica, caldeggiando piuttosto una rapida conversione alle nuove tecnologie, in sostanza «più droni autonomi e meno portaerei», come ha sostenuto il generale Petraeus che, intervistato da Axios, ha affermato che navi, carri armati ed aerei dovranno venire sostituiti in fretta da sistemi leggeri ed autonomi a cui «un operatore umano potrà semplicemente impartire l’ordine di andare ed eseguire le direttive del proprio programma».

DA ANNI DARPA, l’agenzia per i progetti di ricerca avanzata di difesa del Pentagono, sta lavorando a sistemi di Ia «sostitutivi del apporto umano» per il combattimento aereo. Già nel 2020 aveva raggiunto l’obbiettivo di una vittoria della Ia su un avversario umano in un simulatore di volo. Lo scorso febbraio, nella base aeronautica di Edwards, nel deserto californiano, un’intelligenza artificiale ha pilotato autonomamente, per la prima volta, un vero caccia F16. Da un rapporto dell’Onu, risulterebbe che almeno una prima operazione interamente “autonoma” di macchine contro combattenti in carne ed ossa sia stata portata a termine nel 2020 in Libia, quando droni esplosivi forniti dalla Turchia al governo di Tripoli avrebbero attaccato «di loro volontà» truppe in ritirata appartenenti alle milizie orientali di Khalifa Haftar. I quadrirotori di classe Kargu-2 prodotti dalla Stm sono in grado di librarsi in volo e successivamente selezionare in autonomia obbiettivi nemici su cui esplodere.

NEL 2017 il Pentagono ha stabilito nella Silicon Valley un dipartimento preposto allo sviluppo accelerato di armamenti di ultima generazione dal nome poco rassicurante di Algorithmic Warfare Cross-Functional Team. E la Anduril, fondata dall’imprenditore Palmer Luckey, proprio sugli appalti militari ha imbastito un florido business, puntando in particolare sui sistemi autonomi. L’azienda ha dichiarato di avere già un contratto di fornitura per il roadrunner che si aggiunge a diversi altri sistemi «anti-umani» come sensori per l’individuazione di migranti clandestini e droni da guerra progettati per operare in sciami autonomi. Con altre 50 aziende la Anduril fa parte di un consorzio che lavora allo sviluppo del Advanced Battle Management System (Abms) un sistema capace di integrare un teatro di guerra in una architettura digitale unificata di controllo delle operazioni.

SE È INQUIETANTE la trasformazione delle guerre in videogiochi letali, l’altra accelerazione riguarda la capacità dei sistemi Ia di acquisire e processare quantità enormi di dati. Sarebbe quella impiegata, come sta emergendo in questi giorni, dall’esercito israeliano nella campagna di Gaza. Come riportato da +972 e pubblicato in Italia dal manifesto, un nuovo dispositivo denominato “Vangelo” è usato dall’Idf per generare liste di obbiettivi da bombardare nella Striscia. Testato la prima volta nella guerra contro Hamas del 2021 – oggi il database produce 100 obbiettivi al giorno su input di intelligence proveniente da una banca dati di 30-40000 militanti – In sostanza una kill list generata da software, o come è stata definita «una fabbrica automatica di assassinii».

ABBONDANO insomma gli esempi sulla guerra automatizzata, basti vedere il ruolo acquisito dalla tecnologia nel conflitto ucraino, già combattuto da droni kamikaze e missili intercettati da missili, per comprendere che di fatto la conversione è già buon punto. Quel conflitto è uno scorcio di ciò che al Pentagono considerano il futuro inevitabile a cui prepararsi: la guerra di algoritmo contro algoritmo. La guerra in Ucraina è stata un laboratorio di droni a basso costo provenienti da ogni dove, una tecnologia bellica “democratizzante”, che allarga il campo dei potenziali protagonisti, enorme successo a hanno ad esempio avuto i droni turchi Bayraktar e gli iraniani Shahed. E non solo nel teatro ucraino ma anche in conflitti come quello del Nagorno Karabakh dove gli ordigni sono stati decisivi per la superiorità delle forze azere. Lo ha confermato Eric Schmidt, intervenuto al AI+ Summit tenuto a Washington a fine novembre. «I successi ottenuti da Russia ed Ucraina dimostrano che le armi autonome sono destinate a sostituire carri armati, artiglieria e mortai», ha detto l’ex amministratore di Google, aggiungendo che le armi del futuro saranno «potenti piattaforme di software. Si tratta oltretutto di una tecnologia che difficilmente sarà limitata alle superpotenze, ma presagisce una proliferazione generalizzata stimolata dalla prospettiva di enormi profitti».

NELLA SILICON VALLEY viene attivamente promossa da fazioni accelerazioniste che respingono gli appelli alla cautela (o le moratorie, come quelle suggerite da luminari del settore, come Geoffrey Hinton) e adottano una versione potenzialmente letale del celebre motto Facebook sullo sviluppo tecnologico («move fast and break things»). In questo caso però si rischia di rompere molto di più che schemi mentali.

* Fonte/autore: Luca Celada, il manifesto[1]