IA, guerra e potere: quando la morte si automatizza
L’automatizzazione della guerra è già in corso. Algoritmi che selezionano obiettivi, accelerano gli attacchi e diluiscono le responsabilità operano oggi in conflitti reali. In Guerra e IA, Radamés Molina Montes e Javier del Puerto avvertono che questo modello non riguarda soltanto Iran, Gaza o Ucraina: si dispiega a partire da imprese private statunitensi sotto il controllo di una leadership politica erratica e potenzialmente pericolosa.
L’intelligenza artificiale ha smesso di essere un oggetto di riflessione etica per diventare un’infrastruttura operativa della guerra contemporanea. Questa è la premessa centrale di Guerra e IA: il campo di battaglia algoritmico, il nuovo libro di Radamés Molina Montes e Javier del Puerto, un lavoro che esamina come i sistemi algoritmici stiano modificando il processo decisionale letale e ridefinendo nozioni classiche come la responsabilità politica, morale e militare.
Radamés Molina Montes è storico e filosofo. Nato a Cuba, ha studiato Storia all’Avana e Filosofia a Barcellona. Ha partecipato all’edizione interattiva del Tractatus Logico-Philosophicus di Ludwig Wittgenstein presso l’Archivio Wittgenstein di Cambridge, ha lavorato per la casa editrice Paidós e ha fondato Linkgua, un marchio con un ampio catalogo in lingua spagnola. Il suo lavoro si colloca all’intersezione tra linguaggio, coscienza e tecnologia.
Javier del Puerto è scrittore e tecnologo. Nato a Madrid, ha studiato Filosofia e Informatica, ha lavorato per anni in Cina e in vari paesi asiatici con multinazionali e successivamente si è stabilito a Barcellona per frequentare un master in editoria digitale, dove ha lanciato Crowdreading, una piattaforma di lettura digitale. Negli ultimi anni ha collaborato con case editrici come Bloomsbury, Faber & Faber e Planeta. Attualmente risiede a Londra.
Entrambi hanno cofondato Kwalia, una casa editrice centrata sull’analisi culturale, filosofica e politica dell’intelligenza artificiale. Tra i loro libri precedenti figurano Mindkind e Dichiarazione universale dei diritti dell’IA, opere che esplorano le implicazioni etiche e giuridiche dell’intelligenza sintetica.
Guerra e IA fa parte della serie Nuove Cittadinanze, ma questa volta sposta l’attenzione verso un terreno più immediato e inquietante: l’incorporazione dell’intelligenza artificiale nei sistemi contemporanei di guerra.
Dal drone all’algoritmo
«Il punto di partenza è stato il monitoraggio sempre più intenso della guerra dei droni in Ucraina e a Gaza», spiegano gli autori. In un primo momento, l’attenzione si concentrava sulla trasformazione visibile del combattimento: la presenza permanente di droni, la sorveglianza aerea costante e l’esposizione del corpo sul campo di battaglia.
Tuttavia, presto compresero che il cambiamento decisivo non risiedeva soltanto negli armamenti, ma nello strato invisibile che li governa.
«Molto presto abbiamo visto che il cambiamento più profondo non stava solo nell’hardware, ma nello strato algoritmico che iniziava a governare funzioni decisive: navigazione autonoma, prioritizzazione delle minacce, selezione degli obiettivi, riduzione o annullamento del margine di supervisione umana».
Casi come quello del sistema israeliano Lavender – una piattaforma di intelligenza artificiale utilizzata per generare liste automatizzate di obiettivi – documentato da inchieste giornalistiche nel 2024, hanno segnato un punto di svolta.
«Non parlavamo più di scenari teorici, ma di sistemi capaci di generare liste massive di obiettivi e di comprimere l’intervento umano in finestre di validazione minime».
Gaza e la dissoluzione della responsabilità
L’escalation di violenza in Palestina a partire dal 2023 ha avuto un impatto determinante sulla ricerca. «Ciò che ci ha colpito di più non è stata solo la portata del danno, ma il modo in cui l’automazione sembrava alterare la struttura stessa della responsabilità».
Quando l’intervento umano si riduce a una ratifica accelerata, la domanda non è più soltanto chi muore. Diventa anche chi risponde di quella morte. «L’operatore? Il comando? Lo sviluppatore del sistema? La catena istituzionale che ha autorizzato il suo dispiegamento? L’inquietante è che non esiste una risposta chiara, e questa mancanza di chiarezza non è un incidente: fa parte del progetto di questi ambienti decisionali accelerati».
Il complesso militare della Silicon Valley
Nella loro ricerca, gli autori descrivono ciò che chiamano il “complesso militare di Silicio”, un ecosistema in cui il confine tra impresa tecnologica e appaltatore della difesa è diventato sempre più sfumato.
«Aziende come Palantir, Anduril o Shield AI non operano più come semplici fornitori esterni di componenti, ma come attori coinvolti nella riprogettazione dello stesso ambiente operativo».
Palantir è una società statunitense specializzata nell’analisi massiva dei dati utilizzata da agenzie militari e di intelligence; Anduril sviluppa sistemi autonomi di difesa e sorveglianza; Shield AI progetta software di intelligenza artificiale per droni e velivoli militari.
Queste compagnie introducono una logica propria del mondo del software – iterazione rapida, aggiornamento continuo, sviluppo agile – in un ambito che storicamente funzionava con cicli molto più lenti di acquisizione militare. Il risultato è una crescente dipendenza degli eserciti da attori privati capaci di modificare sistemi in settimane, non in anni.
Velocità contro giudizio morale
«La logica militare di questi sistemi consiste nell’identificare più velocemente, elaborare più velocemente, decidere più velocemente e colpire più velocemente dell’avversario».
Ma il giudizio morale umano non opera alla velocità delle macchine.
«Non si può valutare seriamente la distinzione tra combattente e civile, la proporzionalità di un attacco o la necessità militare di un’azione in finestre temporali sempre più compresse dall’automazione».
Il problema, sottolineano, non è soltanto tecnologico. È anche temporale: l’accelerazione della guerra sta iniziando a superare la capacità umana di deliberare.
Il rischio non è più lontano
Uno dei passaggi più diretti del libro riguarda la falsa sensazione di distanza con cui molte società osservano questi conflitti.
«Ciò che osserviamo come qualcosa di lontano, che accade solo all’“altro”, sia russo, ucraino, palestinese o iraniano, domani potrebbe puntare contro di noi».
E aggiungono senza mezzi termini: «Tanto più quando il paese più potente del mondo è nelle mani di un ottantenne che oggi dice di voler comprare (o invadere) la Groenlandia, domani cattura Maduro, dopodomani attacca l’Iran, il giorno dopo si sporca i pantaloni e quello successivo chissà cosa gli passerà per la testa».
L’avvertimento si estende anche al dominio tecnologico quotidiano.
«Non si chiede più all’IA solo dove va l’accento in “choripán”, ma anche come fare una dichiarazione d’amore o dei redditi, come friggere un uovo, come licenziare un terzo del proprio personale, dove investire i propri risparmi… tutto».
«Stiamo esternalizzando il nostro pensiero a queste macchine, e queste macchine sono proprietà privata di un’azienda che vuole profitto, non il bene dell’umanità, e sono sotto il controllo di un governo che ha i propri interessi, non quelli dell’intera umanità. Non dimentichiamolo».
Ciò che verrà
Molina e Del Puerto continuano a sviluppare la serie Nuove Cittadinanze, dedicata a esplorare le trasformazioni culturali, politiche e cognitive associate all’intelligenza artificiale.
Il loro prossimo libro, Sintropologia. Una nuova scienza per l’era delle macchine, proporrà di studiare l’intelligenza artificiale in modo analogo a come l’antropologia studia l’essere umano.
«Quello che cerchiamo di fare, libro dopo libro, è cartografare le mutazioni dell’umano quando l’intelligenza artificiale smette di essere uno strumento periferico e passa a occupare una posizione strutturale nella cultura contemporanea».
Guerra e IA: il campo di battaglia algoritmico è stato pubblicato originariamente in inglese ed è appena apparso anche in spagnolo. L’opera è disponibile in formato digitale e audiolibro sulle principali piattaforme internazionali di distribuzione.
https://kwalia.ai/essays/war-and-ai-preface.html

