L’immaginario collettivo associa ancora l’intelligenza artificiale alla creatività generativa: chatbot, immagini, video deepfake, automazione dei contenuti. Ma mentre il dibattito pubblico continua a concentrarsi su copyright, fake news e rischi sociali, l’industria militare ha già compiuto un salto silenzioso e decisivo. L’IA non è più un oggetto di ricerca: è un asset strategico, un moltiplicatore di potenza bellica.
Israele utilizza l’IA per gestire operazioni militari su larga scala. I software Lavender e Gospel scandagliano enormi quantità di dati, classificano sospetti in pochi secondi e decidono chi vive e chi muore. Sistemi di sorveglianza predittiva analizzano le conversazioni di interi quartieri palestinesi, trasformando le città in terreni di caccia per l’algoritmo. Il conflitto diventa un codice, la guerra una questione di calcoli.
In Ucraina, la situazione non è diversa. Palantir Technologies fornisce all’esercito strumenti di analisi avanzati, mentre Microsoft, Amazon e Google offrono servizi cloud per il monitoraggio del nemico. L’Ucraina è il laboratorio della guerra del futuro: dati, immagini satellitari, intelligenza artificiale. Qui, i confini tra tecnologia civile e militare si dissolvono.
Lo abbiamo visto anche altrove. In Venezuela, nelle operazioni che hanno coinvolto il potere politico, sistemi di intelligenza artificiale sono stati utilizzati per analizzare intelligence, coordinare raid e ridurre i tempi decisionali a pochi minuti.
In Iran, lo stesso schema si è ampliato su scala ancora più grande. Migliaia di target sono stati identificati, analizzati e colpiti con il supporto di sistemi IA, capaci di accelerare operazioni militari che prima richiedevano giorni o settimane. Non si tratta più di supporto tecnologico. Si tratta di una trasformazione strutturale del modo in cui si combattono le guerre: dall’interpretazione umana dei dati alla loro esecuzione automatizzata.
E questo cambia tutto. Perché se è una macchina a decidere più velocemente di un essere umano, allora è anche una macchina a rendere la guerra più facile da iniziare e più difficile da fermare. Negli Stati Uniti, le Big Tech si stanno allineando alla logica bellica. OpenAI, Meta e Google, una volta riluttanti a entrare nell’industria della difesa, hanno ceduto. Il business dell’IA militare è troppo grande per essere ignorato. Non si tratta solo di strumenti di supporto: si tratta di delegare ad algoritmi il potere decisionale sulla vita e sulla morte.
Negli ultimi mesi questo allineamento è diventato ancora più esplicito. OpenAI ha avviato collaborazioni dirette con istituzioni governative statunitensi, aprendo all’utilizzo dei suoi modelli anche in ambito sicurezza e difesa. Parallelamente, Anthropic ha cercato di prendere le distanze da applicazioni militari più controverse, segnalando una frattura interna al settore: non più tra chi partecipa e chi resta fuori, ma tra diversi modi di stare dentro.
Questo non cambia il quadro generale. Lo rende più complesso. Perché mentre alcune aziende cercano di definire limiti, altre li spostano. E gli Stati, nel frattempo, accelerano.
E allora la domanda non è più solo cosa può fare l’IA in guerra? La vera domanda è: chi controlla queste macchine? E ancora: chi stabilisce le regole? O forse la verità è più inquietante. Forse non ci sono regole.
Autore
Classe ‘98 come Mbappè, Totó e Leopardi. Cresciuto a Priverno in un piccolo paese in provincia di Latina. Mi piace il cinema, la musica e il calcio. Eterno indeciso (ho speso un sacco di tempo per scegliere la foto).