Guerra, algoritmi e responsabilità: l’AI entra nel conflitto e mette alla prova l’umano
C’è un dettaglio che, più di altri, segnala il cambio d’epoca: quando l’intelligenza artificiale smette di essere soltanto “innovazione” e diventa infrastruttura decisionale nei contesti di guerra.
Roberto Bonuglia
12/15/20254 min read
C’è un dettaglio che, più di altri, segnala il cambio d’epoca: quando l’intelligenza artificiale smette di essere soltanto “innovazione” e diventa infrastruttura decisionale nei contesti di guerra. Non come fantasia distopica, non come trama da cinema, ma come possibilità concreta di accelerare l’identificazione dei bersagli, l’analisi dei dati, la navigazione di sistemi non pilotati, perfino l’intercettazione automatizzata. Da qui nasce una domanda che non è tecnica, ma antropologica: che cosa resta della responsabilità quando la velocità del calcolo comincia a sedurre la politica e a disabituare l’uomo al peso della scelta?
All’Assemblea Generale delle Nazioni Unite, nell’ambito della High-Level Week di UNGA80, questa inquietudine ha preso forma pubblica. António Guterres lo ha detto con una formula che vale più di un comunicato: “Humans must always retain authority over life-and-death decisions”. In altre parole, l’algoritmo non può diventare il luogo “neutro” dove scarichiamo ciò che non vogliamo più sostenere con la coscienza, né il paravento perfetto per decisioni che, poi, nessuno firma davvero (United Nations, 2025a). È un punto essenziale, perché la guerra – per quanto la si travesta di linguaggio procedurale – resta sempre un dispositivo morale: colpisce corpi, spezza biografie, produce conseguenze irreversibili. Se la decisione si allontana dall’umano, l’umano non scompare: viene semplicemente degradato a materiale di output.
Il nodo, infatti, non è negare che l’AI sia già presente nei conflitti, né fingere che la sua utilità operativa non esista. Il nodo è un altro: la trasformazione silenziosa del rapporto tra comando e giudizio. La macchina può aumentare la quantità di informazioni processate, può suggerire priorità, può “proporre” raccomandazioni; ma proprio qui si apre la faglia. Perché l’AI tende a imporre una nuova psicologia della decisione: se il sistema “vede” più di te, se calcola più di te, se reagisce più di te, la tentazione è delegare. E delegare, in contesti rapidi e opachi, significa spesso rinunciare a comprendere. È la scorciatoia della modernità accelerata: non si contesta più il fine, si ottimizza il mezzo. Ma quando il mezzo orienta il fine, il passo successivo è quasi automatico: l’uomo diventa il notaio di un processo che non controlla più davvero.
Non a caso, la stessa architettura concettuale del diritto internazionale umanitario – distinzione, proporzionalità, precauzione – è costruita per costringere l’azione armata a una forma di responsabilità ragionata, non automatica. Eppure, proprio questi principi rischiano di diventare “difficili” quando l’AI entra nel ciclo decisionale. Non perché la macchina sia “malvagia”, ma perché è letteralmente cieca al senso umano di ciò che accade: non vive l’ambiguità del campo, non patisce la pressione morale dell’errore, non porta addosso il residuo di colpa. L’opacità algoritmica, inoltre, rende più fragile perfino la ricostruzione ex post: se qualcosa va storto, chi risponde? Il programmatore? Il comandante? L’istituzione? È qui che il rischio non è soltanto giuridico: è politico. Perché la politica, quando non vuole assumersi il costo del reale, adora le catene di responsabilità confuse.
In questo scenario, le Nazioni Unite stanno provando – con una fatica visibile – a trasformare principi in pratica, indicando “linee rosse” e richiamando gli Stati a un’idea concreta di controllo umano “significativo”. La traiettoria è quella di un quadro di governance che non si limiti a enunciare buone intenzioni, ma imponga revisioni legali, trasparenza e accountability lungo l’intero ciclo di vita dei sistemi (United Nations, 2025b). Accanto a questo, continua a emergere – nei documenti e nelle dichiarazioni – l’idea di una proibizione per i sistemi letali autonomi che operano senza controllo umano, proprio perché lì la soglia etica si spezza: non è più “supporto” all’umano, è sostituzione dell’umano nel momento decisivo.
E tuttavia, se vogliamo restare fedeli alla missione del senso critico, dobbiamo evitare anche l’altra trappola: quella del moralismo automatico, che denuncia tutto senza distinguere. È vero che l’AI può aumentare rischi, errori, escalation. Ma è anche vero che, in teoria, potrebbe essere impiegata per ridurre danni, migliorare valutazioni di contesto, prevenire fallimenti logistici, rafforzare – non indebolire – il rispetto delle regole. La differenza, come sempre, non la fa la tecnologia in sé: la fa la struttura di potere che la governa, e l’idea di uomo che vi è sottintesa. Se l’uomo è visto come un fattore di disturbo da eliminare perché “lento” o “emotivo”, allora l’AI diventa lo strumento perfetto per disumanizzare. Se invece l’uomo è considerato il custode insostituibile del giudizio, allora l’AI può restare al suo posto: un mezzo, non un sovrano.
Il punto, dunque, è che la guerra con l’AI dentro non è soltanto una guerra “più tecnologica”: è un laboratorio di civilizzazione. Decide se la modernità del Terzo Millennio vuole ancora l’umano come misura, oppure se preferisce la comodità di un mondo dove la responsabilità si dissolve nella procedura. Perché il rischio più grande non è l’algoritmo che impazzisce; è l’uomo che, per pigrizia spirituale, smette di pensare la decisione e si abitua a ratificarla.
Ecco perché questa discussione non va lasciata agli addetti ai lavori. Riguarda la cultura, prima ancora della strategia. Riguarda la lingua con cui descriviamo “sicurezza”, “efficacia”, “protezione”. Riguarda, in ultima istanza, la libertà: quella libertà che non coincide con l’assenza di vincoli, ma con la presenza di un soggetto capace di giudicare, assumere, rispondere.
Roberto Bonuglia
Per approfondire
United Nations (2025a). Secretary-General’s remarks to the Security Council open debate on artificial intelligence and international peace and security (24 September 2025). New York: United Nations.
United Nations (2025b). Secretary-General’s remarks at the launch of the Global Dialogue on AI Governance (25 September 2025). New York: United Nations.
UNESCO (2021). Recommendation on the Ethics of Artificial Intelligence. Paris: UNESCO.
UNRIC (2025). UNIDIR report on military AI and international peace and security (July 2025). Brussels: United Nations Regional Information Centre for Western Europe.
