La guerra non sarà un algoritmo

C’è una tentazione ricorrente, ogni volta che una tecnologia irrompe nello spazio pubblico con la forza di una promessa assoluta: pensare che possa sostituire ciò che fino a ieri sembrava irriducibilmente umano. È accaduto con la macchina industriale, con il computer, con Internet. Sta accadendo ora con l’intelligenza artificiale applicata alla guerra.

Roberto Bonuglia

1/15/20263 min read

a close up of a computer board with a logo on it
a close up of a computer board with a logo on it

C’è una tentazione ricorrente, ogni volta che una tecnologia irrompe nello spazio pubblico con la forza di una promessa assoluta: pensare che possa sostituire ciò che fino a ieri sembrava irriducibilmente umano. È accaduto con la macchina industriale, con il computer, con Internet. Sta accadendo ora con l’intelligenza artificiale applicata alla guerra. E come sempre, l’errore non sta nella tecnologia in sé, ma nell’immaginario che le costruiamo attorno.

Si parla di “momento Oppenheimer”, di soglia irreversibile, di un futuro in cui gli algoritmi decideranno chi colpire, quando, e con quale intensità. Una narrazione potente, cinematografica, che rassicura e spaventa allo stesso tempo. Rassicura chi sogna conflitti puliti, rapidi, asettici. Spaventa chi intravede l’uscita di scena dell’uomo dalla storia. Ma entrambe le reazioni nascono dalla stessa illusione: che la guerra possa diventare un problema tecnico.

La realtà, come spesso accade, è più prosaica e più inquietante. L’intelligenza artificiale è già sul campo di battaglia. Non come entità sovrana, ma come moltiplicatore. Accelera processi, connette dati, suggerisce traiettorie. Riduce i tempi morti, amplia il raggio d’azione, abbassa la soglia di accesso alla forza. Non decide, ma spinge. Non sostituisce il comando, ma lo rende più veloce, e proprio per questo più fragile.

Il vero salto non è l’autonomia totale delle macchine, che resta per ora più un esercizio di futurologia che una realtà operativa. Il vero salto è la compressione del tempo. La guerra, da sempre, è anche una questione di ritmo: sapere quando fermarsi, quando aspettare, quando non colpire. L’algoritmo, invece, non conosce l’attesa. Ottimizza. E l’ottimizzazione, in un contesto di violenza organizzata, è una tentazione pericolosa.

Si dice che l’IA renderà la guerra più precisa, più selettiva, meno sanguinosa. È una promessa che torna ciclicamente nella storia militare: ogni nuova arma viene presentata come più “chirurgica” della precedente. Ma la storia insegna che rendere più facile colpire non riduce necessariamente la violenza; spesso la moltiplica. Quando il costo percepito dell’azione diminuisce, aumenta la frequenza dell’azione stessa. Non è cinismo, è dinamica umana.

C’è poi un altro aspetto, meno discusso ma decisivo: la comprensibilità. I sistemi complessi promettono controllo, ma producono opacità. Più un sistema elabora migliaia di input, più diventa difficile ricostruire il perché di una decisione. L’idea che “l’uomo resta sempre nel loop” suona rassicurante, ma rischia di essere una formula vuota se l’uomo non è più in grado di comprendere davvero ciò che sta autorizzando. La responsabilità senza comprensione è una finzione etica.

Non è un caso che le grandi potenze, pur investendo massicciamente nell’IA militare, continuino a tracciare linee rosse simboliche: l’arma nucleare, per esempio, resta formalmente sottratta all’automazione. Non per romanticismo umanista, ma per istinto di sopravvivenza. Perché ci sono decisioni che nessuno vuole davvero delegare a una macchina, nemmeno chi della tecnologia fa il proprio credo.

Nel frattempo, il complesso tecno-industriale della difesa si riorganizza. Le grandi aziende digitali scoprono il fascino dei bilanci militari, il capitale segue, l’innovazione accelera. È un ecosistema che si autoalimenta, dove l’hype tecnologico diventa una leva strategica. Ma anche qui, conviene diffidare delle narrazioni lineari. La guerra non è un laboratorio controllato. È frizione, errore, contingenza. È ambiguità morale prima ancora che tattica.

Pensare a una guerra completamente automatizzata significa rimuovere il cuore del problema: la guerra è sempre una decisione politica, prima che militare. È una scelta che riguarda fini, non solo mezzi. L’intelligenza artificiale può suggerire come colpire, ma non può rispondere alla domanda fondamentale: perché colpire. E soprattutto: quando fermarsi.

Il rischio vero, allora, è qualcosa di banale e umano: l’abdicazione del giudizio. L’idea che, siccome un sistema è più veloce, più informato, più efficiente, allora sia anche più saggio. È una scorciatoia mentale che conosciamo bene. Ed è sempre costata cara.

La sfida dei prossimi anni non sarà arrestare l’IA militare – obiettivo irrealistico e forse ipocrita – ma impedire che la tecnologia diventi un alibi. Un alibi per non assumersi responsabilità, per non guardare in faccia le conseguenze, per nascondere decisioni politiche dietro un linguaggio tecnico. Governare l’IA, in guerra come altrove, significa prima di tutto governare noi stessi.

La guerra del futuro non sarà vinta dall’algoritmo più intelligente, ma da chi saprà mantenere un equilibrio instabile tra potenza e limite. Tra ciò che si può fare e ciò che non si deve fare. In questo spazio stretto, scomodo, profondamente umano, si giocherà molto più del destino dei conflitti. Si giocherà l’idea stessa di responsabilità nel mondo che stiamo costruendo.