Quando il controllo diventa automatico: l’IA nella polizia e la tentazione autoritaria
C’è una frase che torna, ogni volta che si parla di intelligenza artificiale applicata alla sicurezza pubblica: “è solo tecnologia”. Come se un algoritmo fosse neutro per definizione, e come se la neutralità bastasse a metterci al riparo da qualsiasi abuso.
Roberto Bonuglia
12/23/20254 min read
C’è una frase che torna, ogni volta che si parla di intelligenza artificiale applicata alla sicurezza pubblica: “è solo tecnologia”. Come se un algoritmo fosse neutro per definizione, e come se la neutralità bastasse a metterci al riparo da qualsiasi abuso. Il punto, però, è che l’IA non arriva mai “da sola”: entra dentro istituzioni, prassi operative, catene di comando, incentivi politici. E quando la sua funzione è osservare, identificare, classificare e segnalare comportamenti, la posta in gioco non è soltanto l’efficienza. È la qualità democratica del vivere comune.
Negli ultimi anni, anche nelle democrazie occidentali, la promessa è stata sempre la stessa: meno criminalità, più rapidità nelle indagini, migliore allocazione delle risorse. Ma la dinamica profonda è più ambigua. Perché un potere di sorveglianza pervasivo, automatizzato e a basso costo cambia il rapporto tra cittadino e autorità: sposta l’equilibrio dalla fiducia (e dal limite) alla profilazione (e alla prevenzione), dal controllo “a posteriori” alla pretesa di intercettare “a monte” ciò che potrebbe diventare un rischio. È qui che comincia lo slittamento: non necessariamente verso una dittatura esplicita, ma verso un’abitudine all’obbedienza silenziosa, alla prudenza verbale, alla rinuncia preventiva. In altre parole: verso una cultura del “meglio non farsi notare”.
Dalla sorveglianza alla polizia: quando l’occhio non dorme mai
I sistemi di riconoscimento facciale e le analisi video automatizzate trasformano la città in un archivio. Non più soltanto telecamere che registrano, ma infrastrutture che “leggono” ciò che vedono: volti, targhe, movimenti, anomalie. In questo scenario, ciò che conta non è solo il singolo strumento, ma il fatto che lo strumento lavori sempre, senza stanchezza, senza esitazioni, senza “discernimento” umano. L’IA, per sua natura, tende a generalizzare: prende un pattern e lo estende. E se quel pattern nasce da dati parziali, o da criteri di addestramento che riflettono squilibri sociali, l’errore non resta locale: diventa sistemico.
Su un punto, le fonti tecniche più solide sono chiare. Le valutazioni del National Institute of Standards and Technology mostrano come le prestazioni dei sistemi di riconoscimento facciale possano variare in modo significativo tra gruppi demografici, con differenze che pongono problemi concreti di affidabilità e di equità nell’uso operativo (Grother, Ngan e Hanaoka, 2019). Tradotto: quando l’algoritmo sbaglia, non sbaglia “a caso”. E un errore di identificazione, in ambito di polizia, non è un refuso: può diventare un fermo, un arresto, un’ombra reputazionale difficile da cancellare.
Il potere si concentra quando l’ordine si automatizza
C’è poi un aspetto che raramente entra nel dibattito pubblico, perché sembra quasi “tecnico” e invece è politico nel senso più pieno: l’automazione riduce la necessità di mediazioni umane. Meno persone servono per sorvegliare, meno persone servono per segnalare, meno persone servono per inseguire. Questo può significare efficienza; ma significa anche concentrazione del potere. Se un apparato di controllo funziona con pochi operatori e molti sensori, il baricentro decisionale si alza, si stringe, si verticalizza. E quando il potere si verticalizza, la democrazia non muore in un giorno: si assottiglia.
Il salto qualitativo avviene quando la sorveglianza non resta “passiva”, ma diventa “proattiva”: sistemi che non si limitano a conservare prove, bensì generano sospetti, segnalano anomalie, costruiscono priorità operative. In una società iper-normata, dove qualunque cittadino commette inevitabilmente micro-infrazioni, un sistema capace di produrre “motivi” diventa un moltiplicatore di discrezionalità. A quel punto il rischio non è solo l’errore, ma l’uso selettivo: colpire alcuni, risparmiare altri; stringere controlli in certi quartieri e allentarli altrove; trasformare la sicurezza in un linguaggio di appartenenza (“noi”) e di esclusione (“loro”). È una tentazione antica, resa improvvisamente economica e scalabile.
Robot, droni, strumenti “inermi”: la retorica del dispositivo
Ogni volta che compare un nuovo strumento—un cane-robot, un drone, un sistema di analisi automatica—si ripete la formula rassicurante: “non è armato, non fa nulla da solo”. Ma la politica del controllo non si misura solo dall’arma, si misura dalla presenza. Una tecnologia che può pedinare, registrare, triangolare, classificare, incrociare dati, è già una forma di forza. E quando un dispositivo viene presentato come “innovazione”, spesso ciò che si normalizza è la sua permanenza: prima la sperimentazione, poi l’estensione, poi l’integrazione con banche dati, poi la routine. Il vero salto non è l’adozione; è l’abitudine.
Su questo, perfino le scelte di policy dei produttori sono rivelatrici: Boston Dynamics, per esempio, ha pubblicamente preso posizione contro la weaponization dei propri robot, segnalando implicitamente quanto il confine tra uso “civile” e uso “coercitivo” sia scivoloso (Boston Dynamics, 2022). Il problema, tuttavia, non è solo la weaponization in senso stretto. È la funzione: osservare e disciplinare.
Una democrazia non si difende solo con le leggi, ma con i freni culturali
La questione allora diventa: quali anticorpi? Qui il punto non è demonizzare l’IA, né indulgere in fantascienza. Il punto è ridare spessore a tre domande che una democrazia matura dovrebbe porsi prima, non dopo.
La prima è la trasparenza: chi controlla questi sistemi, con quali regole, con quali audit indipendenti, con quali possibilità reali di contestare errori e abusi? La seconda è la proporzionalità: a quali reati si applicano, con quali limiti temporali e geografici, con quale divieto di “pesca a strascico” nei dati? La terza è la responsabilità: quando un algoritmo segnala e l’operatore “si fida”, chi risponde dell’atto? Perché l’IA, in pratica, tende a produrre una comoda deresponsabilizzazione: “non l’ho deciso io, lo diceva il sistema”.
In controluce, c’è un tema che riguarda direttamente la missione dell’Accademia: il senso critico come infrastruttura della libertà. Perché una società può anche dotarsi di garanzie giuridiche; ma se perde l’abitudine a distinguere tra sicurezza e controllo, tra tutela e addomesticamento, tra innovazione e sorveglianza, finisce per consegnare la propria autonomia a un linguaggio tecnico che suona inevitabile. E quando l’inevitabile diventa la nostra categoria mentale dominante, l’autoritarismo non ha nemmeno bisogno di imporsi: gli basta essere accettato come “normale”.
Roberto Bonuglia
Per approfondire
Grother, P., Ngan, M. and Hanaoka, K. (2019). Face Recognition Vendor Test (FRVT) Part 3: Demographic Effects. NISTIR 8280. Gaithersburg, MD: National Institute of Standards and Technology.
Boston Dynamics (2022). We need to talk about robots. Waltham, MA: Boston Dynamics.
ACLU of Massachusetts (2020). Face Recognition: The Future of Surveillance and Policing. Boston, MA: American Civil Liberties Union of Massachusetts.
