Non temo l’IA. Temo il catechismo che la userà come scusa
C’è un suono che la nostra epoca ha imparato ad amare: il bip della notifica. È breve, innocente, quasi amichevole. Ti avvisa che qualcosa è cambiato, che “c’è un aggiornamento”, che “manca un passaggio”, che “serve un consenso”. E intanto, senza che tu te ne accorga, ti educa a un gesto: alzare gli occhi, obbedire, rientrare nel perimetro.
Roberto Bonuglia
1/19/20265 min read
C’è un suono che la nostra epoca ha imparato ad amare: il bip della notifica. È breve, innocente, quasi amichevole. Ti avvisa che qualcosa è cambiato, che “c’è un aggiornamento”, che “manca un passaggio”, che “serve un consenso”. E intanto, senza che tu te ne accorga, ti educa a un gesto: alzare gli occhi, obbedire, rientrare nel perimetro. Non è ancora il braccialetto elettronico, certo. È peggio: è l’anticamera mentale del braccialetto. È l’assuefazione al fatto che qualcuno, da qualche parte, sappia cosa è opportuno per te.
Io non sono mai stato un luddista. Ho sempre diffidato dei profeti del disastro che scambiano ogni novità per apocalisse. La modernità è una fucina: brucia, produce fumo, ma spesso forgia strumenti utili. Il problema non è la macchina in sé. Il problema è ciò che la macchina rende possibile quando cade nelle mani sbagliate. E le mani sbagliate, nel nostro tempo, non sono necessariamente mani malvagie. Sono mani “convintissime”. Mani che si credono autorizzate dal Bene.
Poi è arrivato il Covid, e una cosa è diventata chiara anche per chi, fino a quel momento, aveva creduto nella capacità delle società occidentali di restare adulte davanti alla paura. Non abbiamo visto soltanto errori. Abbiamo visto un metodo. Un riflesso. La tendenza irresistibile a trasformare l’incertezza in comando, il dubbio in colpa, la discussione in disturbo. E, soprattutto, la trasformazione dell’eccezione in linguaggio ordinario: emergenza, urgenza, necessità, dovere morale. È così che un Paese smette di ragionare e inizia a recitare.
Questa memoria non è un dettaglio del passato. È il filtro attraverso cui si deve guardare il dibattito sull’intelligenza artificiale.
Perché oggi si ripete la stessa liturgia, con parole diverse e con la stessa pretesa: “stavolta è troppo pericoloso”. L’IA viene presentata come un’onda che rischia di travolgerci, e in parte è vero. Ma la conseguenza, quasi automatica, è l’altra metà della frase: “dunque serve un’autorità superiore”. E qui la questione smette di essere tecnologica. Diventa politica, antropologica, spirituale. Chi decide? Chi controlla? Chi custodisce i custodi?
Il punto che molti fingono di non vedere è semplice: il rischio non è soltanto l’algoritmo che “sfugge”. Il rischio è l’algoritmo usato come nuova reliquia dell’emergenza permanente. Un oggetto sacro davanti al quale ci si inchina e, inchinandosi, si consegna qualcosa che non si recupera più: la sovranità del giudizio.
È una tentazione antica: quando l’ansia sale, l’uomo cerca un sacerdote. Non necessariamente un prete in tonaca; basta una figura che dica “fidati”. Durante il Covid abbiamo visto quanto in fretta una società può accettare il linguaggio del “non discutere”, purché venga incorniciato come protezione. Abbiamo visto quanto facilmente l’obbedienza possa essere venduta come virtù. E abbiamo visto quanto rapidamente il dissenso possa essere ridotto a patologia: “sei pericoloso”, “sei irresponsabile”, “sei negazionista”, “sei nemico della comunità”. Non si confutava un’idea. Si stigmatizzava una persona.
Ora immaginate quella dinamica potenziata dall’IA. Non solo nel senso banale della sorveglianza, ma nel senso più sofisticato: la capacità di produrre verità preconfezionate, di stabilire ciò che è plausibile e ciò che non lo è, di definire ciò che “la comunità scientifica” pensa, di trasformare la complessità in un indice di rischio con semaforo incorporato. Non serve più un tribunale ideologico: basta un sistema che classifica.
Ed è qui che entra in scena la forma più subdola di autoritarismo: non quella che ti picchia, ma quella che ti “ottimizza”. Non quella che ti vieta, ma quella che ti indirizza. Non quella che ti imprigiona, ma quella che ti rende dipendente dall’approvazione. È il dominio dolce: il controllo che si traveste da cura.
Qualcuno obietta: ma allora preferisci lasciare tutto alle aziende? No. Questo è il ricatto dialettico tipico della nostra epoca: o consegni il potere a un Leviatano “per il bene comune”, oppure sei costretto a difendere i mercati come se fossero innocenti. È una falsa alternativa. Il punto serio è un altro: i poteri vanno bilanciati, limitati, esposti al controllo pubblico. E soprattutto: vanno resi reversibili. Perché il problema della tecnocrazia non è la competenza. È l’irreversibilità.
Le aziende, per quanto ciniche, hanno un limite strutturale: possono perdere soldi, reputazione, clienti. Lo Stato, quando si convince di agire “per prevenire la catastrofe”, tende invece a perdere il senso del limite. E ha un vantaggio che nessuna azienda possiede: può chiamare la propria espansione “necessità”. Può rendere la propria invasione “tutela”. Può ribattezzare la propria prepotenza “responsabilità”. E soprattutto può farlo invocando nemici futuri, ipotetici, sempre possibili. Il terrorismo, il virus, l’odio, la disinformazione, la prossima guerra, la prossima pandemia, la prossima emergenza climatica. C’è sempre un “prossimo” pronto a giustificare un “subito”.
È il meccanismo che ho provato a descrivere, da tempo, quando parlavo di globalizzazione che scivola in tecnocrazia: la politica rinuncia alla fatica del consenso e si rifugia nella scorciatoia della gestione. La cittadinanza viene trasformata in utenza. La libertà diventa una variabile di sistema. E il dissenso, da motore della democrazia, diventa una “anomalia” da correggere.
Il paradosso dell’IA è proprio qui. Da un lato, ci viene detto che è troppo potente per essere lasciata libera. Dall’altro, ci viene chiesto di consegnare il freno a quelle stesse architetture istituzionali che hanno dimostrato, sotto pressione, di preferire il controllo alla trasparenza, l’uniformità alla discussione, la narrativa alla correzione degli errori. È come affidare la custodia del vino a chi, ogni volta che teme l’ubriachezza del popolo, chiude la cantina e pretende di amministrare le dosi.
E allora, prima ancora di discutere di allineamento delle macchine, dovremmo discutere di allineamento delle istituzioni. Qual è la loro antropologia implicita? Credono davvero nella libertà, o la considerano una variabile di disturbo? Accettano l’idea che la verità sia un processo, o la riducono a un comunicato? Hanno ancora la capacità di dire “ci siamo sbagliati” senza trasformare la correzione in una colpa del cittadino?
Perché se il Covid ci ha insegnato qualcosa, è che la società contemporanea non è fragile per mancanza di tecnologia. È fragile per mancanza di carattere. È fragile perché ha disimparato il senso critico: quella facoltà antica che non coincide con la malizia, né con il complottismo, né con la sterile contrapposizione, ma con il diritto-dovere di non consegnare la propria coscienza in outsourcing.
L’intelligenza artificiale, in fondo, non è altro che uno specchio. Ci rimanda un’immagine più nitida di ciò che siamo: una civiltà che pretende sicurezza totale e, per ottenerla, è disposta a cedere pezzi di libertà come fossero spiccioli. Una civiltà che ha paura del caos e, per calmarsi, invoca un amministratore.
Io non temo l’IA perché “diventerà cattiva”. Questa è fantascienza da salotto. Io temo l’IA perché diventerà il pretesto perfetto per un’ennesima liturgia dell’obbedienza. E temo soprattutto la pigrizia morale con cui molti accetteranno la formula: “Non possiamo farne a meno”.
La vera domanda, quella che fa male, è un’altra: sapremo ancora dire di no quando il controllo verrà presentato come cura? Sapremo ancora difendere l’imperfezione della libertà contro la perfezione amministrata della sicurezza? Oppure ci scopriremo, un bip alla volta, cittadini tecnicamente assistiti e spiritualmente disarmati?
Se c’è un compito per chi vuole coltivare senso critico oggi, non è demonizzare le macchine. È impedire che la paura delle macchine diventi il cavallo di Troia per ridurre l’uomo a utente, e la democrazia a interfaccia.
Roberto Bonuglia
