Icona app
Leggi TPI direttamente dalla nostra app: facile, veloce e senza pubblicità
Installa
Banner abbonamento
Cerca
Ultimo aggiornamento ore 15:08
Immagine autore
Gambino
Immagine autore
Telese
Immagine autore
Mentana
Immagine autore
Revelli
Immagine autore
Stille
Immagine autore
Urbinati
Immagine autore
Dimassi
Immagine autore
Cavalli
Immagine autore
Antonellis
Immagine autore
Serafini
Immagine autore
Bocca
Immagine autore
Sabelli Fioretti
Immagine autore
Guida Bardi
Home » Opinioni

Le linee rosse dell’IA che non dovremmo oltrepassare (di D. Belli e P. Nemitz)

Immagine di copertina

Siamo abituati a pensare all’intelligenza artificiale come a uno strumento per generare immagini di gattini o scrivere e-mail più velocemente. Ma l’IA ha già fatto il suo ingresso in due dei campi critici per le nostre libertà: la guerra e la sorveglianza di massa.

Il 28 febbraio 2026, un attacco “triple-tap” (tre missili consecutivi sullo stesso obiettivo a distanza di poco tempo) ha colpito la scuola femminile Shajareh Tayyebeh di Minab, Iran, uccidendo fra le 165 e le 180 persone, per lo più bambine tra i 7 e i 12 anni. La scuola era stata separata dal complesso militare adiacente ed era diventata un’istituzione civile chiaramente definita da oltre dieci anni. Secondo quanto ricostruito dal New York Times sulla base di un’indagine interna del Pentagono, gli Stati Uniti, dopo aver inizialmente negato ogni coinvolgimento, hanno ammesso che un errore di targeting dovuto all’uso di dati e mappe obsoleti ha portato a colpire la scuola, e i risultati preliminari puntano alla responsabilità americana.

Diverse inchieste giornalistiche e analisi indipendenti (tra cui il Washington Post, The Guardian e altre testate internazionali), indicano che il Pentagono avrebbe impiegato Claude, il modello di intelligenza artificiale sviluppato da Anthropic e integrato nel Maven Smart System di Palantir, per generare suggerimenti su oltre 1.000 obiettivi da colpire durante i raid sull’Iran in meno di 24 ore. In teoria, un essere umano dovrebbe approvare ciascun bersaglio. Ma quando si producono 1.000 obiettivi in un giorno, si tratta di un’approvazione ogni 86 secondi: la supervisione umana rischia di diventare, nella sostanza, una formalità.

Questo, tra l’altro, è avvenuto in un contesto di conflittualità tra Anthropic e il Pentagono. Le tensioni tra i due sono esplose pubblicamente il 27 febbraio 2026, il giorno prima dell’attacco. Il Segretario del recentemente rinominato Dipartimento della Guerra Pete Hegseth aveva annunciato su X l’intenzione di designare Anthropic come “rischio per la catena di approvvigionamento della sicurezza nazionale americana”, una misura storicamente riservata agli avversari degli Stati Uniti e mai applicata prima a un’azienda americana.

Anthropic, dal canto suo, aveva risposto nella stessa giornata, precisando di aver posto solo due “linee rosse” all’uso militare di Claude: il divieto di sorveglianza di massa dei cittadini americani e quello di sviluppo di armi completamente autonome. Secondo queste ricostruzioni, nonostante l’annuncio dell’esclusione di Anthropic dal contratto con il Pentagono, nel giro di meno di 24 ore tecnologie di intelligenza artificiale sarebbero comunque state impiegate come componente del sistema di targeting contro l’Iran, in apparente tensione con almeno una di quelle “linee rosse”, e potenzialmente contribuendo all’errore catastrofico di Minab, che sembra derivare dalla combinazione fra questa accelerazione del targeting assistito dall’IA e l’uso di dati di intelligence non aggiornati.

Non si tratta di un caso isolato nel panorama dell’IA militare. Era già stato documentato che l’esercito israeliano aveva usato il data processing system Lavender, un sistema di sorveglianza di massa sulla maggior parte dei 2,3 milioni di residenti della Striscia di Gaza per selezionare decine di migliaia di obiettivi, riducendo in tal modo la supervisione umana a pochi secondi per ogni bersaglio. I precedenti erano noti, come lo erano i rischi.

Eppure, si è deciso di non tracciare un confine che reggesse alla pressione operativa. A questo si aggiunge un altro segnale di allarme, poche ore dopo la rottura con Anthropic, OpenAI ha firmato un accordo da 200 milioni di dollari con il Dipartimento della Guerra statunitense per subentrare come fornitore di IA per le reti militari classificate. Caitlin Kalinowski, a capo del team di robotica di OpenAI, ha rassegnato le dimissioni pochi giorni dopo, citando preoccupazioni per l’impiego dell’intelligenza artificiale in ambito militare senza adeguate garanzie di supervisione.

Se l’IA ancora non preme il grilletto, certamente carica il fucile. E quando si riduce la catena di comando alla velocità del pensiero, si rischia di eliminare la deliberazione necessaria per distinguere una base militare da una scuola elementare. Che si tratti di un incidente di sicurezza IA o di una scelta deliberata di colpire obiettivi civili per massimizzare la pressione su un Paese avversario, le due ipotesi conducono alla stessa conclusione: in assenza di limiti vincolanti e invalicabili sull’uso dell’IA in contesti letali, la tecnologia diventa uno strumento intercambiabile tanto per l’errore quanto per il crimine.

Tuttavia, la guerra non è l’unico fronte su cui l’assenza di regole si fa sentire. L’altra “linea rossa” posta da Anthropic, ovvero il divieto di usare Claude per la sorveglianza di massa, è altrettanto rilevante. In un articolo sul New York Times, la ricercatrice Zoë Hitzig ha spiegato le ragioni che l’hanno portata ad abbandonare OpenAI. L’azienda ha avviato la sperimentazione di annunci pubblicitari sulle versioni gratuite di ChatGPT, chiarendo che non venderà i dati a terze parti, non influenzerà le risposte, eviterà annunci in conversazioni su alcuni argomenti sensibili e permetterà a chi lo desideri di evitare pubblicità personalizzate in base alle proprie conversazioni con il chatbot. Almeno per il momento. Perché qualunque direzione prenda la sperimentazione,apre inevitabilmente un interrogativo: se oggi l’azienda esclude determinati utilizzi, cosa impedirà in futuro che qualcuno voglia ridefinire tali confini? Il rischio è che le confessioni intime su salute, problemi sentimentali, convinzioni religiose e momenti di fragilità psicologica possano essere usate per costruire un sistema pubblicitario fondato su una profilazione di massa su scala globale.

L’IA non conosce confini nazionali: i suoi modelli sono sviluppati da aziende private, distribuiti globalmente e adottati da governi con standard etici e priorità strategiche profondamente diversi. Nessuno stato, da solo, può regolarne efficacemente l’uso. La domanda cruciale riguarda la possibilità reale di sviluppare una politica sulla dimensione sovranazionale che ponga dei vincoli chiari e non valicabili che possano essere opposti alla pressione contingente dei governi, anche perché appare velleitario affidarsi unicamente alla buona fede e all’etica delle aziende. Sia che si tratti di sistemi d’arma capaci di uccidere senza un reale controllo umano, sia che si tratti di algoritmi progettati a fini commerciali, il principio è lo stesso: senza regole condivise e vincolanti, l’IA rischia di erodere pilastri fondamentali della nostra civiltà mettendo a rischio le libertà civili dei cittadini.

Ti potrebbe interessare
Opinioni / Il diritto internazionale resta l'unica via per la pace: la lezione di Habermas è un monito per l'Europa (di M. Delli Santi)
Esteri / 24 febbraio 2022 – 28 febbraio 2026: i 4 anni che hanno sconvolto il mondo (di Giulio Gambino)
Opinioni / Lettera a TPI – Non politicizziamo il referendum: la riforma Nordio è sbagliata nel merito
Ti potrebbe interessare
Opinioni / Il diritto internazionale resta l'unica via per la pace: la lezione di Habermas è un monito per l'Europa (di M. Delli Santi)
Esteri / 24 febbraio 2022 – 28 febbraio 2026: i 4 anni che hanno sconvolto il mondo (di Giulio Gambino)
Opinioni / Lettera a TPI – Non politicizziamo il referendum: la riforma Nordio è sbagliata nel merito
Esteri / Una potenza di equilibro nell’ordine post-atlantico (di Giulio Gambino)
Opinioni / La quiete nei sondaggi e le prevedibili tempeste del prossimo voto in Italia (di S. Mentana)
Opinioni / Il nuovo ordine mondiale e l’Europa (di F. Bascone)
Opinioni / In questo mondo di bulli tocca ai cittadini salvare la democrazia (di M. Cappato)
Opinioni / La gara olimpica più importante è quella contro lo scetticismo (di S. Mentana)
Opinioni / Il Governo dei garantisti vara il fermo preventivo: basta il sospetto di un’azione futura per farlo scattare
Opinioni / La crisi dell’Onu è l’occasione per costruire un nuovo patto globale (di G. Gambino)