La grande fuga dall’intelligenza artificiale
Dimissioni ai vertici delle aziende. Appelli dei lavoratori. Campagne di boicottaggio degli utenti. Le voci contro l'uso dell’IA a fini militari e di sorveglianza scuotono il settore. Ma i contratti con il Pentagono e l’ICE sono già firmati. E la macchina da guerra non si ferma
A cosa serve l’intelligenza artificiale? L’assalto all’Iran sferrato da Stati Uniti e Israele e uno scontro inedito tra una start-up e il Pentagono hanno infiammato il dibattito sull’utilizzo della tecnologia più discussa del momento e sugli eventuali limiti che aziende e governi dovrebbero imporre. Da tempo contestato per le ricadute economiche ambientali, ma anche in termini di salute mentale, del suo sviluppo frenetico, nelle ultime settimane il settore è finito nel mirino dei critici per i legami sempre più stretti tra i big dell’intelligenza artificiale e l’amministrazione Trump e per l’uso che si fa degli strumenti di intelligenza artificiale in ambito militare e nella sorveglianza.
Gli strumenti che in questo mese di guerra hanno dimostrato di poter essere utilizzati per trovare e colpire obiettivi militari in pochi istanti, completando in una manciata di minuti o secondi un iter che prima poteva richiedere giorni, vengono forniti al Pentagono dalle stesse società che realizzano i chatbot più popolari, come ChatGPT e Claude. La tecnologia sottostante è sempre quella dei modelli linguistici a grandi dimensioni, la stessa usata da centinaia di milioni di utenti per tradurre testi, scrivere post sui social o chiedere consigli pratici.
Una realtà che ha esposto le principali aziende del settore a forti critiche non solo da parte di commentatori e attivisti, ma anche dagli stessi addetti ai lavori. All’interno delle stesse organizzazioni che stanno trainando lo sviluppo dell’intelligenza artificiale, prime fra tutte OpenAI, è infatti cresciuto il malumore per il percorso scelto dai dirigenti.
La pietra dello scandalo
A catalizzare le ultime proteste è stato un contratto tra il Pentagono e OpenAI, l’organizzazione che ha portato l’intelligenza artificiale al grande pubblico con la sua ChatGPT, usata ormai da più di 900 milioni di utenti. L’annuncio è arrivato a inizio marzo dopo la rottura tra la concorrente Anthropic e l’amministrazione Trump, che ha portato all’esclusione della start-up da futuri accordi con le autorità federali. L’azienda, che ha una valutazione di circa 380 miliardi di dollari, stava trattando il rinnovo del contratto con il dipartimento di Difesa, in cui voleva imporre restrizioni sull’utilizzo del suo sistema di intelligenza artificiale per lo sviluppo di armi autonome e nella sorveglianza di massa dei cittadini statunitensi. Dopo settimane di tira e molla, il Pentagono ha dichiarato Anthropic un «rischio per la sicurezza» bloccando qualsiasi futuro contratto con le autorità federali. Una decisione senza precedenti che la società californiana ha contestato, ottenendo la sospensione provvisoria della decisione da parte di un giudice.
OpenAI non ha tardato a colmare il vuoto lasciato da Anthropic, annunciando un contratto con il Pentagono poche ore dopo lo scoppio della guerra con l’Iran. Anche se l’amministratore delegato di OpenAI, Sam Altman, ha assicurato che il Pentagono ha acconsentito a restrizioni simili a quelle richieste da Anthropic, l’annuncio ha fatto riemergere i malumori di chi chiede maggiori controlli su una tecnologia che, secondo molti dei suoi proponenti, dovrebbe rivoluzionare la società.
In un post su X, Caitlin Kalinowski responsabile hardware all’interno della divisione robotica di OpenAI, ha annunciato che si sarebbe dimessa a causa del contratto, citando la «sorveglianza di cittadini americani senza controllo giudiziario» e lo sviluppo di «armi autonome senza autorizzazione» da parte di esseri umani come «questioni che meritavano una riflessione più approfondita di quella che hanno ricevuto». Prima ancora aveva lasciato Max Schwarzer vicepresidente per la ricerca presso OpenAI, che in un altro post pubblicato su X aveva annunciato il passaggio alla rivale Anthropic, la stessa società che si era scontrata con il Pentagono per le restrizioni all’utilizzo dell’intelligenza artificiale.
Nelle ore successive all’annuncio, Altman aveva provato a dare una risposta all’insoddisfazione all’interno dell’azienda e nella comunità di ricercatori. Prima rispondendo alle domande degli utenti su X, poi sostenendo di aver lavorato con il dipartimento della Difesa per apportare alcune modifiche all’accordo «al fine di chiarire in modo inequivocabile i nostri principi». Ha spiegato quindi che la tecnologia non sarà utilizzata nello sviluppo di armi autonome e nella sorveglianza di massa dei cittadini statunitensi.
Ma durante la riunione con i dipendenti, tenuta il giorno stesso, ha chiarito che l’organizzazione non può scegliere e non ha il potere di decidere come l’esercito utilizza la sua tecnologia. «Forse pensate che l’attacco all’Iran era un bene e l’invasione del Venezuela un male», ha detto durante la riunione secondo una trascrizione parziale dell’incontro citata da Cnbc. «Su questo non avete voce in capitolo». In un altro passaggio, citato dal Wall Street Journal, ha difeso il diritto dei militari di prendere decisioni anche se hanno fatto cose «con cui sono assolutamente in disaccordo e sono sicuro che ne faranno altre in futuro», sostenendo che quello di avere un esercito statunitense forte è stato «un grande vantaggio per tutta l’umanità negli ultimi 250 anni».
L’affaire Anthropic
Ma OpenAI non è l’unica realtà nell’intelligenza artificiale a essere contestata. Anche Anthropic la società che ha fatto dell’uso responsabile dell’intelligenza artificiale la sua ragion d’essere non è immune alle critiche. Come quelle del ricercatore Mrinank Sharma, che a inizio febbraio ha annunciato le sue dimissioni scrivendo in una lettera ai colleghi che il «mondo è in pericolo» a causa dell’intelligenza artificiale. Un passo indietro in parte dettato dalla decisione, da parte di Anthropic, di ammorbidire le proprie politiche sulla sicurezza, annunciata nel pieno dello scontro con il Pentagono. Le modifiche, secondo quanto riporta Time, includono l’abbandono dell’impegno di non rilasciare modelli di intelligenza artificiale qualora Anthropic non fosse in grado di garantire in anticipo adeguate misure di mitigazione del rischio.
Paradossalmente la stessa Anthropic è stata fondata da fuoriusciti da OpenAI, preoccupati che l’organizzazione non dedicasse sufficiente attenzione alla sicurezza dei suoi strumenti. Negli anni Anthropic si era distinta per la sua posizione a favore di vincoli sull’intelligenza artificiale, arrivando a fermare il lancio del suo chatbot, Claude, per timore di lanciare una spirale concorrenziale che potesse pregiudicare uno sviluppo sicuro della tecnologia. Una decisione che ha dovuto rivedere quando, alcune settimane dopo, OpenAI ha deciso di lanciare ChatGPT.
Nel corso degli anni la società guidata da Dario Amodei ha assunto nei confronti dell’amministrazione Trump una posizione diversa rispetto agli altri concorrenti. Da parte del biofisico di origine italiana non sono mai mancate le critiche nei confronti delle politiche trumpiane, accusate di condurre la tecnologia su una china pericolosa. Prima ancora delle elezioni del 2024, in un lungo post su Facebook, aveva esortato gli amici a votare per Kamala Harris, paragonando Trump a un «signore della guerra feudale». Proprio dopo la rottura con l’amministrazione Trump, Claude, il chatbot di Anthropic, è diventata l’applicazione più scaricata all’interno dell’App Store di Apple, scalzando dal primo posto ChatGPT.
Campagne di boicottaggio
Lo scoppio della guerra contro l’Iran e l’annuncio di OpenAI dell’accordo con il Pentagono hanno scatenato proteste anche fuori dalla cerchia di ricercatori e addetti ai lavori, ispirando una campagna di boicottaggio che ha raccolto l’adesione di esponenti del mondo dello spettacolo come Katy Perry. Il movimento QuitChatGPT cita la scelta di OpenAI di accettare un «accordo corrotto» con il Pentagono e una donazione di ben 25 milioni di dollari a un comitato che sostiene Donald Trump da parte del suo presidente Greg Brockman, chiedendo «agli americani e alle persone di tutto il mondo di smettere di usare ChatGPT».
OpenAI non è l’unica società del settore a diventare bersaglio di campagne di boicottaggio. In vista delle elezioni di midterm, un gruppo si sta mobilitando per chiedere ai candidati di rifiutare finanziamenti da Palantir, il colosso della data intelligence criticato per il suo ruolo nell’uso di tecnologie come intelligenza artificiale e riconoscimento facciale nella sorveglianza.
In particolare il gruppo Purge Palantir ne ha contestato il ruolo nelle retate anti-migranti della Immigration and Customs Enforcement (Ice), che ha usato i servizi dell’azienda con sede a Miami «per tracciare e detenere i nostri vicini». L’ondata di indignazione seguita alle morti di Minneapolis, dove agenti federali hanno ucciso a colpi di arma da fuoco Renee Good e Alex Pretti, si è allargata anche alla società guidata da Alex Karp, diventata il volto per molti attivisti dell’espansione delle attività di sorveglianza da parte della autorità. L’azienda, che fornisce all’Ice strumenti per tracciare e sorvegliare i migranti negli Stati Uniti, è stata così associata a un’agenzia che la maggior parte dei cittadini statunitensi, stando ai sondaggi, ritengono sia andata «troppo oltre» nei fermi e nelle espulsioni degli immigrati. L’Ice ha assegnato a Palantir un appalto da 30 milioni di dollari ad aprile 2025 per la realizzazione di “Immigration Os” con l’obiettivo, secondo quanto riportato dal Washington Post, di facilitare le «operazioni di selezione e arresto degli stranieri clandestini» in base alle priorità dell’Ice, minimizzare «il dispendio di tempo e risorse» nelle deportazioni e tracciare «quasi in tempo reale» quali individui lasciano il Paese volontariamente. Il contratto è stato rinnovato a settembre, portando il valore a 60 milioni di dollari. Secondo il Financial Times la campagna Purge Palantir ha già spinto cinque deputati e un senatore, che in passato avevano ricevuto fondi da persone legate all’azienda fondata da Peter Thiel, a rifiutare ulteriori finanziamenti.
Il caso Palantir
Da questa parte dell’oceano Palantir è stata invece contestata per il suo contratto con il servizio sanitario britannico siglato a novembre 2023. A guidare le contestazioni a Palantir c’è Amnesty, che punta a impedire il rinnovo dell’accordo a febbraio 2027, affermando che «qualsiasi azienda che contribuisca al genocidio non ha posto nel nostro servizio sanitario». Il riferimento è al contratto siglato con l’esercito israeliano a inizio 2024, a pochi mesi dall’inizio della campagna sulla Striscia di Gaza, per impiegare la sua tecnologia a supporto di «missioni legate alla guerra». Secondo Amnesty «il contratto è stato firmato mentre Israele stava perpetrando un genocidio a Gaza, un genocidio tuttora in corso, poiché le forze israeliane continuano a creare deliberatamente condizioni di vita invivibili per i palestinesi». Accuse respinte dall’azienda, che tramite il suo amministratore delegato, Alex Karp, sostiene che «la principale causa di morte in Palestina», dove almeno 70mila palestinesi sono stati uccisi nella campagna militare israeliana, «è il fatto che Hamas si è reso conto che esistono milioni e milioni di utili idioti». In risposta a una domanda sull’utilizzo dell’intelligenza artificiale da parte dell’esercito israeliano, il presidente di Palantir, Peter Thiel, ha invece dichiarato di non seguire «tutto quello che succede in Israele, perché tendo a schierarmi dalla parte di Israele», aggiungendo: «Non spetta a noi mettere in discussione tutto». Lo stesso Thiel aveva fatto parlare di sé nelle scorse settimane per aver portato a Roma i suoi seminari, riservati, sul tema dell’Anticristo. La stessa città in cui ha sede il Policlinico Gemelli, con cui nel 2023 Palantir ha avviato una collaborazione «per implementare soluzioni di ricerca in medicina digitale che sfruttano l’intelligenza artificiale per migliorare la cura del paziente e gli esiti sanitari»
Una nuova arma
Con il tentativo di “decapitare” il regime iraniano, le discussioni sull’uso dell’intelligenza artificiale hanno assunto ancora più centralità. Secondo gli esperti, l’intelligenza artificiale sta cambiando, almeno in parte, il modo in cui si combattono le guerre, assicurando tempi molto più brevi per selezionare e poi colpire gli obiettivi, con un personale molto più ridotto.
L’uso che si fa attualmente dell’intelligenza artificiale non è tanto nei “robot” che scelgono i loro obiettivi autonomamente e poi scelgono come procedere. Piuttosto le applicazioni principali si trovano nelle attività di supporto, come l’elaborazione delle informazioni di intelligence. A differenza dei modelli linguistici di grandi dimensioni usati dai consumatori, quelli impiegati in ambito militare sono addestrati per svolgere compiti specifici, anche per evitare le imprecisioni che spesso affliggono l’intelligenza artificiale.
La promessa è quella di campagne militari più efficienti in cui viene impiegato molto meno personale per identificare molti più obiettivi. Ma bombardare migliaia di obiettivi perché l’intelligenza artificiale consente di identificarli e attaccarli rapidamente non lo rende di per sé auspicabile. Uno dei rischi è che i tempi rapidi dell’intelligenza artificiale possano pregiudicare la verifica degli obiettivi, causando ulteriori vittime civili. Un tema emerso nel bombardamento della scuola elementare di Minab, nel sud dell’Iran, nel primo giorno di attacchi, in cui hanno perso la vita almeno 160 tra bambini e insegnanti, anche se non è ancora chiaro se l’intelligenza artificiale è stata usata in quell’attacco. Un altro rischio, secondo Paul Scharre, vicepresidente esecutivo del Center for a New American Security ed esperto di armi autonome oltre che ex militare, è che potremmo ritrovarci in un mondo in cui chi sceglie di attaccare sopporti ancora meno il peso delle proprie decisioni. «Se nessuno si dovesse (più) sentire moralmente responsabile delle uccisioni che sono avvenute, non mi sembrerebbe una cosa positiva», ha detto Scharre intervenendo a un podcast di Bloomberg. «Questo potrebbe portare a più sofferenza, vittime civili e guerra».