Icona app
Leggi TPI direttamente dalla nostra app: facile, veloce e senza pubblicità
Installa
Banner abbonamento
Cerca
Ultimo aggiornamento ore 10:34
Immagine autore
Gambino
Immagine autore
Telese
Immagine autore
Mentana
Immagine autore
Revelli
Immagine autore
Stille
Immagine autore
Urbinati
Immagine autore
Dimassi
Immagine autore
Cavalli
Immagine autore
Antonellis
Immagine autore
Serafini
Immagine autore
Bocca
Immagine autore
Sabelli Fioretti
Immagine autore
Guida Bardi
Home » Esteri

La politica dell’Intelligenza artificiale: così i giganti tecnologici sono entrati nel governo degli Stati Uniti

Immagine di copertina
Credit: AGF

Dal ruolo delle Big Tech nelle guerre in Ucraina e Medio Oriente allo scontro fra Anthropic e Pentagono. Dai soldi alle campagne elettorali di destra e sinistra alla competizione tecnologica col nemico cinese. Benvenuti nell'era dell'I.A.crazia

I miliardari dell’Intelligenza artificiale hanno un nemico a Manhattan: è Alex Bores, 35 anni, membro dell’Assemblea legislativa dello Stato di New York, ora in lizza per un seggio da rappresentante al Congresso. Da circa un paio di mesi la sua corsa alle primarie del Partito democratico per il Campidoglio è avversata da una campagna di video pubblicitari ad personam che lo descrive come «un esperto in ipocrisia». Il candidato dem è accusato di promuovere una regolamentazione «burocratica» e «caotica» a danno dell’Intelligenza artificiale dopo aver guadagnato lui stesso centinaia di migliaia di dollari sviluppando l’IA utilizzata dall’Ice, la spietata agenzia federale che dà la caccia agli immigrati irregolari. 

Bores, laureato in informatica, dal 2014 al 2019 ha effettivamente lavorato per Palantir, il colosso tecnologico che fornisce i software all’Ice, occupandosi in prima persona delle partnership strategiche con il Governo federale, ma sostiene di aver lasciato l’azienda, ormai sette anni fa, proprio a causa della collaborazione con l’agenzia anti-immigrazione.

Dietro i video che lo screditano c’è la regia di Leading the Future, un comitato bipartisan di raccolta fondi a scopo politico che riunisce alcuni tra i principali imprenditori del settore tech, tra cui il presidente di OpenAi Greg Brockman, il venture capitalist Andreessen Horowitz, (finanziatore di Perplexity), l’angel investor Ron Conway e – paradosso – Joe Lonsdale, co-fondatore della stessa Palantir.

A questi capitani d’industria e di finanza interessa evitare che l’esponente democratico possa replicare al Congresso quanto fatto all’Assemblea dello Stato di New York. Bores è infatti il primo firmatario del Raise Act, legge statale che impone una serie di regole di trasparenza ai grandi laboratori dell’IA, e adesso propone un piano nazionale per governare questa tecnologia in espansione. Sebbene calata nella specifica realtà statunitense, la sua visione di fondo riflette i principi che hanno ispirato l’AI Act varato nel 2024 dall’Unione europea, primo esempio al mondo di regolamentazione dell’Intelligenza artificiale nel tentativo di limitare lo strapotere dei giganti del digitale.

In direzione esattamente opposta, i tecno-oligopolisti americani auspicano invece un quadro normativo più snello, allo scopo di poter moltiplicare i rispettivi profitti.

Do ut des
Nel 2025 le maggiori aziende dell’Intelligenza artificiale hanno speso per la prima volta più di 100 milioni di dollari per influenzare la politica statunitense e il Wall Street Journal prevede che nei prossimi mesi le campagne elettorali per il voto di mid-term assorbiranno donazioni dal mondo tecnologico per circa 265 milioni di dollari.

Alphabet (leggi Google), Apple, Meta e Microsoft hanno contribuito a finanziare la costruzione della nuova sala da ballo della Casa Bianca, mentre all’inizio di quest’anno Brockman di OpenAi ha staccato un assegno da 25 milioni di dollari in favore del Maga Inc., il principale comitato a sostegno del presidente Donald Trump. Andando un poco più indietro nel tempo, Peter Thiel, co-fondatore di Palantir, è stato uno dei maggiori sponsor dell’ascesa politica dell’attuale vicepresidente, JD Vance. E non dimentichiamo che Jeff Bezos, patron di Amazon, è l’editore del Washington Post, giornale storicamente pro-dem che sotto la sua proprietà si è riposizionato a destra.

Finora gli sforzi economici delle Big Tech sono stati ben ripagati. Lo scorso dicembre Trump ha emanato un ordine esecutivo che limita la possibilità per i singoli Stati di legiferare in materia di IA e ha revocato il divieto che impediva al leader dei chip Nvidia di vendere i suoi prodotti più avanzati alla Cina. Il presidente si sta anche adoperando per favorire la costruzione dei data center necessari a supportare l’attività dei software intelligenti, a dispetto dei crescenti timori per l’impennata dei costi energetici a carico delle famiglie. Tra i consiglieri speciali per la tecnologia nominati lo scorso 25 marzo dalla Casa Bianca ci sono i numeri uno di Alphabet, Nvidia, Oracle, e c’è anche Mark Zuckerberg, il fondatore di Meta. Lo scorso autunno il gruppo a cui fanno capo Facebook, Instagram, Whatsapp e Meta AI ha investito 65 milioni di dollari per sponsorizzare nelle elezioni statali i candidati che ritiene più vicini alle proprie istanze. Per avere un’idea della potenza di fuoco dispiegata, basti pensare che una campagna elettorale per l’Assemblea di New York costa in media sui 100mila dollari a candidato.

Peraltro, anche i politici più intransigenti verso i giganti di Internet sono sostenuti con fondi privati. Talvolta – a sorpresa – provenienti proprio dal settore informatico. Lo stesso Alex Bores, ad esempio, per la sua corsa al Congresso ha ricevuto 450mila dollari da Public Fist Action, comitato bipartisan che promuove la trasparenza del digitale. Tra i finanziatori dell’organizzazione spicca, con un contributo da 20 milioni di dollari, Anthropic, la società di Intelligenza artificiale balzata alle cronache mondiali nelle scorse settimane per il suo divorzio non consensuale con il Pentagono. 

Tra etica e mercato
Anthropic è stata fondata a San Francisco nel 2021 da sette ex manager e ricercatori di OpenAi che si dicevano preoccupati per la possibile deriva etica nell’utilizzo dell’IA. Oggi la società, guidata dall’italo-americano Dario Amodei, conta 2mila dipendenti e vale circa 380 miliardi di dollari.

Il suo chatbot, Claude, coadiuva le attività di intelligence degli Stati Uniti dal 2024 in combinazione con i sistemi forniti da Palantir e da Amazon Web Services. Claude è stato utilizzato anche nella cattura del presidente venezuelano Nicolás Maduro e negli attacchi lanciati contro l’Iran. Mica poco, per un’azienda che si presenta sul proprio sito professando di essere impegnata a «mitigare i rischi» dell’Intelligenza artificiale.

L’estate scorsa Anthropic ha siglato un contratto biennale da 200 milioni di dollari con il Dipartimento della Difesa americano (poi ribattezzato da Trump «Dipartimento della Guerra») per lo sviluppo di nuovi prototipi di IA al servizio della sicurezza nazionale. L’accordo, però, è naufragato dopo pochi mesi, alla fine di febbraio, quando la società, in nome dei «valori democratici», si è rifiutata di prestare la propria tecnologia per progetti di sorveglianza di massa e armi completamente autonome. Trump non l’ha presa bene: in risposta al diniego del privato, ha dato ordine a tutte le agenzie federali di interrompere immediatamente l’utilizzo di Claude, un provvedimento che Anthropic – definita dal presidente «un’azienda di sinistra radicale e woke» – ha impugnato. Il braccio di ferro si è spostato ora nei tribunali.

Sarebbe ingenuo, tuttavia, credere che una delle più ricche società della Silicon Valley si lasci guidare solo da considerazioni di principio. La realtà dei fatti è assai più materiale. 

«Ogni azienda è mossa sempre dall’interesse di massimizzare i profitti», dice a TPI Alessandro Aresu, esperto di politica e tecnologia e advisor di diverse imprese e istituzioni. «Possono esserci cornici ideologiche a cui i manager possono credere o meno», spiega l’esperto, ma i valori ideali vengono «comunque usati per posizionarsi e per attirare talenti». Anthropic, aggiunge Aresu, «ha una forte cultura interna, ma, ad esempio, aveva detto che non avrebbe mai preso soldi da autocrazie e poi se l’è rimangiato prendendo i finanziamenti dalle monarchie del Golfo».

Monopolio a rischio
Intanto, il Pentagono ha già rimpiazzato l’azienda di Amodei con uno dei suoi principali competitor, OpenAi (anche se l’amministratore delegato Sam Altman si è affrettato a precisare: «Se ricevessi quello che ritengo un ordine incostituzionale, preferirei andare in prigione piuttosto che rispettarlo»).

Il colosso che ha sviluppato ChatGpt aveva già in essere un contratto da 200 milioni di dollari con il Dipartimento della Guerra, oltre a diverse altre forme di collaborazione con l’Amministrazione centrale, dal programma “OpenAi for Government” all’adozione del suo chatbot da parte di molte agenzie federali. 

Le Big Tech – tutte o quasi – sono ormai stabilmente entrate nell’architettura governativa degli Stati Uniti. Nell’aerospazio, la Nasa è costretta a rincorrere la Space X di Elon Musk, non solo un fornitore imprescindibile ma anche un privato dalle gigantesche risorse che sta ridefinendo le dinamiche del settore.

«Il divario di competenze tra aziende e governi è sempre più ampio», spiega Aresu. «Numerose innovazioni sull’intelligenza artificiale sono avvenute e avvengono ormai nei laboratori aziendali privati, e non nella ricerca governativa, al contrario di altre ondate tecnologiche». 

Ma se in molti ambiti le grandi aziende tecnologiche si limitano a fornire servizi insostituibili allo Stato, nel campo della difesa interna ed esterna il loro ruolo è più centrale, per non dire dominante. Di fatto, oggi queste società sono parte integrante degli apparati di sicurezza Usa.

Il think tank conservatore Sagamore Institute ha misurato che tra il 2021 e il 2024 negli Stati Uniti gli investimenti in tecnologie della difesa sono aumentati del 145% rispetto al periodo 2017-2020. 

La guerra in Ucraina e quelle in Medio Oriente – prima a Gaza poi nel Golfo – hanno segnato un salto tecnologico nel modo di condurre i conflitti. In questa nuova era, aziende come Palantir, Anduril, Anthropic, Google, Amazon, Microsoft, Meta, SpaceX sono strutturalmente coinvolte in prima linea nel garantire alle forze armate statunitensi e ai loro alleati infrastrutture cloud, analisi dati e software per l’intelligence e le operazioni militari. Anzi, più che coinvolte. Oggi gli eserciti non solo utilizzano la tecnologia ma sempre più si fanno guidare dalle sue elaborazioni. 

Lo ha dimostrato drammaticamente il caso della scuola di Minab, nel sud dell’Iran, dove lo scorso 28 febbraio un missile Tomahawk americano ha ucciso 168 persone, la maggioranza delle quali bambine. Il ruolo dell’Intelligenza artificiale in quella strage non è stato ufficialmente confermato, ma secondo autorevoli ricostruzioni la scuola è stata colpita per un errore dell’IA, che avrebbe dato al Comando Centrale degli Stati Uniti informazioni obsolete sull’obiettivo a cui mirare.

Ma se a decidere dove e quando colpire è un software, se sono le aziende tecnologiche private a spiegare agli eserciti lo scenario bellico ideale, allora il monopolio dello Stato sulla sicurezza nazionale è a rischio.

Come ha osservato su The Guardian Avner Gvaryahu, attivista israeliano critico nei confronti dell’occupazione dei territori palestinesi, il targeting basato sull’intelligenza artificiale distrugge un cardine del diritto internazionale, ovvero la possibilità di individuare i decisori umani responsabili per l’uso della forza.

Tecno-repubblica
«Alcune aziende, come Palantir e Anduril, hanno avanzato in modo esplicito quello che ho chiamato il “nuovo complesso militare tecnologico”: cioè sostengono una fusione delle capacità aziendali con gli apparati di difesa e sicurezza del Governo», sottolinea Aresu.

In un libro uscito lo scorso anno, intitolato “La repubblica tecnologica”, Alex Karp, co-fondatore e amministratore delegato di Palantir, lo scrive nero su bianco: «Affinché gli Stati Uniti e i loro alleati mantengano il loro vantaggio globale, e preservino le libertà che diamo per scontate, l’industria del software deve rinnovare il proprio impegno nell’affrontare le sfide più urgenti, inclusa la nuova corsa agli armamenti dell’Intelligenza artificiale».

Karp, 58 anni, laureato in filosofia, ex democratico convertito al trumpismo, in diverse occasioni ha rimarcato che la sua azienda «fornisce i suoi prodotti esclusivamente agli alleati occidentali» e che non li presterà «mai ai nemici». Quasi che si trattasse di una controllata statale della difesa.

Fondata nel 2003, Palantir Technologies ricevette parte dei suoi primi finanziamenti da In-Q-Tel, il braccio di venture capital della Cia. La società affianca in vari ambiti il Governo degli Usa da almeno una quindicina d’anni, una collaborazione che gli ha consegnato un accesso privilegiato a dati sensibili su larga scala.

Dal 2014 i sistemi di Palantir sono alla base delle attività dell’Ice. Lo scorso autunno l’azienda ha stipulato un nuovo contratto da 30 milioni di dollari con l’agenzia federale per la realizzazione di una nuova piattaforma, “ImmigrationOs”, che mira a semplificare l’identificazione e l’espulsione degli immigrati attraverso la raccolta di informazioni che vanno dalla scansione delle patenti di guida alla geolocalizzazione delle persone tramite i loro smartphone.

Per giustificare la pervasività di queste indagini, Karp agita lo spauracchio del nemico. «Saremo noi l’attore dominante o lo sarà la Cina. E le regole saranno molto diverse a seconda di chi vincerà», ha messo in guardia l’imprenditore l’anno scorso, ospite a The Axios Show. «Le persone – ha aggiunto – sono preoccupate per la sorveglianza: ovviamente ci sono enormi pericoli, ma si avranno molti meno diritti se l’America non sarà in testa».

Questa commistione tra tecnologie private e difesa dello Stato è tangibile anche in altre aziende. Da un lato, l’esercito ha reclutato negli ultimi anni diversi ufficiali provenienti dal mondo delle Big Tech (è il caso, ad esempio, di Kevin Weil, responsabile di prodotto di OpenAi, nominato tenente colonnello della U.S. Army Reserve). Dall’altro, viceversa, non si contano i casi di ex generali o militari di alto rango cooptati nei board dei giganti tecnologici: per citarne uno, Keith B. Alexander, ex generale a quattro stelle e direttore della Nsa (la National Security Agency) è nella stanza dei bottoni di Amazon dal 2020.

Dietro queste manovre ci sono anche logiche politiche nel senso più prosaico del termine. «I governi – spiega Aresu – se vogliono, possono intervenire sulle aziende, anche in modo “violento”. Così vediamo che queste si “coprono” sul lato della sicurezza nazionale coi generali nei loro board». 

Lavoratori in rivolta
Le tecnologie di Palantir – in particolare piattaforme come Gotham e Foundry – sono state utilizzate in tutte le guerre a cui hanno partecipato gli Stati Uniti dall’inizio di questo secolo, fornendo un contributo sempre più rilevante nella raccolta ed elaborazione dei dati, nelle attività di intelligence e nella logistica militare. 

Dal 2019 l’azienda è anche la principale appaltatrice del Project Maven, un’iniziativa del Pentagono che sfrutta il machine learning nell’analisi delle immagini a scopo militare. Il precedente fornitore era Google, che però si è tirato indietro nel 2018 in seguito a una lettera di protesta firmata da 3mila dipendenti contrari a essere coinvolti nel «business della guerra».

Anche quest’anno alcuni lavoratori di Google si sono mobilitati, e per un motivo analogo: temevano che sarebbe stata la loro compagnia a rimpiazzare Anthropic nel rapporto con il Dipartimento della Guerra dopo la rottura a fine febbraio. Così hanno scritto una lettera aperta intimando ai propri superiori di rifiutarsi di collaborare a progetti «per la sorveglianza di massa interna» o «per l’uccisione autonoma di persone senza supervisione umana». L’appello è stato sottoscritto da 796 dipendenti di Google e da 98 membri dello staff di OpenAi (la società che poi, come abbiamo visto sopra, si è effettivamente accordata con Washington). Le perplessità sollevate da Anthropic sono state rilanciate anche in una dichiarazione firmata dai sindacati interni a Google, Amazon e Microsoft, che rappresentano complessivamente 700mila addetti.

A dispetto di queste fibrillazioni interne, lo scorso 10 marzo Alphabet, la holding capogruppo di Google, ha annunciato un nuovo accordo in base al quale fornirà al Pentagono degli agenti-artificiali basati sul chatbot Gemini che opereranno inizialmente su reti non classificate, per poi passare a contenuti classificati.

Rispetto ai tempi dell’uscita dal Project Maven, l’atteggiamento di Google rispetto alle proteste dei lavoratori si è fatto più intransigente. Nel 2024 l’amministratore delegato Sundar Pichai ha fatto licenziare una cinquantina di dipendenti che si erano ribellati ai legami tra l’azienda e l’esercito di Israele. Nello specifico, Google collabora con lo Stato ebraico al Progetto Nimbus, un contratto di cloud computing e intelligenza artificiale, del valore di un miliardo di dollari, che coinvolge pure Amazon e Microsoft.

Anche Palantir supporta le forze armate israeliane: le sue tecnologie hanno agevolato il massacro nella Striscia di Gaza e nel gennaio 2024 – quattro mesi dopo i raid del 7 ottobre – la società ha simbolicamente riunito il proprio consiglio d’amministrazione a Tel Aviv.

Sanno tutto di noi
Lo scorso 19 marzo il senatore democratico Bernie Sanders, icona della sinistra socialista americana, ha pubblicato sul suo canale Youtube un video in cui conversa con Claude, il chatbot di Anthropic, a proposito dell’impatto dell’Intelligenza artificiale sulle nostre società. Il filmato, che dura poco più di 9 minuti, è stato visto in pochi giorni da quasi 3 milioni di persone.

Il quadro che ne emerge – per quanto non inedito – è piuttosto inquietante. E non solo per chi vive negli Stati Uniti, ma per chiunque nel mondo fruisca dei servizi di Big Tech. Inclusi i governi europei che – dopo decenni di mancati investimenti – si ritrovano oggi in molti casi a dover dipendere dalle tecnologie Made in Usa (in Italia, per fare un esempio vicino a noi, il Polo Strategico Nazionale, ossia il cloud che ospiterà i dati delle Pubbliche Amministrazioni, poggia sulle ingegnerie informatiche di Amazon, Microsoft e Google).

Le aziende digitali, spiega Claude a Sanders, «raccolgono dati ovunque: la cronologia di navigazione, la posizione geografica, gli acquisti, le ricerche, persino il tempo trascorso su una pagina web. Poi alimentano sistemi di Intelligenza artificiale che creano profili incredibilmente dettagliati su di voi». 

«Qual è l’obiettivo?», chiede il politico dem. Risposta: «Soldi, senatore: è tutto orientato al profitto. Le aziende raccolgono tutti questi dati perché l’Intelligenza artificiale permette loro di trasformarli in informazioni preziose. Gli inserzionisti pagano prezzi elevati per accedere a questi profili dettagliati perché sono incredibilmente efficaci nel manipolare il comportamento dei consumatori». «E non si tratta solo di venderti qualcosa», aggiunge il chatbot: «Le campagne politiche usano gli stessi dati per capire come persuaderti».

«La profilazione tramite IA rappresenta una vera minaccia per la democrazia», avverte candidamente la stessa Intelligenza artificiale di Anthropic: «Una campagna elettorale o un attore politico può utilizzare l’IA per identificare gli elettori in base a vulnerabilità incredibilmente specifiche: ad esempio qualcuno che è in difficoltà finanziarie, si sente isolato o diffida delle istituzioni. E quindi può inviare loro messaggi studiati appositamente per sfruttare tali vulnerabilità. Un elettore vede un messaggio sulla protezione dei posti di lavoro, un altro ne vede uno che alimenta la paura dell’immigrazione… Vivono in mondi informativi diversi. Questa frammentazione della realtà condivisa mina il processo democratico stesso».

Sanders domanda allora come si possa avere fiducia nel fatto che i colossi digitali preservino la privacy dei cittadini. Ancora una volta, la risposta è spaventosamente sincera: «State chiedendo alle persone – dice Claude – di fidarsi di aziende il cui intero modello di business dipende dall’estrarre valore dai vostri dati personali. C’è un conflitto di interessi intrinseco. Come potete fidarvi? Non potete». E fu così che ci scoprimmo intrappolati nell’algoritmo.

Ti potrebbe interessare
Esteri / La tregua tra Usa e Iran sembra reggere ma aleggia l’incertezza sui colloqui in Pakistan: rinviati a domani
Esteri / Oligarchi nostri: chi sono i nuovi padroni dell’intelligenza artificiale
Esteri / La metamorfosi di OpenAI e quell’utopia tradita dell’intelligenza artificiale
Ti potrebbe interessare
Esteri / La tregua tra Usa e Iran sembra reggere ma aleggia l’incertezza sui colloqui in Pakistan: rinviati a domani
Esteri / Oligarchi nostri: chi sono i nuovi padroni dell’intelligenza artificiale
Esteri / La metamorfosi di OpenAI e quell’utopia tradita dell’intelligenza artificiale
Esteri / Anthropic: la storia della coscienza ribelle delle Big Tech
Esteri / La grande fuga dall’intelligenza artificiale
Esteri / La guerra dei chip: ecco perché chi controlla i semiconduttori ha in mano il futuro dell’IA
Esteri / Dietro le quinte dell’intelligenza artificiale: ecco chi sono i nuovi lavoratori invisibili dell’algoritmo
Esteri / Il paradosso di Elon Musk sull’Intelligenza artificiale
Esteri / La Silicon Valley? In fondo a destra
Esteri / Chi è Peter Thiel, il tecno-crociato dell’IA trumpiana