Leggi TPI direttamente dalla nostra app: facile, veloce e senza pubblicità
Installa
Menu
  • Opinioni
  • Home » Opinioni

    Perché i giganti dell’IA sono i nuovi padroni della politica (di G. Gambino)

    In alto Dario Amodei (Anthropic) e Alex Karp (Palantir). In basso Elon Musk (xAI) e Sam Altman (OpenAI). Credit: AGF

    Davanti ai nostri occhi si sta consumando un processo di politicizzazione senza precedenti nella storia della tecnologia. La domanda non è più se l’IA influenzerà la politica. È già accaduto. La domanda è chi controllerà chi

    Di Giulio Gambino
    Pubblicato il 9 Apr. 2026 alle 16:29

    C’è un momento in cui si può datare la trasformazione dell’intelligenza artificiale da fenomeno tecnologico apparentemente imparziale, e culturale, a questione di potere politico: il 21 gennaio 2025, secondo giorno del secondo mandato di Donald Trump.

    Nella Roosevelt Room della Casa Bianca, Sam Altman, CEO di OpenAI — la società che ha creato ChatGPT — si trovava a fianco del presidente degli Stati Uniti per annunciare lo Stargate Project, un piano da 500 miliardi di dollari per infrastrutture IA. Altman, in quella occasione, dichiarò che senza Trump l’intelligenza artificiale più avanzata «non avrebbe potuto essere costruita», ringraziando il presidente in termini che stridevano con i suoi trascorsi da critico feroce del tycoon.

    Era la fotografia di un’epoca: i signori dell’IA al tavolo del potere, non più come consulenti, ma come protagonisti.

    Quello che si sta consumando davanti ai nostri occhi è un processo di politicizzazione senza precedenti nella storia della tecnologia.

    Le grandi aziende dell’intelligenza artificiale entrano così direttamente nell’arena politica, finanziano campagne, influenzano governi, modellano regolamenti. E lo fanno secondo due logiche opposte, incarnate da OpenAI e Anthropic, due player che tra gli altri oggi definiscono le sorti dell’IA globale.

    Il primo caso è quello di Sam Altman e OpenAI: la politicizzazione come appiattimento pragmatico sul potere. Dal 2016 al 2022, Altman aveva ripetutamente e pubblicamente messo in guardia contro Trump, arrivando a paragonarlo a Hitler nella Germania degli anni Trenta, e aveva donato centinaia di migliaia di dollari a favore di cause democratiche, tra cui la rielezione di Biden. Poi, dopo la vittoria di Trump, la conversione: un milione di dollari al fondo inaugurale, la presenza all’insediamento, l’abbraccio pubblico al presidente.

    Altman ha descritto la nuova amministrazione come «una boccata d’aria fresca» per il settore tech, parlando di un cambio di paradigma nella Silicon Valley e di un grande entusiasmo per le possibilità negli Stati Uniti. La sua è la politicizzazione del calcolo razionale: l’allineamento al potere per garantire a OpenAI libertà regolamentare, contratti governativi e un posizionamento privilegiato nella corsa all’IA. Un pragmatismo che i senatori democratici Elizabeth Warren e Michael Bennet hanno denunciato pubblicamente, accusando le Big Tech di tentare di «cozy up» all’amministrazione per schivare ogni forma di controllo.

    Il secondo caso è quello di Dario Amodei e Anthropic, la società che ha sviluppato Claude, diretto concorrente di ChatGPT: la politicizzazione come presunta resistenza al potere, con tutti i costi che ne derivano. Nel giugno 2025, mentre la maggior parte delle grandi aziende IA taceva prudentemente, Amodei ha pubblicato sul New York Times un editoriale contro la proposta repubblicana di bloccare e congelare per dieci anni la regolamentazione federale dell’IA, definendola uno strumento inadeguato per governare una tecnologia che avanza a velocità vertiginosa. Moratoria poi respinta dal Senato.

    Ma il prezzo della dissidenza è stato immediato e pesante. Anthropic ha rinunciato a un contratto da 200 milioni di dollari con il Pentagono piuttosto che allentare i vincoli di sicurezza del proprio modello IA, rifiutando che la tecnologia fosse usata per la sorveglianza di massa dei cittadini americani o per uccidere civili.

    In un memo interno ai suoi circa duemila dipendenti, Amodei ha spiegato le ragioni dell’ostilità da parte dell’amministrazione Trump verso Anthropic: il rifiuto di contribuire alla amministrazione Trump attraverso donazioni, l’assenza di quella che ha definito esplicitamente «dictator-style praise», e la scelta di difendere pubblicamente la regolamentazione dell’IA. Trump ha risposto dichiarando Anthropic un rischio per la sicurezza nazionale, un provvedimento poi bloccato da un giudice federale.

    Le due strade divergono ma convergono nello stesso punto di arrivo: la fine di qualsiasi neutralità per le aziende IA.

    Il risultato è un ecosistema in cui chi controlla l’intelligenza artificiale decide anche se e come essa debba essere regolata. Schierarsi con il potere garantisce contratti e libertà d’azione. Opporsi significa rischiare l’emarginazione.

    Quel che resta sullo sfondo è la dimensione geopolitica di questa partita. La corsa globale all’IA si è trasformata in una competizione privata e politicizzata a somma zero tra blocchi contrapposti: da una parte gli Stati Uniti, dall’altra la Cina, che con modelli come DeepSeek ha dimostrato di poter sfidare il primato americano a costi impensabili fino a pochi mesi fa.

    In questo scenario, i padroni dell’IA non sono più semplici imprenditori ma attori strategici di una rivalità che ridisegna gli equilibri mondiali. La domanda non è più se l’IA influenzerà la politica. È già accaduto. La domanda è chi controllerà chi: se i governi riusciranno a governare questi nuovi poteri, o se saranno i padroni dell’IA a governare i governi.​​​​​​​​​​​​​​​​

    Leggi l'articolo originale su TPI.it
    Mostra tutto
    Exit mobile version