Riceviamo e pubblichiamo di seguito questa lettera arrivata alla redazione.
Quando il primo ministro svedese ha confessato di usare ChatGPT per supportare decisioni politiche, è sembrato un segnale chiaro: l’intelligenza artificiale non è più solo un tema della Silicon Valley, ma è al centro della politica europea. E con questo emergono domande inevitabili: chi costruisce questi sistemi? Quali valori contengono? E cosa significa per la democrazia europea affidarsi a tecnologie sviluppate altrove?
L’Europa ha sempre puntato sulla regolamentazione. Dal GDPR all’imminente AI Act, il Vecchio Continente dimostra la sua ambizione di guidare l’etica digitale. Ma non basta limitarsi a scrivere regole. Se le piattaforme più avanzate restano sotto il controllo di Stati Uniti o Cina, l’Europa rischia di essere solo consumatrice digitale, perdendo il ruolo di protagonista tecnologico. E questa non è solo una questione economica: è una vulnerabilità politica e strategica.
Negli Stati Uniti operano giganti come Google, Microsoft e OpenAI; in Cina, lo Stato investe miliardi in IA e infrastrutture. L’Europa invece fatica a creare aziende di grande scala e affronta ostacoli come sistemi giuridici frammentati, costi energetici elevati e scarsi investimenti nelle startup.
Progetti come il polo di Bologna sono incoraggianti, ma restano troppo piccoli rispetto alla sfida globale. Senza un impegno comune, rischiamo di restare indietro in una corsa che deciderà i futuri equilibri di potere. Ecco perché la sovranità digitale è così importante.
Non si tratta di protezionismo, ma di poter controllare dati, piattaforme e scelte tecnologiche, assicurando che i valori europei—trasparenza, equità, dignità umana—siano incorporati negli strumenti quotidiani. Senza sovranità, l’Europa resta vulnerabile; con essa, può innovare responsabilmente e proteggere i cittadini.
La regolamentazione resta fondamentale, ma deve andare di pari passo con l’innovazione. Le regole offrono sicurezza; gli investimenti creano forza. L’Europa ha bisogno di sostenere le startup di IA, adottare politiche energetiche e ambientali favorevoli e costruire un ecosistema condiviso tra governi, università e aziende.
La scelta è chiara: continuare a fare l’arbitro dell’IA, fissando standard mentre altri dominano il campo, o diventare protagonista, assumendosi rischi, costruendo infrastrutture e valorizzando i propri talenti. La prima strada porta controllo, ma anche dipendenza; la seconda richiede coraggio e visione—ma è l’unica che permetta all’Europa di scrivere il proprio futuro digitale. Alla fine, la vera domanda non è se l’Europa debba regolamentare l’IA, ma se avrà il coraggio di crearla.
Elena Raffone