Icona app
Leggi TPI direttamente dalla nostra app: facile, veloce e senza pubblicità
Installa
Banner abbonamento
Cerca
Ultimo aggiornamento ore 17:19
Immagine autore
Gambino
Immagine autore
Telese
Immagine autore
Mentana
Immagine autore
Revelli
Immagine autore
Stille
Immagine autore
Urbinati
Immagine autore
Dimassi
Immagine autore
Cavalli
Immagine autore
Antonellis
Immagine autore
Serafini
Immagine autore
Bocca
Immagine autore
Sabelli Fioretti
Immagine autore
Guida Bardi
Home » Tecnologia

L’ex consigliere dell’amministrazione Obama Alec Ross a TPI: “La guerra somiglia ai videogiochi e sarà sempre più algoritmica”

Immagine di copertina
Alec Ross. Immagine pubblicata per gentile concessione dell'intervistato

“Con l’uso dell’IA, i conflitti sono diventati laboratori bellici digitali”. L’esperto spiega a TPI: “Ma ora può essere applicata anche alla vita quotidiana. Serviranno controlli rigorosi”

Nell’era dell’intelligenza artificiale, anche la guerra sta cambiando forma. Algoritmi che selezionano obiettivi, droni autonomi, sorveglianza predittiva e armi intelligenti stanno ridefinendo i confini tra tecnologia, etica e potere. Ma cosa succede quando le decisioni di vita o di morte vengono affidate a una macchina?
Abbiamo posto queste domande ad Alec Ross, Distinguished Adjunct Professor presso la Bologna Business School nonché ex consigliere senior per l’innovazione presso il segretario di Stato degli Stati Uniti durante l’amministrazione del presidente Barack Obama, tra i massimi esperti riconosciuti a livello internazionale di intelligenza artificiale e geopolitica. In un’intervista esclusiva per TPI, Ross fa luce sui nuovi scenari bellici plasmati dall’intelligenza artificiale – dai campi di battaglia digitali dell’Ucraina e di Gaza, fino a interrogarsi sui limiti dell’etica e sulle responsabilità della Comunità internazionale, mettendo in discussione molte delle convinzioni su cui si basano i trattati internazionali e le logiche di deterrenza del passato, e avverte: il futuro della guerra sarà sempre più algoritmico – e sempre più fuori dal nostro controllo.
In che modo l’intelligenza artificiale ha cambiato la natura della guerra nel XXI secolo, in particolare nei conflitti asimmetrici come quello tra Israele e Hamas?
«Innanzitutto, vorrei ricordare che il 99% dei conflitti sono asimmetrici. Bisogna tornare alla Linea Maginot della Prima guerra mondiale per trovare un conflitto davvero simmetrico, e la lezione che ne traiamo è che la guerra simmetrica è altrettanto brutale di quella asimmetrica. Il ruolo dell’IA è quello di aver trasformato la guerra negli ultimi 15 anni rendendola sempre più algoritmica. Questo cambiamento complica la strategia militare, poiché nuovi attori, molto diversi tra loro, possono ora impiegare sistemi di sorveglianza avanzata, attacchi di precisione e droni automatizzati, controbilanciando i propri svantaggi strutturali verso gli eserciti convenzionali. Un altro aspetto in cui l’IA sta influenzando la natura della guerra riguarda la velocità. L’intelligenza umana e l’intelligence tradizionale si muovono molto più lentamente rispetto alle valutazioni generate dall’IA. Per certi versi, la guerra oggi comincia ad assomigliare ai videogiochi dei nostri figli, dove tutto avviene molto più rapidamente».
Israele avrebbe utilizzato sistemi basati sull’IA, come “The Gospel”, per selezionare i bersagli durante le recenti operazioni a Gaza. Quali sono le implicazioni etiche e strategiche dell’automatizzazione delle “kill list” attraverso l’IA?
«Non credo che le implicazioni etiche dell’automatizzare una kill list siano intrinsecamente più o meno negative rispetto a quando questa viene elaborata da esseri umani. Se mai, trovo altrettanto – se non più – inquietante dal punto di vista etico che sia un essere umano a identificare un gran numero di persone da uccidere. Dal punto di vista etico, se una persona è disposta a designare un gruppo di persone da eliminare, non vedo come questo possa essere moralmente meno compromettente rispetto a farlo con l’ausilio di un software. Le implicazioni strategiche, invece, sono una questione completamente diversa. Come società, tendiamo a tollerare l’errore umano molto più dell’errore algoritmico. Quindi, dal punto di vista strategico, prima di dispiegare qualsiasi sistema militare offensivo o difensivo che incorpori l’IA, bisogna essere pienamente convinti che sia dimostrabilmente più efficace di un sistema basato sull’uomo. Alla base c’è una domanda critica: il sistema sta effettivamente colpendo obiettivi militari legittimi o sta erroneamente colpendo civili? Anche su questo punto, metto in guardia dal creare false distinzioni tra decisioni umane e algoritmiche. Se un essere umano è disposto a colpire civili, è moralmente tanto riprovevole quanto lo è un algoritmo – se non di più».
In che modo attori non statali come Hamas o gli Houthi stanno sfruttando l’IA o tecnologie correlate come sciami di droni, deepfake o sistemi autonomi nelle loro tattiche militari?
«Attori non statali come Hamas e gli Houthi utilizzano l’IA e tecnologie correlate in modo creativo, impiegando sciami di droni, deepfake e sistemi autonomi per potenziare la loro efficacia militare. Gli sciami di droni, in particolare, sono diventati un potente elemento di riequilibrio, in grado di sopraffare le difese aeree tradizionali grazie alla mera forza numerica e alla coordinazione algoritmica. I deepfake consentono operazioni psicologiche e campagne di disinformazione su larga scala senza precedenti, seminando confusione e minando il morale del nemico. I sistemi autonomi offrono una significativa flessibilità operativa, permettendo a piccoli gruppi di condurre operazioni complesse e coordinate, impensabili finora senza l’impiego di ingenti risorse umane e materiali».
Oltre a Israele e Hamas, in che modo altri Paesi – come Ucraina e Russia – stanno utilizzando l’IA nel conflitto in corso? Ci sono lezioni da apprendere dall’uso dell’IA dell’esercito ucraino che stanno influenzando la dottrina militare moderna?
«Ucraina e Russia hanno fatto ampio uso dell’IA nel conflitto in corso, trasformandolo in un vero e proprio laboratorio di guerra algoritmica. L’impiego da parte dell’Ucraina di IA per la raccolta di infromazioni d’intelligence, il riconoscimento facciale tramite droni e le decisioni tattiche ha ridefinito le dottrine militari a livello globale. Le forze ucraine, ad esempio, utilizzano droni intelligenti per ottenere intelligence in tempo reale e migliorare in modo significativo la precisione dell’artiglieria. Le lezioni dall’Ucraina dimostrano quanto l’IA possa migliorare la consapevolezza situazionale, la reattività e l’efficienza operativa, rafforzando l’urgenza per tutti gli eserciti del mondo di integrare rapidamente l’IA nei loro modelli strategici».
L’IA è sempre più usata per la sorveglianza e il controllo predittivo nei territori di conflitto. Come valuta le conseguenze a lungo termine di questi sistemi sulle popolazioni civili e sui diritti umani?
«L’uso crescente dell’IA per la sorveglianza e il controllo predittivo nei contesti di conflitto comporta rischi profondi e duraturi per le popolazioni civili e per i diritti umani. Anche se teoricamente progettati per migliorare la sicurezza e prevenire minacce, questi sistemi tendono a creare stati di sorveglianza intrusiva dove le libertà civili vengono erose sotto uno scrutinio algoritmico costante. L’uso improprio o il pregiudizio algoritmico possono portare al targeting erroneo o alla persecuzione di innocenti, alimentando tensioni e sfiducia all’interno delle comunità. A lungo termine, queste pratiche possono normalizzare la sorveglianza pervasiva e minare le libertà democratiche, trasformando le zone di conflitto in stati permanenti di autoritarismo digitale. Questo è, in realtà, l’aspetto dell’IA nei territori di guerra che rappresenta la maggiore minaccia per chi vive al di fuori delle zone di conflitto. Ciò che si sviluppa in guerra può essere applicato nella vita quotidiana: nella polizia, negli aeroporti, negli stadi. Non sono al 100% contrario all’uso dell’IA nel settore della sicurezza, ma deve essere sottoposto a controlli rigorosi. E visto l’aumento dell’autoritarismo, questo mi preoccupa seriamente».
I critici sostengono che l’IA può creare un “effetto black box”, in cui le decisioni vengono prese da algoritmi opachi. Come possono i poteri militari garantire responsabilità e trasparenza nell’uso dell’IA sul campo di battaglia?
«Da quando esiste trasparenza sul campo di battaglia? Mai. La trasparenza non esiste nei conflitti. Pensiamo al cavallo di Troia, usato dodici secoli prima della nascita di Cristo, fino ad oggi. Anche quello era, a modo suo, una black box. Possiamo tornare ancora più indietro, al momento in cui l’uomo ha imparato ad affilare un bastone per farne una lancia e attaccare un accampamento vicino durante la notte. L’obiettivo era creare asimmetria informativa e militare. Volevi armi migliori del nemico e volevi usarle in modo inaspettato. Anche la questione della responsabilità è simile. Quando si combatteva con le spade, il conflitto era uno contro uno. Poi, con balestre e fucili, è sorto un dubbio: se posso uccidere 20 persone con una sola arma, la mia responsabilità diminuisce? E con le bombe? Se ne muoiono mille, chi è responsabile? Tutto questo per dire che la trasparenza non esiste nella guerra, e non viene considerata né una virtù né un valore. La responsabilità è un concetto mutevole, che ha poco a che fare con l’IA, e tutto a che fare con gli standard che poniamo agli esseri umani coinvolti nel conflitto—che combattano con una spada, con un fucile o con un algoritmo».
In che misura l’uso dell’IA nei conflitti recenti sta accelerando una nuova corsa agli armamenti tecnologici? Ci sono parallelismi con l’era nucleare in termini di deterrenza e rischio di escalation?
«L’uso dell’IA nei conflitti recenti sta accelerando senza dubbio una nuova corsa agli armamenti tecnologici, con alcune dinamiche simili all’epoca della deterrenza nucleare. Tuttavia, i parallelismi sono imperfetti: la proliferazione dell’IA è diversa da quella nucleare, perché è decentralizzata e mercificata. Le tecnologie IA evolvono rapidamente, sono ampiamente accessibili e hanno barriere all’ingresso molto più basse rispetto alle armi nucleari. Mentre le armi nucleari richiedono accesso a elementi transuranici scarsi e competenze scientifiche rare, l’IA può essere sviluppata in un laboratorio o persino in un garage. Tutto ciò rende i modelli tradizionali di deterrenza meno efficaci e molto più difficile regolare e codificare norme condivise attraverso trattati tra Stati».
Nel conflitto Israele-Hamas, alcuni analisti sostengono che gli attacchi di precisione guidati dall’IA rischiano di creare un’illusione di superiorità morale. L’IA contribuisce a ridurre i danni collaterali o rende la guerra semplicemente più accettabile?
«Penso che, dal punto di vista morale o etico, non ci sia alcuna distinzione tra ciò che fa un essere umano e ciò che fa un’intelligenza artificiale. A volte immaginiamo che i nostri algoritmi siano stati scritti da entità divine. Non è così. Sono stati scritti da esseri umani, e quindi riflettono i valori, le intenzioni e le politiche sviluppate dagli esseri umani stessi. Quindi, da un punto di vista giuridico, etico e morale, non dovrebbe esserci alcuna distinzione tra le azioni militari compiute da uomini e quelle eseguite da algoritmi basati su IA».
In che modo il diritto internazionale umanitario può evolvere per affrontare in modo efficace l’uso di armi autonome e sistemi di targeting guidati da IA? Il quadro giuridico attuale è in grado di affrontare queste sfide?
«Questo è un ambito in cui sono molto scettico. Le istituzioni multilaterali non riescono a prevenire i conflitti da oltre 30 anni, a partire dal genocidio in Ruanda. Credo anche che molte organizzazioni internazionali vivano in una sorta di mondo fantastico, immaginando un mondo senza nuovi tipi di armamenti. Questo le rende, di fatto, irrilevanti. Stati Uniti, Russia, Cina, Iran—nessuno di questi Paesi si preoccupa minimamente del diritto internazionale quando si tratta di impiegare un dato sistema d’arma. E ancora una volta, metto in discussione la distinzione tra armi autonome e sistemi di targeting guidati da IA rispetto a quelli guidati da esseri umani. È davvero più etico che un essere umano prema un pulsante per uccidere, rispetto a un sistema IA? Quindi, qualcosa è legale se fatto da un uomo ma illegale se fatto da un algoritmo? Non credo. Stiamo creando una falsa distinzione tra mondo digitale e mondo non digitale. Le regole giuridiche che valgono nel mondo analogico devono essere applicate anche nel mondo digitale».
Con l’IA che diventa un pilastro della guerra moderna, quale dovrebbe essere il ruolo delle istituzioni internazionali, come l’Onu o la Nato, nel regolare o guidare il suo impiego militare? È realistico pensare a un consenso globale su questi temi?
«Nessuna delle grandi potenze militari mondiali si preoccupa di ciò che pensa l’ONU su queste questioni. L’Onu ha perso il 90% della sua credibilità negli ultimi 30 anni, e la sua rilevanza continua a diminuire. Lo dico senza compiacimento. La Nato, invece, è guidata quasi interamente dagli Stati Uniti e, di fatto, è un’organizzazione militare che agisce più come forza operativa che come organismo regolatore. Purtroppo, non credo che sia minimamente realistico pensare a un consenso globale su questi temi. Oltre al fatto che Paesi come Stati Uniti e Cina non troveranno mai un accordo, bisogna considerare gli attori non statali, che non sono vincolati da alcun trattato multilaterale. A differenza delle armi nucleari, la diffusione dell’IA rende quasi impossibile contenerla all’interno di un quadro regolatorio, viste le condizioni geopolitiche del 2025».

Ti potrebbe interessare
Tecnologia / Il futuro che nessuna intelligenza artificiale potrà mai scrivere
Tecnologia / Ridefinire la produttività: il tablet nel confronto con l’architettura PC
Economia / Costi e benefici del cloud aziendale nell’attuale scenario economico
Ti potrebbe interessare
Tecnologia / Il futuro che nessuna intelligenza artificiale potrà mai scrivere
Tecnologia / Ridefinire la produttività: il tablet nel confronto con l’architettura PC
Economia / Costi e benefici del cloud aziendale nell’attuale scenario economico
Tecnologia / Digital Angels: nasce DAs Media, il primo smart media center pronta una squadra di 35 professionisti con sedi a Roma e Milano
Tecnologia / Gruppo FS e Microsoft: nasce l’accordo sull’Intelligenza Artificiale
Tecnologia / IA e Sud: dal Molise un progetto per lo sviluppo
Esteri / L’Ue apre un’indagine contro Google: “Declassa i contenuti dei media nelle ricerche”
Tecnologia / Le direttrici di sviluppo per un gioco pubblico innovativo e sostenibile: la visione di AGIC e Lottomatica
Tecnologia / Volare nel futuro: appuntamento a Fiumicino
Tecnologia / Sprint24: la tipografia online che semplifica la stampa per aziende e professionisti