Icona app
Leggi TPI direttamente dalla nostra app: facile, veloce e senza pubblicità
Installa
Banner abbonamento
Cerca
Ultimo aggiornamento ore 11:45
Immagine autore
Gambino
Immagine autore
Telese
Immagine autore
Mentana
Immagine autore
Revelli
Immagine autore
Stille
Immagine autore
Urbinati
Immagine autore
Dimassi
Immagine autore
Cavalli
Immagine autore
Antonellis
Immagine autore
Serafini
Immagine autore
Bocca
Immagine autore
Sabelli Fioretti
Immagine autore
Guida Bardi
Home » Esteri

E se fosse un algoritmo a decidere chi deve morire? Ecco perché la nuova guerra dell’intelligenza artificiale è già iniziata

Immagine di copertina
Credit: AGF

L’intelligenza artificiale è già in guerra: ma chi paga in caso di errore? Ecco perché l'uso militare dell’IA è una minaccia senza precedenti ai diritti umani

L’intelligenza artificiale è già in guerra. Secondo numerose ricostruzioni giornalistiche, infatti, nell’attacco che Israele e Stati Uniti hanno lanciato contro l’Iran sarebbe stato utilizzato 
il modello di A.I. Claude, sviluppato dall’azienda Anthropic, per simulare gli scenari che hanno poi portato ai bombardamenti su Tehran e analizzare i dati di intelligence. Il tutto avveniva mentre l’amministrazione statunitense classificava Anthropic come “fornitore non affidabile” in seguito al rifiuto dell’azienda di fornire i suoi sistemi al Pentagono per guidare armi autonome o addestrare programmi di sorveglianza dei cittadini. Una decisione che ha portato Washington a firmare un contratto con la società rivale, OpenAI, che ha acconsentito all’utilizzo dei suoi servizi per qualsiasi scopo legale con alcune generiche limitazioni.

 

Visualizza questo post su Instagram

 

Un post condiviso da TPI (@tpi)

L’intelligenza artificiale non si limita a facilitare e, di conseguenza, velocizzare la raccolta 
delle informazioni, riducendo i tempi di pianificazione di un attacco, ma suggerisce anche quali obiettivi colpire. Questo significa che operazioni, che prima richiedevano giorni se non settimane di pianificazione, ora possono essere portate a termine nel giro di poche ore. L’I.A., quindi, non è ancora automatizzata nel senso stretto del termine: in poche parole non può decidere in autonomia di lanciare missili o droni per attaccare un determinato bersaglio. Non ancora, almeno. Ma le informazioni fornite dall’algoritmo possono rivelarsi comunque sbagliate. David Leslie, professore di etica e tecnologia alla Queen Mary university di Londra, al Guardian spiega quale potrebbe essere il pericolo maggiore: ovvero che i responsabili militari possano affidarsi troppo ai dati delle macchine e, al tempo stesso, possano anche sentirsi meno coinvolti nelle conseguenze delle decisioni. Va da sé che la domanda viene quindi spontanea: se l’intelligenza artificiale commette un errore, chi paga per quell’errore?

 

Visualizza questo post su Instagram

 

Un post condiviso da TPI (@tpi)

A questa domanda prova risponde Mariarosaria Taddeo, docente di Digital Ethics 
and Defence Technologies all’Oxford Internet Institute, che a Repubblica afferma: “Le poche leggi dedicate all’IA, dall’AI Act europeo all’AI Basic Act sudcoreano, escludono esplicitamente la difesa dal proprio campo d’applicazione. Il diritto internazionale umanitario vale in linea di principio, ma la sua estensione ai sistemi autonomi richiede interpretazioni ancora tutte da sviluppare”. L’esperta, quindi, aggiunge che “l’uso militare dell’IA 
è una minaccia senza precedenti ai diritti umani”. Anche perché, come spiega al Corriere della Sera Dario Guarascio, docente di economia 
e politica dell’innovazione, gli strumenti informatici non forniscono più solo elementi di natura “descrittiva” ma entrano anche nel campo “predittivo” e “prescrittivo” dando “indicazioni dirette sulle azioni da compiere. Un cerchio nel quale l’uomo è escluso o, nella migliore delle ipotesi, marginalizzato”. Un esempio concreto è fornito dall’analista e giornalista Gianluca Di Feo, secondo cui, nella prima fase delle operazioni militari israeliane nella Striscia di Gaza, è stata fornita all’intelligenza artificiale una lista di 33mila nomi di presunti terroristi o fiancheggiatori di Hamas lasciando 
che fosse un algoritmo a decidere chi doveva morire e chi no.

Ti potrebbe interessare
Esteri / DeepSeek presenta in Cina il nuovo programma di intelligenza artificiale V4
Esteri / Netanyahu: "Avevo un tumore alla prostata. Ma grazie a Dio ho sconfitto anche lui"
Esteri / Il figlio muore a 23 anni, la mamma decide di ricorrere al suicidio assistito: “Senza di lui non esisto”
Ti potrebbe interessare
Esteri / DeepSeek presenta in Cina il nuovo programma di intelligenza artificiale V4
Esteri / Netanyahu: "Avevo un tumore alla prostata. Ma grazie a Dio ho sconfitto anche lui"
Esteri / Il figlio muore a 23 anni, la mamma decide di ricorrere al suicidio assistito: “Senza di lui non esisto”
Esteri / "Il ministro degli Esteri dell'Iran atteso in Pakistan per riprendere i colloqui con gli Usa"
Esteri / Meta licenzierà un dipendente su 10 per finanziare gli investimenti nell’Intelligenza artificiale
Esteri / Aveva scommesso sulla caduta di Maduro subito prima del raid: arrestato un soldato delle forze speciali Usa
Esteri / "Il Pentagono ipotizza la sospensione della Spagna dalla Nato e altre sanzioni per gli alleati che si sono rifiutati di aiutare gli Usa contro l’Iran"
Esteri / Italia-Spagna: due Paesi simili con traiettorie opposte
Esteri / Il miracolo spagnolo di Pedro Sanchez
Esteri / Così la guerra degli Usa all’Iran può distruggere il movimento MAGA