Icona app
Leggi TPI direttamente dalla nostra app: facile, veloce e senza pubblicità
Installa
Banner abbonamento
Cerca
Ultimo aggiornamento ore 12:49
Immagine autore
Gambino
Immagine autore
Telese
Immagine autore
Mentana
Immagine autore
Revelli
Immagine autore
Stille
Immagine autore
Urbinati
Immagine autore
Dimassi
Immagine autore
Cavalli
Immagine autore
Antonellis
Immagine autore
Serafini
Immagine autore
Bocca
Immagine autore
Sabelli Fioretti
Immagine autore
Guida Bardi
Home » Esteri

E se fosse un algoritmo a decidere chi deve morire? Ecco perché la nuova guerra dell’intelligenza artificiale è già iniziata

Immagine di copertina
Credit: AGF

L’intelligenza artificiale è già in guerra: ma chi paga in caso di errore? Ecco perché l'uso militare dell’IA è una minaccia senza precedenti ai diritti umani

L’intelligenza artificiale è già in guerra. Secondo numerose ricostruzioni giornalistiche, infatti, nell’attacco che Israele e Stati Uniti hanno lanciato contro l’Iran sarebbe stato utilizzato 
il modello di A.I. Claude, sviluppato dall’azienda Anthropic, per simulare gli scenari che hanno poi portato ai bombardamenti su Tehran e analizzare i dati di intelligence. Il tutto avveniva mentre l’amministrazione statunitense classificava Anthropic come “fornitore non affidabile” in seguito al rifiuto dell’azienda di fornire i suoi sistemi al Pentagono per guidare armi autonome o addestrare programmi di sorveglianza dei cittadini. Una decisione che ha portato Washington a firmare un contratto con la società rivale, OpenAI, che ha acconsentito all’utilizzo dei suoi servizi per qualsiasi scopo legale con alcune generiche limitazioni.

 

Visualizza questo post su Instagram

 

Un post condiviso da TPI (@tpi)

L’intelligenza artificiale non si limita a facilitare e, di conseguenza, velocizzare la raccolta 
delle informazioni, riducendo i tempi di pianificazione di un attacco, ma suggerisce anche quali obiettivi colpire. Questo significa che operazioni, che prima richiedevano giorni se non settimane di pianificazione, ora possono essere portate a termine nel giro di poche ore. L’I.A., quindi, non è ancora automatizzata nel senso stretto del termine: in poche parole non può decidere in autonomia di lanciare missili o droni per attaccare un determinato bersaglio. Non ancora, almeno. Ma le informazioni fornite dall’algoritmo possono rivelarsi comunque sbagliate. David Leslie, professore di etica e tecnologia alla Queen Mary university di Londra, al Guardian spiega quale potrebbe essere il pericolo maggiore: ovvero che i responsabili militari possano affidarsi troppo ai dati delle macchine e, al tempo stesso, possano anche sentirsi meno coinvolti nelle conseguenze delle decisioni. Va da sé che la domanda viene quindi spontanea: se l’intelligenza artificiale commette un errore, chi paga per quell’errore?

 

Visualizza questo post su Instagram

 

Un post condiviso da TPI (@tpi)

A questa domanda prova risponde Mariarosaria Taddeo, docente di Digital Ethics 
and Defence Technologies all’Oxford Internet Institute, che a Repubblica afferma: “Le poche leggi dedicate all’IA, dall’AI Act europeo all’AI Basic Act sudcoreano, escludono esplicitamente la difesa dal proprio campo d’applicazione. Il diritto internazionale umanitario vale in linea di principio, ma la sua estensione ai sistemi autonomi richiede interpretazioni ancora tutte da sviluppare”. L’esperta, quindi, aggiunge che “l’uso militare dell’IA 
è una minaccia senza precedenti ai diritti umani”. Anche perché, come spiega al Corriere della Sera Dario Guarascio, docente di economia 
e politica dell’innovazione, gli strumenti informatici non forniscono più solo elementi di natura “descrittiva” ma entrano anche nel campo “predittivo” e “prescrittivo” dando “indicazioni dirette sulle azioni da compiere. Un cerchio nel quale l’uomo è escluso o, nella migliore delle ipotesi, marginalizzato”. Un esempio concreto è fornito dall’analista e giornalista Gianluca Di Feo, secondo cui, nella prima fase delle operazioni militari israeliane nella Striscia di Gaza, è stata fornita all’intelligenza artificiale una lista di 33mila nomi di presunti terroristi o fiancheggiatori di Hamas lasciando 
che fosse un algoritmo a decidere chi doveva morire e chi no.

Ti potrebbe interessare
Esteri / D’Alema: “Usa e Israele ci riportano alla barbarie. Tajani? Imbarazzante”
Esteri / Aragoste, bistecche, pianoforti e sticker di Frozen: così il Pentagono ha speso 93 miliardi di dollari in un mese
Esteri / Meloni: “Intervento Usa e Israele contro Iran fuori da diritto internazionale". Tehran: "Mojtaba Khamenei ferito ma salvo". Droni iraniani colpiscono l'aeroporto di Dubai
Ti potrebbe interessare
Esteri / D’Alema: “Usa e Israele ci riportano alla barbarie. Tajani? Imbarazzante”
Esteri / Aragoste, bistecche, pianoforti e sticker di Frozen: così il Pentagono ha speso 93 miliardi di dollari in un mese
Esteri / Meloni: “Intervento Usa e Israele contro Iran fuori da diritto internazionale". Tehran: "Mojtaba Khamenei ferito ma salvo". Droni iraniani colpiscono l'aeroporto di Dubai
Esteri / Accordo tra il Pentagono e OpenAI: una manager dell’azienda si dimette per questioni etiche
Esteri / Nuovo attacco di Tehran agli Emirati. La Turchia dispiega i Patriot nella base Nato di Malatya
Esteri / Trump: “La guerra finirà molto presto. Se l’Iran ferma il petrolio la colpiremo 20 volte più forte”
Esteri / New York, due bombe fuori dalla casa del sindaco Mamdani: arrestati due militanti pro-Isis
Esteri / L’Ayatollah nell’ombra: chi è Mojtaba Khamenei, la nuova Guida suprema della Rivoluzione islamica in Iran
Esteri / Oltre 30 feriti in Bahrein per un drone iraniano: gravi bambini e un neonato. Esplosioni a Doha
Esteri / “La nostra odissea per tornare a casa, passando per Riad e la Croazia”: il racconto di alcuni italiani che vivono in Qatar