E se fosse un algoritmo a decidere chi deve morire? Ecco perché la nuova guerra dell’intelligenza artificiale è già iniziata
L’intelligenza artificiale è già in guerra: ma chi paga in caso di errore? Ecco perché l'uso militare dell’IA è una minaccia senza precedenti ai diritti umani
L’intelligenza artificiale è già in guerra. Secondo numerose ricostruzioni giornalistiche, infatti, nell’attacco che Israele e Stati Uniti hanno lanciato contro l’Iran sarebbe stato utilizzato il modello di A.I. Claude, sviluppato dall’azienda Anthropic, per simulare gli scenari che hanno poi portato ai bombardamenti su Tehran e analizzare i dati di intelligence. Il tutto avveniva mentre l’amministrazione statunitense classificava Anthropic come “fornitore non affidabile” in seguito al rifiuto dell’azienda di fornire i suoi sistemi al Pentagono per guidare armi autonome o addestrare programmi di sorveglianza dei cittadini. Una decisione che ha portato Washington a firmare un contratto con la società rivale, OpenAI, che ha acconsentito all’utilizzo dei suoi servizi per qualsiasi scopo legale con alcune generiche limitazioni.
Visualizza questo post su Instagram
L’intelligenza artificiale non si limita a facilitare e, di conseguenza, velocizzare la raccolta delle informazioni, riducendo i tempi di pianificazione di un attacco, ma suggerisce anche quali obiettivi colpire. Questo significa che operazioni, che prima richiedevano giorni se non settimane di pianificazione, ora possono essere portate a termine nel giro di poche ore. L’I.A., quindi, non è ancora automatizzata nel senso stretto del termine: in poche parole non può decidere in autonomia di lanciare missili o droni per attaccare un determinato bersaglio. Non ancora, almeno. Ma le informazioni fornite dall’algoritmo possono rivelarsi comunque sbagliate. David Leslie, professore di etica e tecnologia alla Queen Mary university di Londra, al Guardian spiega quale potrebbe essere il pericolo maggiore: ovvero che i responsabili militari possano affidarsi troppo ai dati delle macchine e, al tempo stesso, possano anche sentirsi meno coinvolti nelle conseguenze delle decisioni. Va da sé che la domanda viene quindi spontanea: se l’intelligenza artificiale commette un errore, chi paga per quell’errore?
Visualizza questo post su Instagram
A questa domanda prova risponde Mariarosaria Taddeo, docente di Digital Ethics and Defence Technologies all’Oxford Internet Institute, che a Repubblica afferma: “Le poche leggi dedicate all’IA, dall’AI Act europeo all’AI Basic Act sudcoreano, escludono esplicitamente la difesa dal proprio campo d’applicazione. Il diritto internazionale umanitario vale in linea di principio, ma la sua estensione ai sistemi autonomi richiede interpretazioni ancora tutte da sviluppare”. L’esperta, quindi, aggiunge che “l’uso militare dell’IA è una minaccia senza precedenti ai diritti umani”. Anche perché, come spiega al Corriere della Sera Dario Guarascio, docente di economia e politica dell’innovazione, gli strumenti informatici non forniscono più solo elementi di natura “descrittiva” ma entrano anche nel campo “predittivo” e “prescrittivo” dando “indicazioni dirette sulle azioni da compiere. Un cerchio nel quale l’uomo è escluso o, nella migliore delle ipotesi, marginalizzato”. Un esempio concreto è fornito dall’analista e giornalista Gianluca Di Feo, secondo cui, nella prima fase delle operazioni militari israeliane nella Striscia di Gaza, è stata fornita all’intelligenza artificiale una lista di 33mila nomi di presunti terroristi o fiancheggiatori di Hamas lasciando che fosse un algoritmo a decidere chi doveva morire e chi no.