Leggi TPI direttamente dalla nostra app: facile, veloce e senza pubblicità
Installa
Menu
Home » Cultura

Qual è la morale dell’Intelligenza artificiale

Per la prima volta la tecnologia mette in discussione il nostro modo di pensare e di essere. Due intellettuali esperti della materia spiegano a TPI perché così rischiamo di perdere la capacità di interrogarci su ciò che è giusto. Abdicando alla responsabilità umana

Di Lara Tomasetta
Pubblicato il 10 Apr. 2026 alle 09:33

Non è la prima volta che una tecnologia promette di cambiare tutto. Ma è forse la prima volta che, nel farlo, mette così radicalmente in discussione il nostro modo di decidere, giudicare e assumere responsabilità. L’Intelligenza artificiale non si limita a trasformare il lavoro o la conoscenza: tocca il cuore della dimensione morale umana. 

Il dibattito contemporaneo sull’etica dell’IA è spesso dominato da regolamenti, standard e protocolli. Ma, come spiega A TPI Luciano Floridi – tra i più autorevoli filosofi contemporanei, professore in the Practice of Cognitive Science e founding director del Digital Ethics Center presso l’Università di Yale, nonché professore ordinario all’Università di Bologna, già a lungo docente a Oxford – il problema non è tanto che riflettiamo poco, quanto che riflettiamo male.

«Confondiamo le prestazioni dell’Intelligenza artificiale con le capacità umane e ne traiamo conclusioni sbagliate» afferma. 

Floridi usa un’immagine semplice e disarmante: «Una lavastoviglie lava i piatti meglio di me, ma non “sa” lavare». Allo stesso modo, anche i sistemi più sofisticati – persino quelli in grado di diagnosticare un tumore – non comprendono ciò che fanno. «Confondere prestazione e comprensione ci porta a delegare non solo compiti, ma responsabilità. E la responsabilità, a differenza del calcolo, non è delegabile». 

È qui che si apre il primo nodo morale: non la potenza dell’IA, ma l’uso che ne facciamo. L’efficienza, per esempio, è uno dei valori più celebrati. Ma diventa un problema etico quando smette di essere un mezzo e diventa un fine. «Se un algoritmo ottimizza i tempi di visita in ospedale, può essere utile», osserva Floridi. «Ma se ridefinisce che cosa conta come “buona visita medica” – la velocità anziché la cura – allora l’efficienza ha rimpiazzato il giudizio». Il pericolo, in altre parole, non è nella velocità della macchina, ma nella direzione dell’essere umano: «Il rischio non è un’auto veloce ma la persona che smette di chiedersi dove stia andando». 

Pigrizia e dipendenza
Uno degli aspetti più evidenti del rapporto tra esseri umani e Intelligenza artificiale è la crescente tendenza ad affidarsi a sistemi che non comprendiamo. È una forma di fiducia? O qualcosa di più simile alla fede? 

Floridi è netto: «Direi piuttosto comodità e pigrizia intellettuale». Non si tratta di fede, perché «la fiducia presuppone una relazione tra soggetti» e «la fede presuppone un orizzonte di senso».

Piuttosto, affidarsi all’IA «somiglia al prendere un farmaco senza leggere le istruzioni». Con una differenza decisiva: nel caso del farmaco, c’è un medico che si assume la responsabilità, mentre «quando chiediamo a un chatbot come curare un’insonnia, non c’è nessun medico dietro la risposta».

Questa dinamica, su larga scala, produce qualcosa di più pericoloso della semplice ignoranza: «La pigrizia, su scala sociale, produce dipendenza. E dalla dipendenza tecnologica è difficile tornare indietro». 

Un potere senza volto
L’Intelligenza artificiale sta diventando una forma di autorità? «Un’autorità senza autorevolezza», risponde Floridi. A differenza delle autorità tradizionali – medici, giudici, insegnanti – l’IA non risponde delle proprie decisioni e non può essere contestata. «Perciò somiglia più al potere che all’autorità: orienta le scelte senza renderne conto a nessuno». 

Il problema si aggrava quando le decisioni diventano opache. In teoria, chi usa un algoritmo è responsabile delle sue conseguenze. In pratica, «la catena si allunga fino a diventare invisibile». Il risultato è un vuoto etico, «dove tutti sono un po’ responsabili e nessuno lo è abbastanza». 

Gli algoritmi non fanno altro che riflettere – e amplificare – i nostri limiti: «L’Intelligenza artificiale non ha valori: riflette i nostri, compresi quelli che preferiremmo non vedere». 

La coscienza sotto delega
Il punto più profondo emerge quando il discorso si sposta dalla tecnica all’antropologia. Cosa accade alla coscienza umana se iniziamo a delegare all’IA anche le decisioni morali? 

«La coscienza è la capacità di interrogarsi su ciò che è giusto e di assumersene il peso», premette Floridi: delegarla significa perdere qualcosa di essenziale. «Non perdiamo efficienza nel decidere: perdiamo la capacità di essere soggetti morali». Il filosofo usa un’immagine radicale: «È come delegare a qualcun altro il compito di amare al posto nostro». 

Il punto, dunque, non è difendere una tradizione religiosa, ma riconoscere un dato umano fondamentale: «Ciò che ci rende pienamente umani non è la qualità delle nostre decisioni, è il fatto che siamo noi a prenderle». 

Se l’analisi di Luciano Floridi mette al centro la responsabilità e il rischio di un’abdicazione morale, il contributo di Wael Farouq – PhD e direttore dell’Arabic Cultural Institute di Milano – porta la riflessione su un terreno più antropologico, culturale e spirituale. L’Intelligenza artificiale, secondo Farouq, non sta semplicemente trasformando il mondo: sta cambiando il modo in cui definiamo noi stessi. «Il confronto con l’IA ci sta costringendo a riconsiderare cosa significa essere umani», dice.

Per lungo tempo abbiamo identificato l’umano con la razionalità, ma oggi questo criterio non basta più. Eppure, il paradosso è che l’Intelligenza artificiale «non sta riducendo l’idea di umano, ma la sta approfondendo». Ci costringe a riconoscere qualcosa che avevamo dimenticato: «L’uomo non è semplicemente un’intelligenza che calcola, ma un essere che vive, che sente, che esita, che dubita e che interpreta». 

Come Floridi, anche Farouq parte da un punto apparentemente condiviso: formalmente, l’IA è uno strumento. Ma aggiunge subito una condizione decisiva: «Finché l’essere umano mantiene il controllo interpretativo, l’Intelligenza artificiale resta uno strumento». Il problema nasce quando perdiamo «la nostra capacità semantica», cioè la capacità di dare significato alle informazioni. 

Riflette i nostri limiti
Farouq chiarisce un punto centrale del dibattito: «L’IA non possiede una morale nel senso umano del termine». Non ha coscienza, intenzionalità o responsabilità. «È più corretto dire che è amorale». Ma questo non significa che sia neutrale. Al contrario: «Ogni sistema algoritmico incorpora implicitamente una certa visione dell’essere umano e della società». 

Quando riduciamo le persone a dati, stiamo già facendo una scelta antropologica: «Quella di un essere prevedibile più che libero». Inoltre, i sistemi tendono a produrre risposte medie, accettabili: introducono «una sorta di etica della conformità». Non per decisione esplicita, ma per struttura. E, soprattutto, gli algoritmi ereditano il mondo da cui nascono: «Dentro l’algoritmo entrano anche le discriminazioni culturali e sociali». L’IA diventa così «una memoria implicita delle nostre ingiustizie». Il problema, conclude Farouq, non è la macchina, «ma ciò che noi proiettiamo dentro di essa». 

Le tradizioni religiose
Se Floridi invita a recuperare la responsabilità, Farouq mostra come le tradizioni religiose possano offrire categorie utili per farlo. 

In particolare, la tradizione islamica insiste su tre elementi: «Responsabilità, intenzione e limite». Tre parole che suonano quasi controcorrente rispetto alla cultura tecnologica dominante. «La responsabilità ricorda che nessuna decisione può essere completamente delegata». «L’intenzione ricorda che il valore di un’azione non dipende solo dal risultato». «Il limite ricorda che non tutto ciò che è possibile è anche giusto». 

Le tradizioni spirituali introducono anche una distinzione fondamentale: «Quella tra informazione e conoscenza». L’Intelligenza artificiale può moltiplicare la prima, ma non può sostituire la seconda, perché la conoscenza implica esperienza, interpretazione, interiorità. 

In un mondo dominato dalla velocità, aggiunge Farouq, queste tradizioni possono ricordare «il valore della lentezza, della riflessione e della profondità». 

Lingua e identità
Nel mondo arabo, l’IA è percepita con ambivalenza. Da un lato entusiasmo, dall’altro una preoccupazione più profonda «che la tecnologia finisca per impoverire il rapporto con il significato». 

Questa tensione è legata anche alla lingua. «La lingua non è soltanto uno strumento di comunicazione, ma un luogo di memoria e di civiltà», spiega Farouq. E proprio la lingua rappresenta una sfida per l’Intelligenza artificiale: «Nella lingua araba, una stessa parola può avere centinaia di significati». Una ricchezza semantica che sfugge alla logica standardizzante dei modelli linguistici. «Ci vuole una sensibilità umana per gestire questa immensa ricchezza». 

Spiritualità e comunità
L’IA entra in tensione con alcune dimensioni profonde delle società. Non perché sia incompatibile con la spiritualità, ma perché «la cultura algoritmica tende a ridurre l’essere umano a dati». Al contrario, la tradizione arabo-islamica vede l’uomo come «soggetto morale dotato di interiorità e responsabilità». Questa differenza emerge anche nella concezione della conoscenza, nel valore del qalb – il cuore – come forma di intelligenza, e nel rapporto con il tempo: la velocità digitale contro «la lentezza, la memoria, la trasmissione». 

C’è poi una dimensione sociale: «Un fortissimo senso della comunità e della famiglia». L’Intelligenza artificiale, con la sua tendenza alla virtualizzazione, rischia di indebolire questi legami. 

Tra fede, dogma e invisibilità
Farouq riconosce che parlare di IA come “fede” non è del tutto improprio: «assistiamo spesso a una fiducia quasi automatica nell’algoritmo». Una fiducia che nasce anche da una crisi più profonda: «La crisi della fiducia nell’uomo». In questo senso, l’IA può assumere una funzione dogmatica: «Non perché venga venerata, ma perché smette di essere interrogata». E qui emerge una differenza cruciale con la religione: «L’autorità religiosa resta umana e quindi più facilmente criticabile», mentre gli algoritmi sono «poteri invisibili, immateriali». 

Il rischio, allora, non è tanto una verità imposta, ma qualcosa di più sottile: «Che non ci sia più desiderio di esercitare la nostra libertà di cercarla». 

Sguardo al futuro
Il tema della responsabilità ritorna con forza anche nelle ultime riflessioni. «La responsabilità deve essere assolutamente umana», perché è «la colonna che regge la società». Senza responsabilità, avverte Farouq, una società può anche funzionare in modo efficiente, «ma non sarebbe più una società definibile come umana».

E forse la domanda più urgente – quella che stiamo evitando – riguarda proprio la direzione dello sviluppo tecnologico: «Il rapidissimo sviluppo dell’IA è alimentato dalla concorrenza fra industrie e poteri militari». Più che un problema culturale, dunque, è anche una questione politica: «Dovremmo parlare molto di più di questa nuova industria militare basata sull’IA». 

Se Floridi ci mette in guardia dall’abdicazione individuale, Farouq ci invita a non perdere il senso più profondo dell’umano. In mezzo, l’Intelligenza artificiale: non un destino inevitabile, ma uno spazio di scelta. E, forse, di responsabilità che non possiamo più permetterci di delegare.

Leggi l'articolo originale su TPI.it
Mostra tutto
Exit mobile version