Icona app
Leggi TPI direttamente dalla nostra app: facile, veloce e senza pubblicità
Installa
Banner abbonamento
Cerca
Ultimo aggiornamento ore 01:00
Immagine autore
Gambino
Immagine autore
Telese
Immagine autore
Mentana
Immagine autore
Revelli
Immagine autore
Stille
Immagine autore
Urbinati
Immagine autore
Dimassi
Immagine autore
Cavalli
Immagine autore
Antonellis
Immagine autore
Serafini
Immagine autore
Bocca
Immagine autore
Sabelli Fioretti
Immagine autore
Di Battista
Immagine autore
Guida Bardi
Home » Scienza

“Può un computer essere razzista?” Intervista a Luca Oneto, massimo giovane esperto di intelligenza artificiale in Italia

Immagine di copertina

“Può un computer essere razzista?” Intervista a Luca Oneto, massimo giovane esperto di intelligenza artificiale in Italia

Può un computer essere “razzista”? Sì, dipende da cosa gli insegni. Può far sorridere, ma i meccanismi che riguardano l’apprendimento delle macchine sono oggi al centro di un importante dibattito etico. Recentemente alcune importanti aziende tech sono state accusate di aver messo in atto meccanismi di discriminazione basate su genere ed etnia, associate alla selezione delle risorse umane avvenuta attraverso sistemi di intelligenza artificiale. Per comprendere opportunità e rischi del rapporto tra intelligenza artificiale ed etica, TPI ha intervistato Luca Oneto, 33 anni, professore universitario specializzato nei temi dell’intelligenza artificiale e del machine learning, vincitore del Premio dell’Associazione Italiana di Intelligenza Artificiale, la più importante in Italia.

C’è un modo semplice per descrivere l’AI (Artificial Intelligence)?

L’Intelligenza Artificiale si divide in due grosse famiglie: l’apprendimento automatico (machine learning) e la pianificazione e programmazione dei problemi (planning and scheduling). Nel caso dell’apprendimento automatico siamo di fronte a macchine che partendo da esempi, ossia dati, sono in grado di imparare da essi. Ad esempio ad una macchina puoi fornire tanti immagini di mela e di pera e la macchina, osservando, impara a riconoscere le mele dalle pere.  Nel secondo caso invece viene individuato e risolto un problema complesso dal punto di vista della pianificazione come ad esempio la turnazione del personale in un ospedale.

Quali sono i lati positivi dell’intelligenza artificiale?

Quello che si cerca di fare è dare risposta a problemi che l’uomo non riesce a risolvere. Pensiamo ad esempio alla diagnosi di malattie rare: attraverso un campione di un tessuto umano una macchina può diagnosticare una patologia rara con precisione. L’uomo non riuscirebbe a farlo perché i dati codificati su RNA o DNA sono troppo complessi per essere analizzati manualmente. La macchina è un oggetto stupido, ma molto veloce, ed è in grado di estrarre informazioni laddove l’uomo non riesce a farlo.

Qualcuno dice che l’Intelligenza artificiale “ruberà” il lavoro, come possiamo sfatare questo mito?

L’AI non è pensata per togliere lavoro o sostituire l’uomo, ma, piuttosto, per affiancarlo. L’uomo ha maggiori capacità (intelligenza) di una macchina, ma non può avere la stessa velocità. Per ora l’AI viene definita “specifica” perché in grado di risolvere specifici problemi. Al contrario, l’uomo possiede un’intelligenza “generale”, in grado di risolvere problemi più complessi.

Dove può essere applicata l’Intelligenza Artificiale?

Ovunque ci siano dati, sensori, fenomeni che sono monitorati con strumenti informatici. Dalle cartelle cliniche ad un social network fino alla processo di produzione dell’acciaio. In tutti questi casi l’AI può essere utile per automatizzare o semplificare i processi  e capire preventivamente o tempestivamente se ci sono anomalie nei sistemi.

Di recente hai ricevuto un finanziamento da Amazon per investigare i temi dell’AI “etica”. Di cosa si tratta?

Sto lavorando, insieme ad altri ricercatori, per costruire degli algoritmi “fair” (etici) che non discriminino in base a genere, etnia, inclinazione politica. Alcuni strumenti prodotti da tech company sono spesso discriminanti verso alcune categorie sociali storicamente discriminate. 

Ci puoi fare un esempio?

Prendiamo un’azienda informatica che ha, tra i dipendenti, il 5 per cento di donne e il 95 per cento di uomini. L’azienda vuole assumere personale, e invece che far guardare manualmente 10000 profili su Linkedin, commissiona un algoritmo per automatizzarne la selezione. In queste condizioni la macchina, essendo basata su algoritmi statistici, ci dirà: qui gli uomini sono il 95 per cento, l’azienda assume solo uomini, quindi devo escludere le donne dalla selezione a priori.

E qui come si interviene?

La macchina deve capire che deve selezionare persone che hanno un certo tipo di qualifiche, e non escluderle a priori in quanto donne. Lo stesso può accadere con le etnie. Bisogna creare strumenti matematici che forzino gli algoritmi a non considerare, ad esempio il sesso come variabile discriminante. Questo processo non è così semplice in quanto eliminare solamente l’informazione di genere non garantisce risultati in quanto l’AI può capire il genere anche  da altre informazioni (le pagine più visitate, gli interessi, etc.).

Come funziona la modellazione di algoritmi “etici”?

Esistono teorie matematico statistiche che possono dare garanzie in termini di fairness o etica, quindi di non discriminazione.

Rispetto a questi temi come si pongono la politica e il diritto?

C’è bisogno di capire quali possono essere le implicazioni dell’uso di queste tecnologie e dare risposte su questo. Le tecnologie hanno un impatto sulle persone, sulla loro vita, sulla loro privacy, sicurezza e su molto altro. Oggi non esistono regole capaci di gestire questa complessità, almeno in Italia anche se possiamo considerare il GDPR un primo passo in questa direzione.

Questo è un rischio o un’opportunità per voi scienziati di innovare?

Noi ricercatori sviluppiamo tecnologie pensate principalmente per fini benevoli, non per fare del male. Però ovviamente questi strumenti possono essere usati per entrambi i fini. Serve un dialogo tra società, politica e comunità scientifica per capire quali possano essere i problemi ed individuare le leggi più corrette al fine di gestire l’adozione di queste tecnologie.

Stiamo perdendo delle opportunità?

Se non costruiamo le leggi sì. Ad esempio nel campo della medicina oggi non possiamo usare le macchine per assegnare automaticamente cure o diagnosticare malattie, ma sappiamo che in certi contesti usare una macchina può aumentare la probabilità di curare un malato del 20-30 per cento. Lo stesso vale per il triage: un sistema di AI al Pronto Soccorso potrebbe salvare molte persone in più rispetto ad un uomo. Con le giuste leggi si potrebbero salvare delle vite.

Leggi anche:
TPI intervista Ilaria Capua: “La scienza ha bisogno di più donne al comando, conviene anche agli uomini”
Se l’addetto alla selezione del personale è l’algoritmo di una app
Ti potrebbe interessare
Scienza / Asteroide si dirige verso la Terra, passerà più vicino della Luna
Scienza / Come sopravvivere (in tre mosse) a un attacco atomico
Scienza / Benvenuti nell’apocalisse, il fisico Cotta-Ramusino spiega a TPI cosa accadrebbe in caso di catastrofe nucleare
Ti potrebbe interessare
Scienza / Asteroide si dirige verso la Terra, passerà più vicino della Luna
Scienza / Come sopravvivere (in tre mosse) a un attacco atomico
Scienza / Benvenuti nell’apocalisse, il fisico Cotta-Ramusino spiega a TPI cosa accadrebbe in caso di catastrofe nucleare
Esteri / Fusione nucleare, gli Stati Uniti vicini alla svolta: “Generata più energia di quanta ne è stata consumata”
Scienza / Luna Made in Italy: ecco come le aziende italiane partecipano al programma Artemis della Nasa
Scienza / Perché il terremoto nelle Marche non c’entra nulla con le trivellazioni per l’estrazione di gas
Scienza / Gobbo, con un cervello piccolo e mani ad artiglio: ecco come sarà l’uomo del 3000
Scienza / Eclissi lunare totale oggi 8 novembre 2022: quando e come vederla, orario, streaming
Scienza / Scoperto un enorme asteroide “killer” che si sta dirigendo verso la Terra
Scienza / Sanatoria per i no vax, Gimbe: “Amnistia anti-scientifica e diseducativa”