Coronavirus:
positivi 93.187
deceduti 16.523
guariti 22.837

“Può un computer essere razzista?” Intervista a Luca Oneto, massimo giovane esperto di intelligenza artificiale in Italia

Di Elisa Serafini
Pubblicato il 19 Gen. 2020 alle 14:58
221
Immagine di copertina

“Può un computer essere razzista?” Intervista a Luca Oneto, massimo giovane esperto di intelligenza artificiale in Italia

Può un computer essere “razzista”? Sì, dipende da cosa gli insegni. Può far sorridere, ma i meccanismi che riguardano l’apprendimento delle macchine sono oggi al centro di un importante dibattito etico. Recentemente alcune importanti aziende tech sono state accusate di aver messo in atto meccanismi di discriminazione basate su genere ed etnia, associate alla selezione delle risorse umane avvenuta attraverso sistemi di intelligenza artificiale. Per comprendere opportunità e rischi del rapporto tra intelligenza artificiale ed etica, TPI ha intervistato Luca Oneto, 33 anni, professore universitario specializzato nei temi dell’intelligenza artificiale e del machine learning, vincitore del Premio dell’Associazione Italiana di Intelligenza Artificiale, la più importante in Italia.

C’è un modo semplice per descrivere l’AI (Artificial Intelligence)?

L’Intelligenza Artificiale si divide in due grosse famiglie: l’apprendimento automatico (machine learning) e la pianificazione e programmazione dei problemi (planning and scheduling). Nel caso dell’apprendimento automatico siamo di fronte a macchine che partendo da esempi, ossia dati, sono in grado di imparare da essi. Ad esempio ad una macchina puoi fornire tanti immagini di mela e di pera e la macchina, osservando, impara a riconoscere le mele dalle pere.  Nel secondo caso invece viene individuato e risolto un problema complesso dal punto di vista della pianificazione come ad esempio la turnazione del personale in un ospedale.

Quali sono i lati positivi dell’intelligenza artificiale?

Quello che si cerca di fare è dare risposta a problemi che l’uomo non riesce a risolvere. Pensiamo ad esempio alla diagnosi di malattie rare: attraverso un campione di un tessuto umano una macchina può diagnosticare una patologia rara con precisione. L’uomo non riuscirebbe a farlo perché i dati codificati su RNA o DNA sono troppo complessi per essere analizzati manualmente. La macchina è un oggetto stupido, ma molto veloce, ed è in grado di estrarre informazioni laddove l’uomo non riesce a farlo.

Qualcuno dice che l’Intelligenza artificiale “ruberà” il lavoro, come possiamo sfatare questo mito?

L’AI non è pensata per togliere lavoro o sostituire l’uomo, ma, piuttosto, per affiancarlo. L’uomo ha maggiori capacità (intelligenza) di una macchina, ma non può avere la stessa velocità. Per ora l’AI viene definita “specifica” perché in grado di risolvere specifici problemi. Al contrario, l’uomo possiede un’intelligenza “generale”, in grado di risolvere problemi più complessi.

Dove può essere applicata l’Intelligenza Artificiale?

Ovunque ci siano dati, sensori, fenomeni che sono monitorati con strumenti informatici. Dalle cartelle cliniche ad un social network fino alla processo di produzione dell’acciaio. In tutti questi casi l’AI può essere utile per automatizzare o semplificare i processi  e capire preventivamente o tempestivamente se ci sono anomalie nei sistemi.

Di recente hai ricevuto un finanziamento da Amazon per investigare i temi dell’AI “etica”. Di cosa si tratta?

Sto lavorando, insieme ad altri ricercatori, per costruire degli algoritmi “fair” (etici) che non discriminino in base a genere, etnia, inclinazione politica. Alcuni strumenti prodotti da tech company sono spesso discriminanti verso alcune categorie sociali storicamente discriminate. 

Ci puoi fare un esempio?

Prendiamo un’azienda informatica che ha, tra i dipendenti, il 5 per cento di donne e il 95 per cento di uomini. L’azienda vuole assumere personale, e invece che far guardare manualmente 10000 profili su Linkedin, commissiona un algoritmo per automatizzarne la selezione. In queste condizioni la macchina, essendo basata su algoritmi statistici, ci dirà: qui gli uomini sono il 95 per cento, l’azienda assume solo uomini, quindi devo escludere le donne dalla selezione a priori.

E qui come si interviene?

La macchina deve capire che deve selezionare persone che hanno un certo tipo di qualifiche, e non escluderle a priori in quanto donne. Lo stesso può accadere con le etnie. Bisogna creare strumenti matematici che forzino gli algoritmi a non considerare, ad esempio il sesso come variabile discriminante. Questo processo non è così semplice in quanto eliminare solamente l’informazione di genere non garantisce risultati in quanto l’AI può capire il genere anche  da altre informazioni (le pagine più visitate, gli interessi, etc.).

Come funziona la modellazione di algoritmi “etici”?

Esistono teorie matematico statistiche che possono dare garanzie in termini di fairness o etica, quindi di non discriminazione.

Rispetto a questi temi come si pongono la politica e il diritto?

C’è bisogno di capire quali possono essere le implicazioni dell’uso di queste tecnologie e dare risposte su questo. Le tecnologie hanno un impatto sulle persone, sulla loro vita, sulla loro privacy, sicurezza e su molto altro. Oggi non esistono regole capaci di gestire questa complessità, almeno in Italia anche se possiamo considerare il GDPR un primo passo in questa direzione.

Questo è un rischio o un’opportunità per voi scienziati di innovare?

Noi ricercatori sviluppiamo tecnologie pensate principalmente per fini benevoli, non per fare del male. Però ovviamente questi strumenti possono essere usati per entrambi i fini. Serve un dialogo tra società, politica e comunità scientifica per capire quali possano essere i problemi ed individuare le leggi più corrette al fine di gestire l’adozione di queste tecnologie.

Stiamo perdendo delle opportunità?

Se non costruiamo le leggi sì. Ad esempio nel campo della medicina oggi non possiamo usare le macchine per assegnare automaticamente cure o diagnosticare malattie, ma sappiamo che in certi contesti usare una macchina può aumentare la probabilità di curare un malato del 20-30 per cento. Lo stesso vale per il triage: un sistema di AI al Pronto Soccorso potrebbe salvare molte persone in più rispetto ad un uomo. Con le giuste leggi si potrebbero salvare delle vite.

Leggi anche:

TPI intervista Ilaria Capua: “La scienza ha bisogno di più donne al comando, conviene anche agli uomini”

Se l’addetto alla selezione del personale è l’algoritmo di una app

221
Accesso

Se non ricordi la tua password o in precedenza usavi un account social (Facebook, Google) per accedere, richiedi una nuova password.