Leggi TPI direttamente dalla nostra app: facile, veloce e senza pubblicità
Installa
Menu
Home » Cultura

Allarme artificiale: quanto ci costerà il futuro delle macchine intelligenti (di S. Mentana)

Credit: AP Photo

Scrivere testi. Creare immagini. E consolare gli utenti. I chatbot sono già parte delle nostre vite. Ma i rischi possono eguagliare le opportunità. E ci obbligano a ripensare il rapporto tra uomo e macchine

Di Stefano Mentana
Pubblicato il 10 Mar. 2023 alle 07:00

L’arrivo di una nuova tecnologia come l’intelligenza artificiale è qualcosa che rivoluziona le nostre vite da millenni. Con essa facciamo i conti, da essa traiamo benefici e, soprattutto nell’immediato, come in tutti i grandi cambiamenti, fa emergere anche aspetti problematici. Da professioni che cambiano profondamente o addirittura spariscono ad aspetti della nostra vita destinati a essere rivoluzionati, i cambiamenti sono molti. E non vanno sottovalutate anche tutte quelle novità di cui in un primo momento nemmeno ci accorgiamo ma che, sul medio e lungo periodo, rischiano di diventare un problema.

La diffusione dell’intelligenza artificiale e dei chatbot sta penetrando in molti aspetti delle nostre vite, portando con sé numerosi interrogativi che sarebbe bene porsi il prima possibile, per evitare di affrontarli solo una volta radicati definitivamente nelle nostre vite. Oggi strumenti del genere ci permettono di scrivere testi anche articolati, rispondere a interrogativi di qualsiasi genere, interagire con altri utenti in maniera automatica e creare immagini, e di compiere numerose altre azioni che possono influenzare la vita e il lavoro di tutti i giorni di tante persone. Ma questo può portare con sé aspetti problematici.

Il bisogno di regole
Se Elon Musk, che tra le altre cose è uno dei fondatori di OpenAI, ha definito l’intelligenza artificiale «uno dei più grandi rischi per il futuro della civiltà», vuol dire che è il caso di iniziare a porci alcuni interrogativi su cosa possa comportare tale tecnologia, e che forse sarebbe meglio porseli prima, e non accorgersene troppo tardi. La frase di Musk rende ulteriormente chiaro che le grandi società che gestiscono questi strumenti si metteranno all’opera per arginare o prevenire tali problemi, ma dobbiamo considerare che può sempre esserci qualche malintenzionato pronto a sfruttare a suo favore questi aspetti.

Dal canto suo, anche l’Unione europea sta provando ad affrontare la questione, e quest’anno è attesa l’approvazione del cosiddetto “AI Act”, un regolamento sull’intelligenza artificiale cui è al lavoro dal 2021 ma intorno al quale rimangono ancora punti irrisolti.

Se tale regolamento si appresta a porre limiti a questioni controverse come il riconoscimento facciale, il cosiddetto punteggio sociale o l’analisi delle emozioni, dobbiamo però chiarire che le questioni intorno all’intelligenza artificiale non sempre possono essere affrontate a livello normativo: talvolta sono di natura etica o rischiano di avere un impatto pratico sulle nostre vite.

Il rischio di ricorrere in modo abituale per qualsiasi testo o immagine all’intelligenza artificiale può intanto creare una forte riduzione della creatività umana con numerosi utenti che rischierebbero col tempo di cercare la soluzione più semplice delegando alla macchina questo tipo di lavori. Tuttavia, se un gruppo sempre più massiccio di persone dovesse rivolgersi a chatbot o altre forme di intelligenza artificiale per creare i propri contenuti, rischieremmo di trovarci in breve tempo inondati di testi, immagini e video molto simili tra di loro.

Tale problema potrebbe essere risolto aumentando il database da cui attinge l’intelligenza artificiale, ma questo apre un’ulteriore questione, perché quelle foto e quei testi cui si attinge potrebbero essere stati realizzati da qualcuno prima che l’intelligenza li elabori. E numerosi artisti ora temono non solo che la loro creatività umana venga accantonata in favore di quella artificiale, ma anche che quest’ultima attinga indiscriminatamente dalle loro opere: non è un caso che alcuni di loro si sono riuniti sotto le insegne dell’European Guild for Artificial Intelligence Regulation (Egair), un’organizzazione che promette battaglia su questo argomento.

Questione di potere
Ma come l’intelligenza artificiale può reinterpretare disegni e fotografie, può riprendere anche lo stile di persone specifiche. Basandosi su un database di testi e dichiarazioni, un chatbot può rispondere alle nostre domande usando lo stile di una celebrità o di un politico. O comportarsi semplicemente con i tratti caratteriali e gli atteggiamenti che desideriamo noi. L’intelligenza artificiale, infatti, è in grado di produrre comportamenti secondo i nostri desideri, portando qualsiasi utente a decidere di cercare supporto emotivo da un chatbot o di intraprendere con esso conversazioni di natura amichevole, sentimentale o erotica. Tuttavia, senza che dall’altra parte ci sia un umano in carne e ossa, con conseguenze imprevedibili nel nostro rapporto con gli umani, quelli veri.

Questo, inoltre, potrebbe anche essere utilizzato da malintenzionati come strumento per ottenere dagli utenti informazioni sensibili simulando comportamenti a loro familiari o che rispecchino i loro desideri, rendendo ancora più efficaci e sistematiche numerose truffe online già oggi ampiamente utilizzate. Soprattutto se sempre più persone decidessero di rivolgersi a forme di intelligenza artificiale per aprirsi in momenti di fragilità emotiva.

Ma se saremo pronti a rivolgerci a queste macchine per rendere più facile il nostro lavoro, per creare qualcosa, per cercare supporto o persino per simulare un rapporto umano che nella vita quotidiana non riusciamo ad avere, è giusto chiedersi a livello generale fino a che punto siamo pronti a fidarci di questi strumenti in un più ampio discorso sul rapporto tra uomo e macchina e cosa potrebbe significare affidarci così tanto a loro. Possiamo davvero conferire loro un potere tale da divenire più forti di noi?

Chiaramente, con la diffusione sempre maggiore di questi strumenti c’è da aspettarsi che i principali gestori di intelligenza artificiale provvederanno passo dopo passo a fronteggiare qualsiasi problema dovesse emergere, ma non dobbiamo sottovalutare l’uso che può farne un qualsiasi malintenzionato in grado di sfruttarne il potenziale.

Eppure, al fianco di tanti rischi, i fatti hanno mostrato come l’intelligenza artificiale abbia aiutato i medici a rilevare malattie nei pazienti, nel rendere più efficiente l’agricoltura evitando sprechi, nell’aiutare tante persone in operazioni complesse. Starà solo all’intelligenza umana fare in modo che quella artificiale riesca a essere uno strumento usato per fare del bene e migliorarci come società.

Leggi l'articolo originale su TPI.it
Mostra tutto
Exit mobile version