Leggi TPI direttamente dalla nostra app: facile, veloce e senza pubblicità
Installa
Menu
Home » Salute

Ascolta e impara. Le nuove frontiere delle protesi acustiche

Apparecchi in grado di auto-apprendere da soli e misurare parametri vitali

Di Redazione TPI
Pubblicato il 15 Giu. 2021 alle 13:30

Uno degli effetti più interessanti e meno noti di questa orribile pandemia che ha sconquassato ogni aspetto della vita quotidiana riguarda l’udito, o per meglio dire, la ipoacusia, ovvero la sordità. Un fenomeno che secondo l’OMS nel 2030 riguarderà qualcosa come 630 milioni di persone, sempre più giovani. Cosa c’entra il Covid con la sordità?

“La necessità di indossare sempre le mascherine in qualsiasi contesto sociale e spesso anche in famiglia ha acuito la percezione del problema – spiega Sandro Lombardi, Presidente di Anifa-Confindustria Dispositivi Medici (l’associazione che raggruppa tutti i produttori di apparecchi acustici) – perché tante persone che avevano difficoltà uditive ma che fino a un anno fa compensavano il problema grazie alla lettura del labiale altrui, semplicemente hanno perso uno strumento di comunicazione in più e si sono accorte che qualcosa in loro non andava”.

Ed ecco che tanti, soprattutto nella fascia d’età 50-60, si sono accorti di non ‘sentire’ e sempre di più si rivolgono agli specialisti. Ricordiamo che in Italia l’audioprotesista è una professione medica a tutti gli effetti e solo un professionista può disporre e preparare un apparecchio acustico.

L’industria del settore è in grande espansione. Non solo perché anche tra i giovani cresce costantemente il numero di ipoacustici a causa dell’uso smodato di smartphone e tablet (e conseguenti cuffie e cuffiette ad altissimo volume) ma anche perché le nuove frontiere della tecnologia promettono sviluppi interessanti.

“Partendo dal presupposto che si tratta di un dispositivo medico e che quindi mai potrà essere assimilato a un ‘auricolare per sentire meglio’ – precisa Lombardi – oggi assistiamo a un costante processo di miniaturizzazione che rende davvero l’apparecchio acustico praticamente invisibile dall’esterno. Ma non solo. Si stanno sviluppando modelli capaci di ‘imparare da soli’. Ovvero di poter distinguere tra le diverse origini dei suoni, calibrare autonomamente quelli di fondo e quelli più rilevanti, imparare a riconoscere le voci delle persone a noi più vicine. Non solo. Apparecchi che collegati a un cloud possono essere regolati a distanza. Apparecchi con sensori di movimento che regolano da soli i volumi a seconda dello scenario esterno e della postura del paziente. Strumenti che possono anche dare informazioni a distanza sui parametri vitali della persona, come per esempio pressione e battito cardiaco, e inviarli in tempo reale al medico curante. Insomma, siamo appena all’inizio di una rivoluzione totale in questo settore”.

Le ultime scoperte della ricerca sul cervello indicano che a quest’organo deve pervenire il numero maggiore possibile di informazioni sonore affinché possa lavorare (codificare) in maniera ottimale. Gli apparecchi acustici di nuova generazione ne tengono conto. Trasmettono integralmente tutta la gamma di suoni naturali al centro dell’udito del cervello e lo supportano nell’elaborazione. Per i portatori di apparecchi acustici si tratta di un passo rivoluzionario, perché questi ausili garantiscono un suono e una comprensione del parlato senza uguali.

Gli apparecchi acustici tradizionali si concentrano sulla direzione da cui proviene il parlato e ad attenuare tutti gli altri rumori o addirittura escluderli perdendo in questo modo tante informazioni importanti per sentire in modo naturale. I nuovi apparecchi tengono conto dell’intero ambiente sonoro e restituiscono i suoni naturali e chiari. L’utilizzatore riesce a capire bene il suo interlocutore standogli di fronte, ma coglie anche il panorama sonoro attorno a lui.

Gli ambienti sonori in cui ci muoviamo mutano continuamente, solitamente in modo imprevedibile. Il nostro cervello sa gestire questa complessità: capisce subito su quali suoni vogliamo concentrarci e quali invece preferiamo ignorare. Nell’elaborare i suoni, i nuovi apparecchi acustici imitano il cervello, applicando la tecnologia rivoluzionaria del DNN (Deep Neural Network), che significa “rete neurale profonda”. Questa tecnologia è stata addestrata con milioni di ambienti sonori tratti da tutti gli ambiti della vita quotidiana, su questa base riesce a riconoscere e interpretare qualsiasi tipo di suono. Il cervello riceve così tutte le informazioni acustiche che servono all’utilizzatore per accedere all’intero ambiente sonoro, dando al contempo la precedenza ai suoni per lui rilevanti. Ogni singolo suono risulta chiaro e dettagliato.

I numeri in Italia
Un problema dalle dimensioni planetarie, quindi, che colpisce pesantemente anche l’Italia, dove si stima che vi siano 7 milioni di persone con problemi all’udito, quindi l’11,7% della popolazione. Il gruppo più numeroso è quello degli anziani (oltre i 65 anni una persona su tre ne soffre), nei quali è importante una diagnosi tempestiva del problema, perché identificarlo il prima possibile consente d’intervenire in tempi brevi e in modo efficace, evitando così pericolose conseguenze.

Leggi l'articolo originale su TPI.it
Mostra tutto
Exit mobile version