Ricercatori in Corea del Sud hanno sviluppato un sistema indossabile che utilizza sette anelli intelligenti per leggere i movimenti delle dita e delle mani per tradurre in testo la lingua dei segni americana e la lingua dei segni internazionale. Lo scopo è rendere più semplice la comunicazione tra coloro che firmano e coloro che non firmano senza la necessità di un interprete umano separato.
Secondo lo studiopubblicato venerdì sulla rivista Science Advances, il sistema ha riconosciuto in modo affidabile 100 parole ASL e ISL durante i check. Ha funzionato bene anche con utenti che il sistema non aveva mai visto prima e non ha richiesto la ricalibrazione per ogni persona. Poiché il sistema rileva le parole in sequenza, può produrre traduzioni a livello di frase senza ulteriore formazione sulla grammatica.
ASL e ISL sono le lingue quotidiane di più di 72 milioni persone sorde e con problemi di udito. Tuttavia, la maggior parte delle persone udenti non conosce alcuna parola in queste lingue o ne ha una comprensione molto elementare. Questo divario rende alcuni compiti, come ordinare al ristorante o chiedere aiuto, molto più difficili.
Un concetto di come funzionano gli anelli nel mondo reale.
I prototipi esistenti di traduttori del linguaggio dei segni spesso si basano su guanti ingombranti che possono distrarre o bloccare il movimento naturale della mano o dare fastidio a chi li indossa, il che limita l’adattamento delle parole reali. Le tecnologie basate su telecamere possono funzionare bene in ambienti controllati, ma sono spesso limitate a quei luoghi in cui una telecamera può essere posizionata con una visuale libera, hanno scritto i ricercatori.
Per risolvere questi problemi, i ricercatori hanno progettato anelli di rilevamento per ciascun dito in grado di catturare il movimento e la posizione precisi delle dita lasciando che le mani si muovano in modo naturale. Gli anelli possono rilevare sia segni che implicano movimento, come le parole per “danza”, “volare” e “sole”, sia segni che vengono tenuti fermi, come “io” e “tu”.
“Questi progressi lo suggeriscono [the device could enable] sistemi di traduzione pubblica senza barriere per utenti invisibili e interfacce assistive quotidiane illimitate”, hanno scritto gli autori nello studio.
Gli autori sono affiliati, tra gli altri, alla Yonsei College, alla Hankuk College of International Research e al Korea Institute of Science and Know-how. Sebbene la tecnologia sia ancora sperimentale, gli autori hanno scritto che la tecnologia ha il potenziale per alleviare le difficoltà di comunicazione. L’thought di fondo potrebbe anche aiutare a migliorare i controlli per altri sistemi, come realtà virtuale o aumentata.
“Oltre alla traduzione del linguaggio dei segni, l’architettura advert anello, wi-fi e modulare dei traduttori del linguaggio dei segni advert anello, connessi in modalità wi-fi, può anche essere estesa advert altre applicazioni basate sui gesti come il controllo della realtà virtuale o aumentata, interfacce di dispositivi touchless o sistemi di monitoraggio della riabilitazione in cui il monitoraggio a grana advantageous del movimento della mano è essenziale,” hanno scritto.












