Annuncio pubblicitario

Immagina un mondo in cui le barriere tra i sordi e l'udito sono scomparse. Un mondo in cui le conversazioni scorrono fluide tra coloro che ascoltano il suono e quelli che non lo fanno. Quel mondo potrebbe diventare reale nel prossimo futuro?

A giugno, un gruppo di studenti di marketing della Berghs School of Communication ha sviluppato un video concettuale per un prodotto immaginario chiamato Google Gesture. Il prodotto includeva un cinturino da polso indossabile e un'app mobile che utilizzava l'elettromiografia per leggere i movimenti muscolari di una persona sorda che faceva il linguaggio dei segni. Il sistema ha quindi trasmesso quei segnali all'app, che li ha tradotti in una voce digitalizzata e parlava per la persona.

Guardare il falso video di marketing è stato piuttosto eccitante. Così eccitante, infatti, che i principali siti tecnologici come Mashable, Slashgear e altri hanno originariamente annunciato il prodotto come reale, quindi in seguito hanno dovuto raccontare il reclamo e scusarsi per il loro errore. È stato un errore strano, considerando che lì davvero

instagram viewer
è un prodotto Google chiamato Google Gesture Search [Non più disponibile], che consente di disegnare gesti sullo schermo del cellulare per cercare contatti, segnalibri e altro.

Indipendentemente da ciò, il concetto degli studenti di Berghs ha presentato un'idea straordinaria, portando alla domanda: potrebbe essere possibile creare una tale app per davvero?

È possibile tradurre la lingua dei segni?

Analizzare il concetto di marketing a livello tecnico rivela che la tecnologia che utilizza l'elettromiografia (EMG) per "percepire" il linguaggio dei segni non è affatto così inverosimile. Già nel 2009, ricercatori dell'Università di Washington sono stati in grado di utilizzare più sensori EMG per decodificare i movimenti muscolari e convertirli in gesti reali di braccia e mani.

I ricercatori hanno effettivamente costruito una "libreria di riconoscimento dei gesti" completa, identificando quali segnali muscolari rappresentavano quale gesto. La ricerca dimostra che questo tipo di tecnologia è disponibile e pronta per essere implementata nel tipo di applicazione immaginata dagli studenti Berghs.

Qualcuno lo ha ancora realizzato? In caso contrario, perché nessuno lo sta facendo e fornendo ai non udenti e ai non udenti la capacità di comunicare con chiunque nel mondo attraverso il linguaggio dei segni?

Il futuro della tecnologia di traduzione in tempo reale

La verità è che qualcuno sta effettivamente lavorando su tale tecnologia di traduzione in tempo reale della lingua dei segni.

sign-Lingua1

C'è una società chiamata SpeechTrans [Broken URL Removed], che ha spinto i limiti di tecnologie di traduzione Dimentica Google Translate: 3 modi per ottenere una traduzione accurata e rapidaSia che tu stia pianificando di candidarti per un lavoro o un appartamento all'estero o che tu stia cercando di tradurre la tua pagina web, devi fare le cose bene anche con una lingua straniera. Leggi di più in anni recenti. SpeechTrans lavora con partner tecnologici per produrre alcuni dei più straordinari servizi di traduzione in tempo reale sul mercato oggi. Si tratta di servizi che traducono chat di testo in chat di testo, da voce a testo e persino la traduzione della lingua da voce a voce in tempo reale tramite telefono cellulare e applicazioni desktop.

Per scoprire se una tecnologia del linguaggio dei segni potrebbe diventare una realtà nel prossimo futuro, MakeUseOf ha incontrato John Frei, CEO di SpeechTrans e COO Yan Auerbach, per discutere di questo nuovo rivoluzionario tecnologia di traduzione Comprendi qualsiasi lingua con questi siti Web di traduzione in 5 lingueLa tecnologia ha reso il mondo un posto più piccolo. Persone da ogni parte di questo pianeta usano molti degli stessi strumenti, visitano alcuni degli stessi siti Web e si mescolano in varie chat room online. Il... Leggi di più e quanto lontano potrebbe essere nel futuro.

Sviluppo di un'app per la traduzione della lingua dei segni

MUO: È possibile eseguire il tipo di traduzione dalla lingua dei segni alla lingua parlata dagli studenti Berghs in questo video di concetto di Gesto di Google?

John Frei - CEO di SpeechTrans

John: Direi che la tecnologia è disponibile per svilupparla. Attualmente stiamo lavorando con Microsoft e Intel per esplorare alcune delle tecnologie con cui stanno uscendo, in termini di hardware e software. Immaginiamo la capacità di usare quella tecnologia per riconoscere la lingua dei segni e poi convertirla in uscita vocale e audio.

MUO: Stai lavorando attivamente allo sviluppo di questa tecnologia in questo momento?

Yan: Quindi, c'era un cliente che stava usando il nostro software e ha pensato che sarebbe stato meraviglioso poterlo modificare in modo che le persone con problemi di udito possano usarlo per effettuare chiamate telefoniche dalla nostra app, per comunicare senza la necessità della lingua dei segni quando sono di persona o senza la necessità di un servizio di tipo TTY per telefono chiamate. Abbiamo sviluppato quel prodotto e, con il finanziamento di Microsoft e Intel, abbiamo lanciato SpeechTrans per non udenti su Windows 8.1, il che elimina la necessità di utilizzare la lingua dei segni.

MUO: Come funziona l'app "di persona"?

Yan: Esiste una modalità di ascolto e una modalità di input. Quindi, quando qualcuno ti parla, attivi la modalità di ascolto e questo digita tutto ciò che sta dicendo sullo schermo in testo. Quindi, quando rispondi, lo digiti e poi parla a voce alta quello che scrivi. Con il telefono, componi semplicemente il numero di telefono di qualsiasi persona e quando rispondono al telefono, diventa come un messaggio istantaneo. Qualunque cosa parlino, si ottiene come un messaggio istantaneo. Quindi, qualunque cosa digiti viene pronunciata ad alta voce attraverso il telefono. Questa è la prima fase.

Traduzione della lingua dei segni nel prossimo futuro

MUO: Quali tecnologie possono aspettarsi di vedere le persone nel prossimo futuro? Qual è la fase successiva?

John: Prevediamo - per qualcuno che ha solo la capacità di usare la lingua dei segni - di poterlo fare di fronte a un dispositivo come un telefono, un PC o un laptop. Intel ha un nuovo sistema di fotocamere e Microsoft fa altrettanto con Kinect, che fa il riconoscimento dei gesti.

MUO: In che modo è meglio del concetto di fascia da braccio proposto dagli studenti Berghs?

sign-language3

Yan: Fondamentalmente, il nostro funzionerà in un modo in cui non ti richiede di mettere qualcosa sul braccio. Riconoscerà 64 punti sulla tua mano. Stiamo utilizzando la versione beta della fotocamera Intel RealSense. Quindi non solo saremo in grado di riconoscere tutta la lingua dei segni e più dialetti diversi della lingua dei segni, ma lo faremo anche essere in grado di riconoscere le emozioni, le espressioni facciali e altre piccole sfumature e poi convertirle in parole pronunciate come bene.

Ciò non richiede di indossare guanti o altro. Ci stiamo concentrando su quel mercato in particolare perché ci piace solo aiutare le persone in generale. Non vogliamo solo aiutare le persone che vogliono parlare in molte lingue diverse, ma vogliamo anche aiutare le persone che non possono parlare in nessuna lingua. La tecnologia esiste e non vi è alcun motivo per cui la loro qualità di vita dovrebbe essere diversa dalla nostra.

John: È un concetto fattibile. Sono solo input e output diversi. Alcune delle conversazioni che abbiamo avuto con Microsoft su alcune delle tecnologie future sono dove qualcuno potrebbe effettivamente impiantare un microchip nel collo e legge direttamente le loro onde cerebrali modelli. Quindi, se stai aiutando le persone che non sono in grado di comunicare, vedremmo effettivamente qualcosa del genere come una distribuzione di fase tre.

L'anno scorso, un gruppo di studenti è uscito con un prototipo funzionante di un guanto collegato a un computer. I gesti che hai fatto con il guanto sarebbero quindi riconosciuti e convertiti in linguaggio dei segni. Quindi hanno già la capacità con la tecnologia attuale.

La nostra visione è che non vogliamo davvero creare accessori come le fasce da braccio che devi indossare. Dovrebbe essere un flusso naturale e libero per loro [persone che usano la lingua dei segni] per farlo davanti alla loro videocamera. Il 90% di ciò che le persone dicono nella comunicazione è in realtà nel loro linguaggio del corpo. Potendo accedere al riconoscimento facciale, ai gesti e alle emozioni, saremo in grado di utilizzare tali dati come bene assicurarsi che la traduzione e ciò che stanno cercando di comunicare siano espressi nel modo giusto modulo.

MUO: Intel rientra nella gamma di 5 anni con quella tecnologia di riconoscimento della lingua dei segni?

John: Intel ha sicuramente molte risorse disponibili. La loro tecnologia e il loro software stanno procedendo a un ritmo in cui possiamo farlo accadere abbastanza rapidamente.

MUO: Hai un lasso di tempo per quando speri di immettere questa tecnologia sul mercato?

John: Per la lingua dei segni, dura dai 12 ai 18 mesi.

MUO: Qualcun altro là fuori ha qualcos'altro come questo per la traduzione della lingua dei segni?

John: Ho visto un video YouTube di IBM che realizzava un prototipo in cui qualcuno stava facendo il linguaggio dei segni, ma era una prova del concetto e aveva solo tre o quattro parole che riconosceva. Abbiamo oltre cinquecentomila parole con le quali stiamo pianificando di implementarlo, quindi lo porteranno ad un altro livello.

Conclusione

Mentre la visione che gli studenti di Berghs hanno inventato potrebbe non diventare l'app di traduzione in lingua dei segni del futuro, ciò non significa che tale concetto non accadrà. Ciò che dimostra il lavoro svolto da SpeechTran, Intel e Microsoft è che la traduzione della lingua dei segni è quasi certa che diventerà una vera tecnologia nel giro di pochi anni. Molto probabilmente non coinvolgerà ingombranti braccialetti, ma invece nient'altro che una videocamera speciale e un'app mobile.

Attraverso la magia del gesto e il riconoscimento facciale, questa app di traduzione in lingua dei segni del futuro promette di rivoluzionare completamente le comunicazioni interpersonali per centinaia di migliaia di compromissione dell'udito 5 migliori risorse per utenti con disabilità di dispositivi Mac e Apple Leggi di più o persone con problemi di udito in tutto il mondo.

Ryan ha una laurea in ingegneria elettrica. Ha lavorato 13 anni in ingegneria dell'automazione, 5 anni in IT e ora è un ingegnere di app. Ex amministratore delegato di MakeUseOf, ha parlato a conferenze nazionali sulla visualizzazione dei dati ed è stato presentato su TV e radio nazionali.