O aplicație de traducere a unei semne de limbă va deveni o realitate?

O aplicație de traducere a unei semne de limbă va deveni o realitate? / Future Tech

Imaginați-vă o lume în care au dispărut barierele între surzi și audiere. O lume în care conversațiile curg fluent între cei care auzi sunetul și pe cei care nu au. Ar putea ca lumea să devină reală în viitorul apropiat?

În iunie, un grup de studenți de la Berghs School of Communication a dezvoltat un videoclip conceptual pentru un produs fictiv numit Google Gesture. Produsul a inclus o bandă pentru încheietura mâinii și o aplicație mobilă care folosea electromiografia pentru a citi mișcările musculare ale unui surd care face limbajul semnelor. Apoi, sistemul a transmis aceste semnale aplicației, care a tradus aceste semnale într-o voce digitizată și ar vorbi despre persoana respectivă.

Vizionarea videoclipului de marketing fals a fost destul de interesant. Atât de interesant este faptul că site-urile importante din domeniul tehnologiei, cum ar fi Mashable, Slashgear și alții, au anunțat inițial produsul ca fiind real, iar ulterior au trebuit să renumeze reclamația și să-și ceară scuze pentru greșeala lor. A fost o eroare ciudată, având în vedere că există cu adevărat este un produs Google numit Google Gesture Search [Nu mai este disponibilă], care vă permite să desenați gesturi pe ecranul mobil pentru a căuta contacte, marcaje și multe altele.

Indiferent, conceptul studenților de la Bergh a prezentat o idee remarcabilă, care a dus la întrebarea - ar putea fi posibil să se creeze o astfel de aplicație reală?

Este posibilă traducerea limbajului semnelor?

Disecarea conceptului de marketing la nivel tehnic relevă faptul că tehnologia care utilizează electromiografia (EMG) la “sens” limbajul semnelor nu este deloc atins. Încă din 2009, cercetătorii de la Universitatea din Washington au reușit să utilizeze mai mulți senzori EMG pentru a decoda mișcările musculare și pentru a le transforma în gesturi actuale de braț și mână.

Cercetătorii au construit de fapt un studiu complet “gestură bibliotecă de recunoaștere”, identificarea semnalelor musculare care reprezintă gestul. Cercetarea demonstrează că acest tip de tehnologie este disponibilă și gata să fie implementată în felul de aplicații pe care studenții Berghs i-au imaginat.

Deci, cineva a realizat acest lucru încă? Dacă nu, de ce nu face nimeni și de a oferi surzilor și persoanelor cu deficiențe de auz posibilitatea de a comunica cu oricine din lume prin limbajul semnelor?

Viitorul tehnologiei de traducere în timp real

Adevărul este că cineva lucrează, de fapt, la o astfel de tehnologie de translație a limbajului semnelor în timp real.

Există o companie numită SpeechTrans, care a impins limitele tehnologiilor de traducere 3 Instrumente de traducere cele mai bune bazate pe Google Traducere 3 Cele mai bune instrumente de traducere bazate pe Google Translate Citiți mai multe în ultimii ani. SpeechTrans colaborează cu partenerii tehnologici pentru a produce unele dintre cele mai remarcabile servicii de traducere în timp real pe piață în prezent. Acestea sunt servicii care traduc text chat-ul la chat-ul de tip text, voce la text, și chiar și în timp real, voce-la-voce traducere de limbă, prin intermediul telefonului mobil și aplicații desktop.

Pentru a explora dacă o tehnologie de limbaj semnal ar putea deveni o realitate în viitorul apropiat, MakeUseOf sa așezat împreună cu directorul executiv al SpeechTrans, John Frei și COO Yan Auerbach, pentru a discuta despre această tehnologie de traducere nouă. Înțelegerea oricărei limbi cu aceste 5 site- 5 Site-uri de traducere a limbilor străine Tehnologia a făcut din lume un loc mai mic. Oamenii din fiecare parte a acestei planete folosesc multe din aceleași instrumente, vizitează unele din aceleași site-uri web și se amestecă în diferite camere de chat online. Citește mai mult și cât de departe ar putea fi în viitor.

Dezvoltarea unei aplicații de traducere a unei limbaj semnelor

Muo: Este posibil să facem un fel de limbaj semnelor pentru traducerea discursului pe care elevii Berghs l-au prezentat în acest concept video de concept Google Gesture?

Ioan: Aș spune că tehnologia este disponibilă pentru a dezvolta acest lucru. În prezent, colaborăm cu Microsoft și Intel pentru a explora unele dintre tehnologiile pe care le produc, în ceea ce privește hardware-ul și software-ul. Vă imaginăm capacitatea de a utiliza tehnologia respectivă pentru a recunoaște limbajul semnelor și apoi a le converti în ieșire de vorbire și audio.

Muo: Lucrezi activ la dezvoltarea acestei tehnologii chiar acum?

Yan: A fost un client care folosea software-ul nostru și a crezut că ar fi minunat dacă l-am putea modifica astfel încât persoanele care au probleme cu auzul să o folosească pentru a face apeluri telefonice de la aplicația noastră, pentru a comunica fără a fi nevoie de semn în cazul în care sunt în persoană sau fără a avea nevoie de un serviciu de tip TTY pentru apeluri telefonice. Am dezvoltat acest produs și, cu finanțare de la Microsoft și Intel, am lansat SpeechTrans pentru persoanele cu deficiențe de auz pe Windows 8.1, care elimină nevoia de limbaj mimico-gestual.

Muo: Cum se face “în persoană” munca în aplicații?

Yan: Există un mod de ascultare și există un mod de intrare. Deci, atunci când cineva vă vorbește, vă puneți pe modul de ascultare și descrie tot ce spun ei pe ecran în text. Apoi, când răspundeți înapoi, tastați-l și apoi vorbi cu voce tare ce introduceți. Cu telefonul, apelați numărul de telefon al unei persoane, iar atunci când răspunde la telefon, acesta devine un mesaj instant. Indiferent ce vor vorbi, vei primi ca IM. Apoi, tot ceea ce tastați este vorbit cu voce tare prin telefon. Aceasta este prima fază.

Lângă Traducerea limbajului semnelor viitoare

Muo: Ce tehnologii se pot aștepta să vadă în viitorul apropiat? Care este următoarea fază?

Ioan: Noi înțelegem - pentru cineva care are capacitatea de a folosi limbajul semnelor - să facă acest lucru în fața unui dispozitiv, cum ar fi un telefon, un PC sau un laptop. Intel are un nou sistem de camere, iar Microsoft are la fel de bine cu Kinect, care recunoaște gesturi.

Muo: Cum este acest lucru mai bun decât conceptul de bandă de braț propus de studenții lui Berghs?

Yan: Practic, a noastră va funcționa într-un mod în care nu este nevoie să vă puneți ceva pe braț. Va recunoaște 64 de puncte pe mâna ta. Folosim versiunea beta a aparatului RealSense de la Intel. Astfel, nu numai că vom putea recunoaște toate limbajul semnelor și mai multe dialecte diferite ale limbajului semnelor, dar vom putea, de asemenea, să recunoaștem emoții, expresii faciale și alte nuanțe mici și apoi să le convertim și în cuvintele vorbite.

Asta nu va cere să purtați mănuși sau altceva. Ne concentrăm asupra acestei piețe în mod special pentru că ne place să îi ajutăm pe oameni în general. Nu vrem doar să îi ajutăm pe cei care doresc să vorbească în multe limbi diferite, dar și pe cei care nu pot vorbi în nici o limbă. Tehnologia există și nu există nici un motiv ca calitatea vieții lor să nu fie diferită decât a noastră.

Ioan: Este un concept fezabil. Este doar o intrare și o ieșire diferită. Unele dintre conversațiile pe care le-am avut cu Microsoft despre unele dintre tehnologiile viitoare este locul în care cineva ar putea să implanteze de fapt un microcip în gât și le citește în mod direct modelele de undă cerebrală. Deci, dacă îi ajutați pe cei care nu pot comunica, am vedea ceva de genul asta ca o implementare în faza a treia.

Anul trecut, a existat un grup de studenți care au ieșit cu un prototip de lucru al unei mănuși care era conectată la un computer. Gesturile pe care le-ați făcut cu mănușa ar fi apoi recunoscute și convertite în limbajul semnelor. Deci ei au deja capacitatea cu tehnologia actuală.

Viziunea noastră este că nu vrem să creăm accesorii cum ar fi benzile pe care trebuie să le îmbrățișezi. Ar trebui să fie doar natural și liber care curge pentru ei [oamenii care fac limbajul semnelor] să o facă în fața camerei lor video. 90% din ceea ce spun oamenii în comunicare este de fapt în limbajul lor corporal. Fiind capabil să acceseze recunoașterea facială, gesturile și emoțiile, vom putea să folosim și aceste date pentru a ne asigura că traducerea și ceea ce încearcă să transmită sunt exprimate în forma corectă.

Muo: Intel este în intervalul de 5 ani de a avea această tehnologie de recunoaștere a limbajului semnelor?

Ioan: Intel are cu siguranță o mulțime de resurse disponibile. Tehnologia și software-ul lor se apropie într-un ritm în care putem face acest lucru să se întâmple destul de repede.

Muo: Aveți un interval de timp când sperați să obțineți această tehnologie pe piață?

Ioan: Pentru limbajul semnelor, este vorba despre 12-18 luni.

Muo: Altcineva acolo are altceva în felul acesta pentru traducerea limbajului semnelor?

Ioan: Am văzut un videoclip YouTube de la IBM care făcea un prototip în care cineva făcea limbajul semnelor, dar era o dovadă a conceptului și avea doar trei sau patru cuvinte pe care le-a recunoscut. Avem peste cinci sute de mii de cuvinte pe care intenționăm să le lansăm, așa că o să o ducă la un alt nivel.

Concluzie

În timp ce viziunea pe care elevii de la Berghs a visat-o nu ar putea deveni aplicația de traducere a limbajului semnelor viitorului, asta nu înseamnă că un astfel de concept nu se va întâmpla. Ceea ce a făcut munca făcută la SpeechTran, Intel și Microsoft este că traducerea limbajului semnelor este aproape sigur să devină o tehnologie reală în doar câțiva ani. Cel mai probabil nu va implica benzi greoaie, dar în schimb nimic mai mult decât o cameră video specială și o aplicație mobilă.

Prin magia gestului și a recunoașterii faciale, această aplicație de traducere a limbajului semnelor viitorului promite să revoluționeze complet comunicațiile interpersonale pentru sute de mii de persoane cu deficiențe auditive Cele mai bune resurse pentru utilizatorii de dispozitive Mac și Apple Device cu dizabilități Citiți mai multe persoane sau persoane greu de auzit din întreaga lume.

Explorați mai multe despre: Tehnologia Bionic.