« Une grande majorité des gens ne comprend pas la langue des signes. Ce qui signifie que beaucoup de conversations intéressantes n’auront jamais lieu. »

C’est de cette idée que trois étudiants d’une école de communication de Stockholm, en Suède, sont partis pour créer Google Gesture : un concept permettant de transformer le langage des signes en paroles. 

Comment ça marche ?

Le système utilise deux brassards placés sur chaque avant-bras qui vont analyser les courants électriques créés par l’activité musculaire et ainsi déterminer quel geste est effectué par la main pour ensuite le traduire en mots. Un principe basé sur une technologie baptisée électromyographie (quelques explications plus techniques de Wikipédia 😉 ).

google gesture thalmic labs - wnc-01

David Svedenström , August Östberg et Ludwig Hallstensson, les trois créateurs, ont produit un film explicatif qui a été diffusé lors des Future Lions 2014 à Cannes.

Malheureusement tout ceci est fictif. Ce n’est pour le moment qu’un concept.

google gesture thalmic labs - wnc-02

Pour aller plus loin

On peut déjà imaginer Google reprenant cette idée pour la développer à grande échelle. On voit déjà l’utilisation que l’on pourrait en faire : application, site interactif… L’aide apportée aux personnes muettes serait énorme.

Cependant, il existe déjà un système basé sur le même principe, censé sortir en septembre 2014, mais qui permettrait de contrôler ses appareils électroniques avec les gestes. Celui-ci est baptisé Myo est développé par la société Thalmic Labs.