Chaque jour, Anicet Mbida nous fait découvrir une innovation qui pourrait bien changer notre façon de consommer. Ce lundi, il s'intéresse à une intelligence artificielle pour aider les personnes en situation de handicap à mieux s’exprimer, en tout cas à mieux se faire comprendre.
C’est aujourd’hui que démarre la semaine européenne pour l’emploi des personnes handicapées. Anicet Mbida va donc nous parler d’innovations qui facilitent l’insertion professionnelle de ceux qui ont des difficultés à parler.
Des difficultés parce qu’elles sont sourdes ou qu’elles ont un problème au niveau de la mâchoire suite à un AVC ou une dégénérescence musculaire. Écoutez, par exemple, Aubrie Lee. Elle est responsable de la marque chez Google. Et elle est atteinte d’une myopathie qui bloque sa mâchoire.
Or quand on a du mal à parler, on a du mal à être compris. Donc à communiquer avec les autres. Google vient donc de présenter une application de reconnaissance vocale à laquelle on peut apprendre sa façon de parler quand on est en situation de handicap. Elle va ensuite retranscrire tout ce qu’on dit, de façon claire et intelligible pour ses collègues de travail, par exemple.
C’est une application qui est déjà disponible ?
Oui, en version préliminaire (version bêta). Malheureusement, elle ne fonctionne pour le moment qu’en anglais. Mais Google recherche actuellement des échantillons de voix dans toutes les langues pour développer son système de reconnaissance.
Ça s’appelle le projet Relate. Il permettra d’avoir des assistants personnels et des enceintes connectées un peu plus inclusives. Elles pourraient enfin comprendre tout le monde… même ceux qui parlent comme Aubrie.