Fermez les yeux, laissez-vous guider par le son, et vous atteindrez votre « point d’arrivée » aussi simplement et précisément qu’en suivant les indications de votre application de navigation habituelle. C’est la prouesse permise par RunBlind, start-up initiée par deux chercheurs de l’École polytechnique (IP Paris).
L’aventure démarre il y a 7 ans, quand François Alouges, professeur au Centre de mathématiques appliquées (CMAP) de Polytechnique, s’interroge avec son équipe sur les applications du « son binaural », Ce dernier est à l’ouïe ce que les lunettes de vision 3D sont à la vue, c’est-à-dire qu’il permet de recréer virtuellement un son en 3D.
Sylvain Ferrand, ingénieur de recherche, avait entendu parler de sportifs non-voyants pratiquant le roller ou la course à pied avec un guidage sonore. L’athlète s’oriente grâce aux bruits des pas ou des rollers de son guide. A l’instar de ces sportifs, l’ingénieur et son équipe imaginent permettre à des personnes malvoyantes de trouver leur chemin en suivant un son. C’est ainsi que Sylvain Ferrand démarre une thèse sur les « Techniques de spatialisation binaurale pour le guidage de sportifs non-voyants ».
Le son binaural, définition
Signifiant « ayant trait aux deux oreilles », le son binaural est basé sur une méthode de captation du son adaptée à la morphologie de la tête humaine. Lorsque nous regardons un objet, chaque œil dispose d’un champ de vision qui lui est propre (notre œil droit voit la même image que notre œil gauche, mais décalée de quelques centimètres). De même, si un bruit est émis à droite de notre tête, notre oreille gauche l’entendra de façon légèrement décalée. Dans les deux cas, c’est notre cerveau qui se charge de restituer une image unique, ou un son unique. Il en va de même pour l’intensité. Avec un son fort, le cerveau réalisera que la source est proche. Avec un son plus faible et plus étouffé, il en déduira que la source est lointaine. Le cerveau décode aussi les différences de filtrage d’une oreille à l’autre, permettant de localiser la source sonore : devant, derrière, au-dessus ou au-dessous de soi.
Notre système auditif est conçu pour entendre particulièrement bien face à soi, dans la direction de notre regard. Mais comment restituer cette impression tridimensionnelle ? Grâce à la forme et au placement des micros. Installés de façon que leurs capsules soient espacées de 18 centimètres (la moyenne d’espacement entre les deux oreilles chez l’être humain), ils sont montés sur un support simulant la forme d’une tête. Ceci recrée précisément la différence de temps et d’intensité perçue entre nos deux oreilles.
L’équipe développe des algorithmes de traitement du signal pour reproduire ces caractéristiques et simuler des sources sonores virtuelles à partir de sons monophoniques : c’est la synthèse binaurale. Pour que le résultat soit parfait, le système d’écoute binaurale doit être relié à un head-tracker, un capteur qui permet de prendre en compte les mouvements de tête de l’utilisateur en temps réel. Ainsi, si l’utilisateur tourne la tête vers la droite, le violon qu’il entendait par exemple devant lui se retrouvera sur sa gauche. Il en va de même pour tous les sons, d’où qu’ils proviennent. Pour restituer cet effet sur un casque porté par l’auditeur, il faudra le son envoyé à chaque oreille selon l’orientation de la tête.
Il existe déjà de nombreuses technologies de restitution tridimensionnelle du son, mais elles nécessitent plusieurs enceintes réparties dans une pièce, comme le Dolby Atmos. A contrario, la diffusion du son 3D en binaural est compatible avec n’importe quel casque hi-fi ou écouteurs intra-auriculaires, voire même des lunettes connectées.
La spatialisation binaurale : quels intérêts ?
Petit rappel pour bien comprendre l’intérêt de cette technique : le son stéréo que l’on a l’habitude d’entendre, breveté dans les années 30, visait déjà à reconstituer la répartition dans l’espace des sources sonores. Pour cela, les enregistrements de deux micros sont diffusés par deux haut-parleurs ou deux écouteurs. En stéréo on peut ainsi, quand on écoute par exemple un orchestre symphonique depuis son canapé, distinguer le son du piano à gauche, de celui de la contrebasse, à droite.Mais le son binaural offre une immersion bien plus réaliste. L’auditeur a l’impression d’être présent en 3D sur les lieux de la prise de son.
Si pour un usage récréatif le résultat est déjà très appréciable, le son binaural peut être un outil de guidage performant s’il est couplé au système de suivi des mouvements de la tête (« head-tracking »). En effet, la source sonore indiquant la direction reste indépendante de l’orientation de la tête. Dans le cadre de sa thèse, Sylvain Ferrand a testé et mis au point, avec des déficients visuels, un premier prototype de guidage adaptatif, de type « fée clochette ». Une source sonore précède continuellement la personne pour lui indiquer le chemin à suivre.
Pour ce faire, il a fallu localiser précisément l’utilisateur dans l’espace et créer les sources virtuelles spatialisées en temps réel pour le guider. Pour être utilisé dans un contexte sportif, le dispositif doit être extrêmement réactif et léger. « Le premier prototype pesait 2,7 kilos. Maintenant on utilise directement des écouteurs standards de quelques grammes associés à un smartphone », explique S. Ferrand. En pratique, le dernier prototype permet à des personnes aveugles de pratiquer la marche sportive, la course à pied ou le roller en autonomie partielle, y compris dans un contexte de recherche de performance (pour l’amateur).
Un seul dispositif, diverses applications
Ce qui peut guider les malvoyants pourrait également aider toute personne cherchant à détacher son regard du smartphone tout en suivant une application de guidage. En 2019, les chercheurs du CMAP s’associaient pour développer une start-up dans le cadre de l’incubateur de Polytechnique, le Drahi‑X novation center. Ils sont alors rejoints par Philippe Le Borgne, entrepreneur depuis plus de vingt ans dans des sociétés informatiques et à impact social et environnemental. Il devient co-fondateur et président de RunBlind.
Le trio cherche désormais des fonds pour finaliser le projet, et proposer un kit-logiciel pouvant s’intégrer aux différentes applications de navigation, et être implémenté sur des casques et écouteurs déjà commercialisés pour le grand public (Apple, Sony, Google…). L’algorithme demande encore un travail de développement et d’optimisation. Mais demain, un utilisateur lambda pourrait partir à la découverte d’une ville, à pied le nez au vent, simplement guidé par le son de sa musique. « La déambulation en suivant un son est totalement intuitive, aucun apprentissage n’est nécessaire, et la précision est extrême, de l’ordre de quelques degrés », expliquent les co-fondateurs. Plus efficace et moins lassante que la voix de synthèse qui vous intime de tourner « légèrement » à droite.
Que ce soit en intérieur, pour se repérer dans un hôpital ou un musée, ou en extérieur, pour suivre des parcours touristiques ou sportifs, les applications de cette « fée clochette » du 21ème siècle paraissent illimitées.