Des chercheurs de l’université de technologie de Sydney ont mis au point un système d’orientation spatiale pour les aveugles basé sur la technologie du « toucher acoustique ». Ce système se présente sous la forme de lunettes et permet de comprendre ce qui se trouve devant une personne comme si elle le sentait, mais sans contact tactile. Par exemple, un bourdonnement distinctif peut indiquer un téléphone portable, tandis que le bruissement des feuilles peut indiquer une plante.
L’idée est dérivée du mécanisme naturel d’orientation des chauves-souris, l’écholocation. Toutefois, les chercheurs ont estimé à juste titre que la réception de tous les signaux acoustiques réfléchis par toutes les surfaces à proximité solliciterait trop le cerveau. Au lieu de cela, les lunettes intelligentes reconnaissent elles-mêmes les objets clés et communiquent à l’utilisateur des informations sur leur emplacement.
À l’heure actuelle, le concept qui prévaut est qu’il est plus important de redonner aux personnes aveugles la capacité d’interagir avec le monde, plutôt que la vision en soi. C’est pourquoi la technologie tactile acoustique est délibérément simplifiée afin d’accélérer sa mise en œuvre et la formation des utilisateurs. Pour l’instant, le dispositif expérimental ressemble à un casque de réalité augmentée modifié, à un téléphone et à une application basée sur le moteur de jeu Unity 2022. La caméra suit la position de la tête de l’utilisateur, détecte ce qu’il regarde et le lui « dit ».