Des prothèses auditives contrôlées par le cerveau pourraient réduire le bruit de la foule

Des prothèses auditives contrôlées par le cerveau pourraient réduire le bruit de la foule
4.1 (82.22%) 27 votes


Lors d’une fête bondée ou d’un restaurant bruyant, la plupart d’entre nous font quelque chose de remarquable. Parmi toutes les voix qui nous entourent, notre cerveau choisit celle que nous voulons entendre et se concentre sur ce que cette personne a à dire. Les malentendants ne sont pas aussi chanceux. Les situations bruyantes sont particulièrement difficiles pour eux et les prothèses auditives et les implants cochléaires n’aident pas beaucoup. En règle générale, une telle technologie amplifie toutes les voix ou les renforce ensemble afin qu’elles ne puissent pas être distinguées.

La question de savoir comment le cerveau gère l'astuce d'audition dans le bruit est connue sous le nom de «problème de cocktail.» C'est un casse-tête qui hante les scientifiques de l'audition depuis des décennies et limite les solutions qu'ils ont à offrir. Mais les chercheurs viennent de faire un grand pas en avant pour aider les gens à entendre dans le bruit. Dans un article publié le 15 mai dans Progrès de la science, des ingénieurs du Zuckerman Institute de l’Université de Columbia ont révélé une technologie expérimentale qui pourrait déboucher sur une aide auditive contrôlée par le cerveau. Leur système de validation utilise l’intelligence artificielle pour séparer les voix et les comparer aux ondes cérébrales d’un auditeur afin d’identifier et d’amplifier le locuteur sur lequel il porte la plus grande attention.

Nima Mesgarani du Zuckerman Institute de l’Université de Columbia, l’auteur principal du document, travaille sur des aspects du même problème depuis 2012, année où il a découvert qu’il était possible de déterminer sur quelle voix un auditeur se concentrait en surveillant les ondes cérébrales.

En 2017, il a développé une technologie capable de tirer la voix d'une voix multiple, mais seulement si le système était formé pour reconnaître ce locuteur particulier – une limite sévère dans la communication en situation réelle. Maintenant, Mesgarani et ses collègues ont réalisé un pas en avant important en utilisant des ondes cérébrales pour décoder ceux que vous écoutez, puis en séparant la voix de l'interlocuteur sans formation. "Supprimer cette barrière", a-t-il déclaré, "est une avancée assez importante."

«C’est un travail magnifique», déclare Barbara Shinn-Cunningham, neuroscientifique en auditrice, directrice du Neuroscience Institute de la Carnegie-Mellon University, qui n’a pas participé à la recherche. Andrew Oxenham, neuroscientifique auditif de l'Université du Minnesota, qui étudie le problème des cocktails depuis des années, déclare: «Cela rapproche tout le domaine d'une application pratique, mais il n'en est pas encore là."

Ce que Mesgarani et ses collègues ont créé est un algorithme, et ils ne l'ont testé que chez les patients épileptiques subissant une opération au cerveau. Ces patients offrent aux scientifiques une occasion rare de placer des électrodes directement dans le cerveau humain. À partir d'un haut-parleur devant les participants, Mesgarani et ses collègues ont joué deux voix (un homme et une femme) parlant simultanément. Ils ont demandé aux participants de se concentrer d'abord sur l'un puis sur l'autre. Les ingénieurs de Columbia ont incorporé le son des voix et les signaux électriques du cerveau des patients dans leur algorithme, qui triait les sons, amplifiait la voix surveillée et atténuait l’autre. «Ces deux entrées vont à l'intérieur de cette boîte, et ce qui en ressort est l'audio modifié dans lequel le haut-parleur cible est plus fort», dit Mesgarani.

Bien que l’utilisation des ondes cérébrales pour suivre l’attention auditive soit une réalisation impressionnante, la véritable avancée réside dans l’algorithme. Il utilise une forme sophistiquée d’intelligence artificielle appelée réseau d’attracteur profond pour séparer automatiquement et en temps réel des locuteurs inconnus. Ces modèles de réseaux de neurones, développés au cours des quatre dernières années, recherchent des régularités statistiques dans des couches de calcul de plus en plus complexes pour déterminer les parties d’un mélange de sons qui appartiennent à l’ensemble. «L'apprentissage en profondeur est la sauce secrète qui a rendu (cela) possible», dit Mesgarani.

Crédit: Institut Zuckerman de la Columbia University

Peu importe que les neuroscientifiques n’aient pas encore bien compris la façon dont le cerveau entend dans le bruit. «Nous n'essayons pas de simuler le cerveau», dit Mesgarani. «Nous essayons simplement de résoudre le problème des cocktails.» Ils ont entraîné l'algorithme avec beaucoup plus d'exemples de langage humain que n'importe qui aurait entendu dans une vie. Ensuite, ils lui ont confié la tâche d’analyser les informations détaillées, souvent superposées, contenues dans les spectrogrammes, ou signatures acoustiques, créées par la voix de plusieurs locuteurs et de les séparer en différents flux sonores. Représenté graphiquement, le document présente deux voix combinées sous la forme d'une nuée de points rouges et bleus. Une fois séparées, une voix est une grappe de points rouges, l’autre bleue. Il reste encore un élément de mystère dans la manière exacte dont l’algorithme le fait. «Notre hypothèse est qu'il utilise les informations spectrales et temporelles, les apparitions et les décalages courants (caractéristiques de la parole) et les structures harmoniques», explique Mesgarani. «Nous lui disons que ce nuage de rouge et de bleu devrait devenir séparable. Comme par magie, cette transformation se concrétise et soudain, vous avez deux nuages.

Crédit: Nima Mesgarani Institut Zuckerman de la Columbia University

Il reste encore beaucoup à faire avant que cette technologie puisse être utilisée dans un appareil auditif. Mesgarani estime qu'il faudra au moins cinq ans. Bien entendu, un dispositif commercialisable nécessite une technique non invasive pour générer des enregistrements EEG des ondes cérébrales. Plusieurs scientifiques, dont Mesgarani, ont montré que les prothèses auditives intra-auriculaires ou autour de l'oreille avec électrodes peuvent fonctionner, bien qu'elles génèrent un signal beaucoup moins précis. Et bien que puissant, l’algorithme n’a toujours pas été utilisé avec succès 100% du temps.

Selon toute vraisemblance, les premiers appareils à utiliser cette technologie aideront les personnes malentendantes. «Vous avez probablement besoin d'une audition résiduelle», dit Mesgarani. «Tant que vous pourrez suivre les hauts et les bas d’une (une) voix, c’est le genre de signature que cette technologie rechercherait.

L’algorithme de séparation des locuteurs à lui seul pourrait s’avérer utile sans surveillance des ondes cérébrales, explique l’ingénieur en électricité Mario Svirsky du centre médical Langone de l’Université de New York. «J'envisage une application pour smartphone qui communique avec votre aide auditive», déclare-t-il. “L'application vous montre des icônes pour différents locuteurs. Si vous cliquez sur une icône, le locuteur est préférentiellement amplifié et les autres atténués. ”

En ce qui concerne un véritable appareil auditif contrôlé par le cerveau, Svirsky craint que les coûts ne l'emportent sur les bénéfices et reste sceptique. Mais il reste enthousiasmé par le travail de Mesgarani. «L’idée même d’avoir une aide auditive capable de lire dans l’esprit est fascinante», déclare Svirsky. «Ce n’est pas que de la science fiction. Cette recherche a montré qu'il s'agit au moins d'une possibilité plausible. "

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *