Maison / Science / Les ingénieurs développent une nouvelle technologie d'intelligence artificielle permettant d'amplifier le bon locuteur d'un groupe. percée technologique pourrait mener à de meilleurs appareils auditifs

Les ingénieurs développent une nouvelle technologie d'intelligence artificielle permettant d'amplifier le bon locuteur d'un groupe. percée technologique pourrait mener à de meilleurs appareils auditifs

Suivre
( 0 Abonné(e)s )
X

Suivre

E-mail : *

Nos cerveaux ont un talent remarquable pour choisir des voix individuelles dans un environnement bruyant, comme un café bondé ou une rue animée de la ville. C’est quelque chose que même les appareils auditifs les plus perfectionnés ont du mal à faire. Mais maintenant, les ingénieurs de Columbia annoncent une technologie expérimentale qui imite l'aptitude naturelle du cerveau à détecter et à amplifier une voix parmi d'autres. Alimentée par l'intelligence artificielle, cette aide auditive contrôlée par le cerveau agit comme un filtre automatique, surveillant les ondes cérébrales des porteurs et renforçant la voix sur laquelle ils veulent se concentrer.

Bien qu'elle n'en soit encore qu'à ses débuts, cette technologie constitue une étape importante dans la mise au point de meilleurs appareils auditifs qui permettraient aux utilisateurs de converser avec leur entourage de manière transparente et efficace. Cette réalisation est décrite aujourd'hui dans Progrès de la science.

"La zone du cerveau qui traite le son est extrêmement sensible et puissante; elle peut amplifier une voix par rapport aux autres, apparemment sans effort, alors que les aides d'audience d'aujourd'hui sont encore très pâles en comparaison", a déclaré Nima Mesgarani, PhD, chercheuse principale de Mortimer B. Zuckerman, de Columbia. Brain Behavior Institute et l'auteur principal du document. "En créant un appareil qui exploite la puissance du cerveau lui-même, nous espérons que notre travail conduira à des améliorations technologiques qui permettront aux centaines de millions de personnes malentendantes du monde entier de communiquer aussi facilement que leurs amis et leur famille."

Les aides auditives modernes sont excellentes pour amplifier la parole tout en supprimant certains types de bruit de fond, tels que la circulation. Mais ils ont du mal à augmenter le volume d'une voix individuelle par rapport aux autres. Les scientifiques appellent cela le problème d'un cocktail, du nom de la cacophonie de voix qui se mélangent lors de soirées bruyantes.

"Dans les endroits bondés, comme les soirées, les appareils auditifs ont tendance à amplifier tous les locuteurs en même temps", a déclaré le Dr Mesgarani, également professeur agrégé de génie électrique à Columbia Engineering. "Cela nuit gravement à la capacité du porteur de converser efficacement, en l'isolant essentiellement de son entourage."

L'aide auditive contrôlée par le cerveau de l'équipe Columbia est différente. Au lieu de compter uniquement sur des amplificateurs de son externes, tels que des microphones, il surveille également les propres ondes cérébrales de l'auditeur.

"Auparavant, nous avions découvert que, lorsque deux personnes se parlent, les ondes cérébrales du locuteur commencent à ressembler à celles de l'auditeur", a déclaré le Dr Mesgarani.

À l'aide de ces connaissances, l'équipe a combiné de puissants algorithmes de séparation de parole à des réseaux de neurones, des modèles mathématiques complexes imitant les capacités de calcul naturelles du cerveau. Ils ont créé un système qui sépare d'abord les voix de chacun des orateurs d'un groupe, puis compare les voix de chaque orateur aux ondes cérébrales de la personne qui écoute. Le haut-parleur dont le modèle de voix correspond le mieux aux ondes cérébrales de l'auditeur est ensuite amplifié par rapport au reste.

Les chercheurs ont publié une version antérieure de ce système en 2017 qui, bien que prometteuse, comportait une limitation essentielle: il fallait le pré-former pour reconnaître des locuteurs spécifiques.

"Si vous êtes dans un restaurant avec votre famille, cet appareil reconnaît et décode ces voix pour vous", a expliqué le Dr Mesgarani. "Mais dès qu'une nouvelle personne, telle que le serveur, arrivera, le système échouera."

L'avance d'aujourd'hui résout en grande partie ce problème. Grâce au financement de Columbia Technology Ventures pour améliorer leur algorithme original, le Dr Mesgarani et les premiers auteurs Cong Han et James O'Sullivan, PhD, ont de nouveau exploité la puissance des réseaux de neurones profonds pour créer un modèle plus sophistiqué pouvant être généralisé à tout locuteur potentiel. que l'auditeur a rencontré.

"Notre résultat final a été un algorithme de séparation de la parole qui a fonctionné de la même manière que les versions précédentes mais avec une amélioration importante", a déclaré le Dr Mesgarani. "Il pourrait reconnaître et décoder une voix – n'importe quelle voix – dès le départ."

Pour tester l'efficacité de l'algorithme, les chercheurs ont collaboré avec Ashesh Dinesh Mehta, MD, PhD, neurochirurgien de l'Institut de neurologie et de neurochirurgie de Northwell Health et co-auteur du document d'aujourd'hui. Le Dr Mehta traite des patients atteints d'épilepsie, dont certains doivent subir des interventions chirurgicales régulières.

"Ces patients se sont portés volontaires pour écouter différents intervenants tout en surveillant leurs ondes cérébrales directement via des électrodes implantées dans le cerveau des patients", a déclaré le Dr Mesgarani. "Nous avons ensuite appliqué le nouvel algorithme développé à ces données."

L'algorithme de l'équipe a suivi l'attention des patients alors qu'ils écoutaient différents intervenants qu'ils n'avaient pas encore entendus. Lorsqu'un patient se concentrait sur un haut-parleur, le système amplifiait automatiquement cette voix. Lorsque leur attention s'est déplacée vers un autre haut-parleur, les niveaux de volume ont été modifiés pour refléter ce changement.

Encouragés par leurs résultats, les chercheurs étudient maintenant comment transformer ce prototype en un dispositif non invasif pouvant être placé à l'extérieur sur le cuir chevelu ou autour de l'oreille. Ils espèrent également améliorer et affiner l'algorithme afin qu'il puisse fonctionner dans un plus grand nombre d'environnements.

"Jusqu'à présent, nous ne l'avons testé que dans un environnement intérieur", a déclaré le Dr Mesgarani. "Mais nous voulons faire en sorte que cela fonctionne tout aussi bien dans une rue animée que dans un restaurant bruyant, de sorte que, quel que soit le lieu où ils se rendent, ils pourront faire pleinement l'expérience du monde et des gens qui les entourent."

Cet article s'intitule "Décodage de l'attention auditive indépendante du locuteur sans accès à des sources de parole claires". Yi Luo et Jose Herrero, Ph. D.

Cette recherche a été financée par les instituts nationaux de la santé (NIDCD-DC014279), l'institut national de la santé mentale (R21MH114166), les fiducies de bienfaisance Pew, le programme Pew Scholars en sciences biomédicales et Columbia Technology Ventures.

Source

A propos newstrotteur-fr

Découvrez également

Southwest annule les vols du Boeing 737 Max jusqu'au début novembre southwest cc0 pixabay 310x165

Southwest annule les vols du Boeing 737 Max jusqu'au début novembre

Suivre ( 0 Abonné(e)s ) X Suivre E-mail : * Suivre Ne plus suivre À …

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *