le système d’IA utilise des schémas EEG et des scans cérébraux pour identifier le morceau de musique entendu.

le système d’IA utilise des schémas EEG et des scans cérébraux pour identifier le morceau de musique entendu.
le système d’IA utilise des schémas EEG et des scans cérébraux pour identifier le morceau de musique entendu.
--

Lecture musicale de l’esprit : uniquement à l’aide de scanners cérébraux et de données EEG, il est possible de décoder la musique qu’une personne testée écoute, comme le montre une expérience. Une intelligence artificielle correctement formée a identifié le bon morceau de musique sur la base de signaux neuronaux enregistrés de manière non invasive avec un taux de réussite de 71,8 %. Les résultats pourraient être une première étape sur la voie de la lecture non invasive de la parole à partir des ondes cérébrales.

La musique est profondément ancrée dans notre nature. Lorsque nous entendons des sons familiers, notre cerveau les identifie en quelques fractions de seconde. Les mesures des ondes cérébrales montrent que la musique peut déclencher un véritable feu d’artifice de signaux, accompagné d’émotions fortes et de chair de poule. Plusieurs équipes de recherche se sont déjà penchées sur ce que les ondes cérébrales peuvent révéler lors de l’écoute de musique, par exemple sur les émotions des sujets testés ou sur la musique elle-même.

Combinaison d’EEG et d’IRMf

Ian Daly, de la School of Computer Science and Electronic Engineering de l’Université d’Essex en Grande-Bretagne, vient de montrer que les ondes cérébrales peuvent être utilisées pour dire quelle musique une personne écoute. Par exemple, alors que les études précédentes pour lire la parole à partir de l’activité cérébrale utilisaient souvent des méthodes invasives telles que l’électrocorticographie (EKoG), pour laquelle des électrodes sont placées sur le crâne, Daly a utilisé des données de mesures d’électroencéphalographie non invasive (EEG). .

Pour augmenter la précision des prédictions, Daly a combiné les données EEG avec des mesures de l’imagerie par résonance magnétique fonctionnelle (IRMf), qui montrent le flux sanguin dans le cerveau et donnent ainsi un aperçu des régions cérébrales particulièrement actives lorsque vous écoutez de la musique sur un Une certaine personne. L’enquêteur a utilisé ces informations pour sélectionner avec précision les données EEG pour une analyse plus approfondie correspondant à ces zones.

Musique reconstruite à partir d’ondes cérébrales

Les données proviennent d’une étude précédente qui se concentrait à l’origine sur les émotions des auditeurs de musique. Les 18 sujets inclus dans l’analyse avaient écouté 36 courts morceaux de musique pour piano tandis que leur activité cérébrale était enregistrée à l’aide d’IRMf et d’EEG. Daly a ensuite formé un modèle d’apprentissage en profondeur pour décoder les schémas de l’EEG de manière à pouvoir reconstruire le morceau de musique respectif que le sujet de test avait entendu pendant la mesure.

Sonagramme du morceau de musique entendu par le sujet (ci-dessus) et la version reconstituée à partir des ondes cérébrales. © Daly et al. / Rapports scientifiques, CC-by 4.0

En effet, le modèle a pu reproduire partiellement le tempo, le rythme et l’amplitude de la musique. La similitude avec les morceaux de musique originaux était suffisamment élevée pour que l’algorithme puisse prédire lequel des 36 morceaux de musique la personne avait entendu avec un taux de réussite de 71,8 %.

différences individuelles

Pour valider les résultats, Daly a utilisé un échantillon indépendant de 19 autres sujets qui avaient également écouté les morceaux de musique correspondants. Étant donné que seules les données EEG et non IRMf étaient disponibles pour ces personnes, Daly a utilisé les informations du premier échantillon pour déterminer les données EEG pertinentes.

“Même en l’absence de données IRMf spécifiques à la personne, nous avons pu identifier la musique que nous écoutions uniquement à partir des données EEG”, rapporte Daly. Cependant, il note que l’emplacement des réactions cérébrales liées à la musique diffère d’une personne à l’autre. Par conséquent, si le modèle ne pouvait pas être équipé de données d’IRMf spécifiques à une personne, il était moins précis, n’atteignant qu’un taux de réussite de 59,2 %.

--

Objectif à long terme : reconnaître la parole

Daly voit son modèle comme un premier pas vers des objectifs plus ambitieux. “Cette méthode a de nombreuses applications potentielles”, dit-il. “Nous avons montré que nous pouvons décoder la musique, ce qui indique qu’un jour nous pourrons peut-être décoder la parole à partir du cerveau.” Des expériences ont montré que cela est déjà possible dans une certaine mesure. Cependant, jusqu’à présent, cela n’a fonctionné qu’avec des technologies invasives, telles que des électrodes dans le cerveau.

Pour les personnes atteintes du syndrome d’enfermement qui sont incapables de communiquer avec les autres en raison de la paralysie, cela pourrait ouvrir une porte sur le monde extérieur. “De toute évidence, il reste encore un long chemin à parcourir, mais nous espérons qu’un jour, si nous réussissons à déchiffrer le langage, nous pourrons l’utiliser pour créer des aides à la communication”, déclare Daly. (Rapports scientifiques, 2023, doi : 10.1038/s41598-022-27361-x)

Source : Université d’Essex

25 janvier 2023

– Elena Bernardo

Étiquettes : ondes cerveau révéler musique écouter système utiliser modèles EEG scans cerveau pour identifier pièce musical écouter

système dIA utilise des schémas EEG des scans cérébraux pour identifier morceau musique entendu

 
For Latest Updates Follow us on Google News
 

--

NEXT A Kinshasa, plus d’un million de fidèles pour la messe du Pape – .