L’algorithme qui lit dans vos pensées

Des chercheurs en neu­ro­sciences de l’université de Wash­ing­ton, à Seat­tle (États-Unis) (le pro­fesseur Rajesh Rao, spé­cial­iste des inter­faces cerveau / machine, le neu­rochirurgien Jeff Oje­mann et leurs étu­di­ants) sont actuelle­ment en train de met­tre au point un détecteur de pen­sée. Cela va aus­si per­me­t­tre de mieux con­naitre le fonc­tion­nement du cerveau et donc de com­pren­dre les mécan­ismes de cer­taines maladies.

A l’hôpi­tal Har­borview, des implants placés au niveau des lobes frontal, par­ié­tal, tem­po­ral et du cor­tex occip­i­tal alliés à un logi­ciel per­me­t­traient de décoder les sig­naux émis par le cerveau et de savoir l’im­age qu’une per­son­ne regarde. L’al­go­rithme per­met un appren­tis­sage afin d’i­den­ti­fi­er l’im­age regardée.

Cette expéri­ence a été réal­isée sur 7 patients épilep­tiques afin de con­naître la source de la crise. Les chercheurs ont prof­ité de la semaine de tests pour réalis­er des tests com­plé­men­taires, c’est à dire de dif­fuser des images devant eux et d’en­reg­istr­er les répons­es du cerveau au fur et à mesure avec 400ms d’af­fichage d’im­age spé­ci­fique suiv­ie à chaque fois de 400ms de fond gris. Pour être sur que les indi­vidus regar­dent toutes les images dif­fu­sant assez rapi­de­ment, les chercheurs leur on demandé de recon­naître l’im­age d’une mai­son à l’envers.

journal.pcbi.1004660.g001

L’algorithme récolte deux sig­naux cérébraux à la vitesse de 1000 fois par sec­onde (le croise­ment de ces don­nées est néces­saire à la reconnaissance):

  • le poten­tiel évo­qué (mod­i­fi­ca­tion du poten­tiel élec­trique du sys­tème nerveux face à une stimulation)
  • les sig­naux per­sis­tant ensuite.

Le logi­ciel déter­mine ain­si les sig­naux répon­dant à une image. Suiv­ant le type d’im­age, mai­son, vis­age, .…  des zones dif­férentes des zones cor­ti­cales visuelles réagis­sent. Ces enreg­istrements ont per­mit d’en­traîn­er l’algorithme.
Quand les patients sont par la suite placés devant une nou­velle série d’im­ages, le pro­gramme recon­nait, en temps réel et dans 97% des cas, s’il s’ag­it d’une mai­son ou d’un visage.

Ce logi­ciel per­me­t­tra ain­si de mieux com­pren­dre cer­taines mal­adies affec­tant la mémoire ou les fonc­tions motri­ces et de per­me­t­tre la réé­d­u­ca­tion du cerveau ou encore de met­tre en place des mécan­ismes de com­mu­ni­ca­tion pour des patients paralysés.

Il devrait aus­si pou­voir servir à d’autres util­i­sa­tion comme la  manip­u­la­tion men­tale, mais ceci est une autre histoire.

Ce pro­gramme a été super­visé par Kai J. Miller, neu­rochirurgien,  pour les uni­ver­sités de Stan­ford en Cal­i­fornie et de Wash­ing­ton à Seat­tle, ain­si que pour la NASA.

sources:

http://journals.plos.org/ploscompbiol/article?id=10.1371/journal.pcbi.1004660

 

 

Laisser un commentaire

Fièrement propulsé par WordPress | Thème : Baskerville 2 par Anders Noren.

Retour en haut ↑

%d blogueurs aiment cette page :