Neurosciences et machine learning : Alexandre Gramfort à la conquête du cerveau

Date:
Mis à jour le 19/03/2020
Lauréat d’une bourse ERC Starting Grant 2015, pour son projet Signal processing and Learning Applied to Brain data (SLAB), Alexandre Gramfort est depuis le 1er avril 2017 membre de l’équipe-projet Parietal, équipe mixte avec le CEA-Saclay. Son projet vise à interpréter plus finement les signaux électrophysiologiques de cerveaux sains ou malades, pour mieux en appréhender le fonctionnement. Rencontre avec ce jeune chercheur, maître de conférences et diplômé de Télécom ParisTech.

Pouvez-vous nous raconter votre parcours ?

De 2001 à 2004, j’ai suivi une formation principalement en mathématiques appliquées au sein de l’École polytechnique avant de rejoindre Telecom ParisTech et l’ENS Cachan en 2005 pour y faire le Master MVA (Mathématiques, vision, apprentissage). J’ai ensuite commencé mon doctorat (Mapping, timing and tracking cortical activations with MEG and EEG: Methods and application to human vision) auprès de Maureen Clerc, chercheuse de l’équipe Odysée -dirigée par Olivier Faugeras -, alors localisée entre l’ENS ULM et le centre de recherche Inria de Sophia-Antipolis.

S’en sont suivies deux année de postdoctorat dans l’équipe Parietal à NeuroSpin [i] et au Martinos Center for Biomedical Imaging [ii] de l'université d’Harvard à Boston.

En 2012, de retour à Telecom ParisTech, j’ai été pendant cinq ans chercheur et maître de conférences dans le laboratoire traitement et communication de l’information (LTCI) commun avec le CNRS. J’ai pu y approfondir mes recherches en statistiques, optimisation, machine learning et neuro-imagerie fonctionnelle me permettant d’obtenir en 2015 une ERC Starting Grant .

Enfin, depuis le 1er avril 2017, je suis membre permanent de l’équipe-projet Parietal au sein du centre de recherche Inria Saclay – Île-de-France. 

Expliquez-nous en quoi consistent vos recherches ?

A. Gramfot
© Inria / Photo G. Scagnelli
© Inria / Photo G. Scagnelli

On peut résumer mes recherches en disant que je travaille pour améliorer les technologies d’analyse de données en neurosciences avec pour finalité de permettre une meilleure compréhension du cerveau, sain ou malade .

Mes travaux de recherche sont fondés sur l’imagerie fonctionnelle cérébrale, permettant une mesure de l’activité cérébrale au cours du temps, grâce à l’électrophysiologie. Avec les deux principales mesures que sont l’électroencéphalographie (ou EEG) et la magnétoencéphalographie (ou MEG), il s’agit de mesurer toutes les millisecondes l’activité électromagnétique produite par les neurones, une technique mille fois plus rapide qu’une IRM fonctionnelle qui prendra une photographie du cerveau toutes les deux secondes environ.

Ensuite, l’essentiel de mes recherches consiste à écrire des algorithmes, des modèles et des techniques d’inférence statistiques permettant de comprendre les données enregistrées pour les traiter de façon optimale  en déterminant, par exemple, l’origine du signal reçu, la manifestation de ce signal dans les données, la détection automatique des bruits enregistrés…

Pour ce qui est des domaines applicatifs, ces données servent principalement en neurosciences cliniques et cognitives  :

  • Les neurosciences cliniques vont pouvoir utiliser ces modalités d’imagerie pour comprendre la pathologie d’un patient, comme par exemple l’épilepsie, les troubles du sommeil ou encore l’autisme. 
  • Les neurosciences cognitives vont tenter de comprendre le fonctionnement du  cerveau pendant certaines tâches cognitives (vision, audition, langage, mémoire…) pour mieux en appréhender les mécanismes et ainsi essayer d’en traiter les dysfonctionnements.

Parlez-nous de votre bourse ERC : quel est l’objectif de votre projet ? Et que vous a permis ce financement ?

J’ai obtenu une bourse ERC Starting Grant en 2015 pour mon projet Signal processing and Learning Applied to Brain data (SLAB) dont l’objectif est d’interpréter de façon plus fine les signaux électrophysiologiques des cerveaux sains ou malades, pour mieux en appréhender le fonctionnement.

Le but de mes recherches est de faire de l’analyse de données EEG / MEG une technologique plus automatique, plus efficace et statistiquement plus puissante que ce qu’elle est actuellement. Aujourd’hui, les données de plusieurs centaines d’EEG / MEG commencent à être disponibles. Mais cela nécessite tellement d’énergie et d’expertise que l’analyse n’est souvent faite qu’une seule fois par des spécialistes.

Des problématiques complexes se posent donc en traitement du signal et en apprentissage statistique (machine learning). De plus, des outils algorithmiques spécifiques sont indispensables pour combiner les différentes mesures afin de recomposer de manière spatiale et temporelle une image en haute résolution du cerveau à l’échelle de la milliseconde.

Cette bourse ERC Starting Grant que j’ai obtenue me permet de travailler à cela avec une équipe. En effet, la subvention me permet le recrutement de six scientifiques (cinq doctorants ou postdocs et un ingénieur).

De plus, j’ai pu continuer le développement de MNE, un logiciel historiquement originaire d’Harvard, que j’ai transformé en librairie écrite en Python et dont j’anime la communauté internationale depuis 2011. L’idée était pour moi de reproduire la success story de développement collaboratif de Scikit-learn dans le monde de l’EEG et la MEG. Aujourd’hui, des contributions à ce logiciel viennent d’une dizaine de laboratoires dans le monde et il compte des centaines d’utilisateurs. De mon côté, je continue à contribuer à l’adoption de ce logiciel de façon très active en me déplaçant partout dans le monde afin de former des utilisateurs à l’analyse de données EEG / MEG avec MNE. En plus de mes articles, c’est ma façon d’avoir un impact direct sur cette communauté.

 

Inria a 50 ans cette année, comment envisagez-vous l’avenir de vos recherches ?

Je pense, comme beaucoup de monde, que nous sommes en ce moment à un point de rupture technologique sur le machine learning. La littérature scientifique évolue à une vitesse folle et tous les deux à trois mois on entend que des problèmes qui devaient être résolus dans vingt ans sont désormais considérés comme résolus. Toutefois, je pense que nous n’en sommes encore qu’aux prémices du machine learning et de l’exploitation des données dans le monde médical. Nous voyons déjà aujourd’hui des machines défier des experts médicaux sur certaines tâches de diagnostic et de détection de pathologies , mais cela reste encore très limité. J’imagine que dans 50 ans Inria aura joué un grand rôle dans ce qu’on appelle la médecine numérique, et notamment en ce qui concerne les maladies neurologiques qui affectent toujours plus ce monde.

En savoir plus