Intelligence artificielle

Le projet Antidote ou l'IA explicable

Date:
Mis à jour le 19/01/2024
Le sujet de l'IA Explicable (Explainable AI) suscite actuellement beaucoup d’intérêt dans la communauté scientifique suite à l'utilisation massive des algorithmes d'apprentissage, machine et profond, dans les applications les plus variées. Néanmoins, les besoins de générer des explications compréhensibles par les humains restent un défi ouvert. Interview avec Elena Cabrio et Serena Villata, cocoordinatrices du projet Antidote.

Un projet européen

Cette problématique est particulièrement importante dans le cadre d'applications d'IA pour le diagnostic médical, pour lequel il est important de savoir comment l'algorithme a pris la décision.

Pour cette raison, nous avons décidé de répondre à l'appel CHIST-ERA avec un projet qui mettait en exergue nos compétences en argumentation en langage naturel en collaboration avec des médecins, en exploitant nos résultats dans l'analyse automatique de l'argumentation dans les résumés des essais cliniques sur PubMed avec notre outil ACTA.

Le projet Antidote est coordonné par l'équipe-projet Wimmics, en partenariat principalement avec des universités :

Antidote pour ArgumeNtaTIon-Driven explainable artificial intelligence fOr digiTal mEdicine 
et en français : Intelligence artificielle explicable basée sur l'argumentation, pour la santé.

Un partage de coordination et d'expérience

Au vu de notre collaboration continue sur différentes thématiques en IA et traitement automatique du langage naturel, le choix de cocoordonner ce projet est venu naturellement.

Cela nous permet d'adresser conjointement les problématiques et les défis que la coordination d'un projet de cette ampleur peut soulever.

Elena Cabrio et Serena Villata ont pu s'appuyer sur l'expérience d'Elena puisqu'il s'agit pour elle du deuxième projet CHIST-ERA auquel elle participe. En 2015-2018, elle était porteuse de projet (PI) pour l'équipe-projet Wimmics du projet ALOOF - Autonomous Learning of the Meaning of Objects - coordonné par l’université La Sapienza, en Italie.

L'IA dans le projet Antidote

Fournir des explications de haute qualité pour les prédictions de l'IA, basées sur l'apprentissage automatique, est une tâche difficile et complexe.

Pour être efficace, il faut, entre autres :

  • choisir un niveau adéquat de généralité/spécificité de l'explication ;
  • faire référence à des éléments spécifiques qui ont contribué à la décision de l'algorithme ;
  • utiliser des connaissances supplémentaires qui peuvent aider dans l'explication du processus de prédiction et sélection d'exemples appropriés.

Le but est que le système puisse formuler l'explication d'une manière clairement interprétable, voire convaincante.

Compte tenu de ces considérations, le projet Antidote favorise une vision intégrée de l'IA explicable (XAI), où les caractéristiques de bas niveau du processus d'apprentissage profond sont combinées avec des schémas de plus haut niveau propres à l'argumentation humaine.

Le projet Antidote se base sur trois considérations :

  1. dans les architectures neuronales, la corrélation entre les états internes du réseau (par exemple, les poids des nœuds individuels) et la justification du résultat de la classification faite par le réseau n'est pas bien étudiée ;
  2. les explications de haute qualité sont cruciales et elles doivent essentiellement se baser sur des mécanismes d'argumentation ;
  3. dans des situations réelles, l'explication est par nature un processus interactif impliquant un échange entre le système et l'utilisateur.

Une synergie avec les humains

Antidote développera une IA Explicable axée sur l'argumentation et dotée de "compétences d'intégration" révolutionnaires, capable de travailler en synergie avec les humains, en expliquant ses résultats de manière à ce que les humains puissent lui faire confiance, tout en bénéficiant de la capacité des IA à apprendre à partir de données.

Antidote engagera les utilisateurs dans des dialogues explicatifs, ce qui leur permettra d'argumenter avec l'IA en langage naturel. Le domaine d'application du projet Antidote vise à impacter surtout l’éducation en médecine, pour entraîner les étudiants à fournir des explications claires pour justifier leur diagnostic.

Vous souhaitez en savoir plus sur le projet Antidote ?