Intelligence artificielle

Mieux expliquer les algorithmes pour développer une IA de confiance

Date:
Mis à jour le 05/07/2021
L’intelligence artificielle (IA) qui ne cesse de se développer depuis plusieurs décennies s’invite de plus en plus dans notre quotidien en influençant toujours plus de décisions humaines. Si son efficacité s’avère incontestable dans un grand nombre de secteur, l’IA demeure mystérieuse, complexe et incomprise par la plupart des utilisateurs. Développer des solutions pour rendre l’IA plus accessible et compréhensible, c’est le défi du projet européen TRUST-AI.
Illustration d'un joueur d'échec
Jan Vašek from Pixabay

Intelligence artificielle et interprétabilité : un véritable enjeu

Les modèles d’intelligence artificielle, souvent qualifiés de "boîtes noires", sont connus pour leur efficacité et leurs résultats très pertinents. Cependant, le manque de transparence lié au mode de fonctionnement de ces modèles suscite aujourd’hui un vrai scepticisme chez les utilisateurs. L’interprétabilité des algorithmes suppose même un véritable enjeu éthique alors que l’intelligence artificielle influence de plus en plus de décisions dans notre vie quotidienne. Par exemple, lorsqu’elle influence une décision médicale, les professionnels de santé ainsi que les patients concernés doivent pouvoir comprendre le cheminement des algorithmes ayant influencé la décision. La notion d’interprétabilité devient alors cruciale pour créer une relation de confiance entre l’intelligence artificielle et l’utilisateur.

C’est dans ce contexte que le projet TRUST-AI a vu le jour, impliquant divers instituts de recherche et sociétés. Coordonné par Conçalo Figueira de l’Institut de sciences, de technologies et d’ingénierie informatique et des systèmes au Portugal, ce projet implique également des membres de l’équipe-projet Tau du centre Inria Saclay-Île-de-France. D’autres participants ont également pris part au projet, comme des membres du Conseil néerlandais de la recherche, de l’université de Tartu en Estonie et trois entreprises : APINTECH localisée à Chypre, LTPlabs au Portugal et Tazi en Turquie. Lancé officiellement en octobre 2020, ce projet, financé par le Conseil européen de l’innovation (EIC) dans le cadre du programme Horizon Europe, bénéficie d’un budget de quatre millions d’euros sur quatre ans.

L’intelligence humaine au cœur du processus

Pour contribuer à l’avancée d’une intelligence artificielle plus accessible et responsable, le projet TRUST-AI a pour objectif de développer une plate-forme d'intelligence artificielle, TRUST (Transparent Reliable and Unbiased Smart Tool), qui soit à la fois fiable et collaborative. Sa particularité ? Impliquer l'intelligence humaine dans le processus de découverte. « TRUST-AI vise à faire dialoguer les algorithmes d’apprentissage avec l’utilisateur pour orienter la création des modèles. Pour cela, nous allons introduire des facteurs humains le plus tôt possible dans la boucle d’apprentissage », explique Marc Schœnauer, directeur de recherche de l’équipe-projet Tau.

Dans le cadre de ce projet, les chercheurs ont opté pour une approche combinant plusieurs méthodes :

  • l’amélioration de l’interface utilisateur ;
  • les sciences cognitives ;
  • et la programmation génétique, l’un des thèmes de recherche de Marc Schoenauer.

Cette dernière, inspirée de la sélection naturelle, permet de retracer chacun des choix faits par l’algorithme. Cependant, elle se révèle moins efficace pour les méthodes d’apprentissage profond qui impliquent de grands ensembles de données. Combinées, les approches choisies par les chercheurs sont ainsi complémentaires : la programmation génétique pour l’explicabilité et les réseaux de neurones profonds pour la performance.

La plate-forme s'appuiera également sur les travaux antérieurs des chercheurs impliqués dans le projet, en lien avec l'apprentissage symbolique et les approches guidées par l'Homme. Par le passé, ces recherches ont permis la découverte de solutions explicables pour des problèmes universitaires et réels. « Désormais, l’objectif est de développer ces idées, en utilisant des modèles cognitifs, une meilleure interaction humaine et des algorithmes d'apprentissage améliorés, et de les explorer dans différents cas d'utilisation », précise Gonçalo Figueira.

Des solutions utiles et généralisables

Cette approche aboutira ainsi à des solutions d’intelligence artificielle plus compréhensibles et généralisables, notamment dans les situations où la responsabilité humaine est essentielle. En premier lieu, les solutions développées s’avèreront particulièrement utiles dans le cadre de diagnostics médicaux liés à l’intelligence artificielle où l’interprétabilité du processus est cruciale lorsque des algorithmes influencent, par exemple, le diagnostic de tumeurs rares et établissent le moment propice pour une intervention chirurgicale.

Dans un autre registre, les applications de ces solutions sont également envisageables pour la gestion de stocks de produits frais, en lien avec l’optimisation des livraisons et l’anticipation de retards éventuels. Enfin, dans le secteur de l’énergie, la prédiction des consommations énergétiques pour l’optimisation des centrales électriques aura un impact sur les consommateurs par la modélisation des prix. Dans ce cadre, les citoyens pourront alors légitimement exiger de savoir comment les tarifs qui leur sont appliqués ont été décidés.

Par la suite, les résultats du projet pourraient également trouver leur place dans d’autres secteurs très variés tels que la banque, les assurances ou encore l'administration publique.