Intelligence artificielle

Construire une IA digne de confiance en Europe

Date:
Mis à jour le 27/05/2024
Depuis que les experts de la Commission européenne ont publié des lignes directrices en matière d’éthique pour une IA digne de confiance en 2019, une importante documentation sur le sujet a été émise et partagée par tous les acteurs de ce domaine. Qu’en est-il, aujourd’hui, des initiatives européennes pour fédérer autour de ce sujet et quel est l’impact sur le monde de la recherche ? Tour d’horizon sur les dernières avancées.
IA de confiance
©taa22

 

Depuis quelques années, en France, de nombreux guides, recommandations et outils ont été publiés sur cette thématique comme par exemple le livre blanc[1] du programme Confiance.ai, le guide pratique pour des IA éthiques[2] de Numeum en 2021 et le livre blanc[3] du Hub France IA en 2023. L’ensemble des recommandations sont résumées dans la définition suivante des experts de la Commission Européenne : une intelligence artificielle (IA) ou système d’intelligence artificielle (SIA) digne de confiance doit être licite en accord avec la réglementation et européenne, éthique en accord avec des principes et valeurs moraux et robuste sur le plan technique et social. 

En mettant l’accent sur un socle de valeurs essentielles comme la sûreté, l’impact durable, l’autonomie, la responsabilité humaine, l’explicabilité, l’équité et le respect de la vie privée, ils offrent également de nombreuses préconisations pour l’industrialisation de l’IA ; comme la construction de composants IA à confiance maitrisée, la construction de données et/ou de connaissances pour augmenter la confiance dans l’apprentissage ou encore l’interaction générant de la confiance entre l’utilisateur et le système fondé sur l’IA.

IA de confiance : de la nécessité de valeurs communes

Si l’IA Act adopté en mars 2024, a posé le cadre légal en Europe, les lignes directrices ont défini, depuis 2018, sept exigences à respecter pour qu’un SIA soit considéré digne de confiance.

Ce socle de base concerne aussi bien des aspects systémiques, individuels que sociétaux et ce, pour le monde industriel et la société civile : 

  1. Action humaine et contrôle humain : respect des droits fondamentaux, action et contrôle humains.
  2. Robustesse technique et sécurité : résilience aux attaques et sécurité, plans de secours et sécurité générale, précision, fiabilité et reproductibilité.  
  3. Respect de la vie privée et gouvernance des données : respect de la vie privée, qualité et intégrité des données et accès aux données. 
  4. Transparence : traçabilité, explicabilité et communication. 
  5. Diversité, non-discrimination et équité : absence de biais discriminants ou injustes, accessibilité et conception universelle, participation des parties prenantes.
  6. Bien-être sociétal et environnemental : lien avec la durabilité et le respect de l’environnement, l’impact social, la société et la démocratie. 
  7. Responsabilité : auditabilité, réduction au minimum des incidences négatives et communication à leur sujet, arbitrages et recours.

Ces sept exigences non exhaustives sont également partagées par de grandes instances telle que l’Unesco qui a, pour sa part, ajouté une huitième exigence : le respect de la dignité humaine.

 

IA Confiance
© Inria_Photo S. Erôme-Signatures

Un sujet pluridisciplinaire de numérique avancé

« Lorsque l’on parle d’IA digne de confiance, il s’agit d’une part d’un sujet pluridisciplinaire, au croisement de l’humain, la société et la technique, et d’autre part, d’un sujet impliquant d’autres domaines de numérique avancé » explique Ikram Chraibi Kaadoud, Chargée de projet IA de confiance et management éthique au sein du Centre Inria de l’université de Bordeaux.

IA digne de confiance : un sujet pluridisciplinaire

Les lignes directrices présentées ci-dessus préconisent à la fois des méthodes techniques et non techniques afin d’élaborer des SIA dignes de confiance. La prise en compte de l’humain dans sa complexité cognitive en tant qu’utilisateur, ou la prise en compte des risques portés par l’usager du système, sont en effet des sujets de gestion de projet et non seulement des sujets techniques. 

Le compromis « performance – cout écologique » est également abordé en préconisant de prendre en compte la réalité écologique actuelle et d’œuvrer pour le bien commun plutôt que la performance individuelle d’une entreprise. Par exemple, en optant pour un algorithme IA qui va être moins performant (dans la limite de ce qui est acceptable pour le métier impliqué) et également moins gourmand en termes de puissance computationnelle, l’impact sera moins important pour la planète.

Un autre sujet d’envergure, en lien avec l’exigence de transparence, est le compromis performance-explicabilité (c’est-à-dire la capacité à comprendre les raisons d’un comportement d’un SIA). Les experts de la Commission Européenne préconisent de ne pas utiliser de l’IA si la transparence n’est pas possible ou compromise, car il sera plus complexe de comprendre si l’IA fonctionne pour les bonnes raisons (par exemple en se basant sur les bonnes caractéristiques) ou pourquoi elle ne fonctionne pas. « La préservation de l’humain, du citoyen et de la société reste alors la priorité à considérer » résume Ikram Chraibi Kaadoud.

La confiance en IA vue par l'humain

Frédéric Alexandre, directeur de recherche au Centre Inria de l’université de Bordeaux, responsable de l’équipe-projet Mnemosyne et son doctorant Baptiste Pesquet, explorent la possibilité de développer des IA capables intrinsèquement d'évaluer ces niveaux de confiance et de les utiliser dans leurs décisions. Pour cela, ils se basent sur des modèles cognitifs bio-inspirés et s’intéressent également aux capacités de métacognition, c'est-à-dire de faire travailler des procédures cognitives non pas sur la décision mais sur la sélection des règles de décision selon une estimation du niveau de confiance.

Au-delà de l'exploration fonctionnelle et de la modélisation des mécanismes impliqués dans ces différentes estimations du niveau de confiance, ces scientifiques souhaitent étudier l'utilisabilité concrète de telles approches dans des systèmes opérationnels de prise de décision pour rendre explicites les critères et les arguments justifiant la décision, allant ainsi vers l'explicabilité dans des systèmes d'assistance à la décision, pour guider des humains dans leur travail et taches.

Pour plus d’informations

IA digne de confiance : un sujet impliquant d’autres domaines de numérique avancé

« Lorsque l’on parle de ces thématiques, il y a un point qu’il faut déconstruire. C’est une idée préconçue qui dit que ‘’L’IA digne de confiance, c’est un sujet exclusivement lié à l’IA’’. C’est faux ! » poursuit Ikram Chraibi Kaadoud. En effet, parmi les exigences pour une IA digne de confiance, la robustesse technique ainsi que le bien-être sociétal et environnemental soulèvent à la fois des questions de cybersécurité, de science de données et des biais, la conception centrée utilisateur, l’interaction humain-machine de confiance, ainsi que le numérique durable

« Autrement dit, pour atteindre une IA digne de confiance, il convient de faire collaborer plusieurs experts ensemble et de former également ses équipes autour de ces sujets, depuis les premières étapes d’idéation d’un projet jusqu’à sa mise en production, en passant, entre autres étapes, par la collecte et gestion des données, la conception et l’entrainement du modèle, les tests utilisateurs, afin de veiller à respecter les différentes exigences à chaque étape de conception d’une IA de confiance » poursuit la jeune chargée de projet. 

Focus sur Dihnamic

Dihnamic, pôle européen d’innovation numérique (EDIH), est un consortium de 13 partenaires institutionnels néo-aquitains cofinancé par la région Nouvelle-Aquitaine et l'Union Européenne. Son objectif est d'accompagner les entreprises manufacturières et les autorités publiques de la région dans leur transformation numérique, en intelligence artificielle, robotique, interfaces humain-machine, cybersécurité, infrastructures intelligentes et jumeaux numériques ; le tout avec un axe transversal : l'IA digne de confiance !
 
Cet accompagnement se fait au travers d'une offre de services allant de formations (d'acculturations, spécialisées et sur mesure), au conseil technologique, jusqu'à la réalisation de preuve de concept pour favoriser l'innovation responsable de confiance et le lien entre les acteurs de l'écosystème en Nouvelle-Aquitaine.
Pour cela, Dihnamic propose également un accompagnement dans la recherche de financement et la mise en relation de partenaires adéquats pour rendre possible l'innovation, depuis les phases d'idéation à leur concrétisation.
 
 

Une IA générative responsable et européenne pour la recherche

« L’année 2023 a notamment été marqué par l’essor de l’IA générative. En parallèle de cet essor technique, le sujet de l’IA a pris de plus en plus de place dans la société civile : les métiers créatifs se sont retrouvés confronté à une concurrence soudaine très performante, les enseignants ont été confrontés à des nouveaux binômes de travail étudiants-chatGPT, ou encore des employeurs ont dû décider d’autoriser ou non cet outil en interne, etc. » poursuit Ikram Chraibi Kaadoud.

Si de nombreux efforts sont réalisés en France et en Europe pour structurer, informer et éduquer autours de l’IA générative et des risques associés, l’année 2024 a vu émerger (ou plutôt officialiser) une crainte concernant les métiers de la recherche. Avec l'expansion rapide de l'utilisation de cette technologie dans tous les domaines liés à la science, l'IA a transformé la recherche, en rendant « le travail scientifique plus rapide, plus efficace en accélérant la découverte en offrant plus de commodités dans la production de textes, d'images et de codes ».

Dans ce contexte, l’Union Européenne a publié, en mars dernier, les Lignes directrices sur l'utilisation responsable de l'IA générative dans la recherche[4] à destination de la communauté scientifique publique et privée. Ces recommandations abordent les principales possibilités et les principaux défis : sensibiliser les chercheurs aux limites de la technologie, notamment en ce qui concerne le plagiat, la révélation d'informations sensibles ou encore les biais inhérents aux modèles. S'appuyant sur les principes de l'intégrité de la recherche, les recommandations de l’Union européenne offrent des orientations aux scientifiques, aux organismes de recherche et aux bailleurs de fonds de la recherche afin de garantir une approche cohérente dans toute l'Europe, le tout en s’appuyant sur les lignes directrices en IA digne de confiance.

Ainsi, les Lignes directrices européennes[5] en 2019 puis l’IA Act en 2024 soulignent la volonté de l’Europe de fédérer, structurer et rassurer autour de ces sujets en prenant en compte les préoccupations de l’ensemble des parties prenantes de la société. Si certaines questions restent toujours en suspens comme l’encadrement législatif et le contrôle étatique, il est désormais possible de penser, concevoir et industrialiser des SIA de confiance pour les acteurs publics et privés d’aujourd’hui et de demain. 

Mnemosyne
© Inria_Photo M. Magnin