Éthique

IA décentralisée : comment garantir davantage d’équité et de respect de la vie privée ?

Date:
Mis à jour le 29/11/2023
On lui confie notre santé, nos finances, la reconnaissance de nos visages… L’intelligence artificielle (IA) mérite-t-elle toujours une telle confiance ? C’est une des questions que se pose l’équipe-projet Magnet du Centre Inria de l’Université de Lille. En particulier, elle étudie comment l’apprentissage automatique peut devenir plus équitable et respectueux de la vie privée dans un cadre décentralisé.
Illustration de maillage
© Michael Dziedzic /Unsplash

Équité et respect de la vie privée, deux enjeux cruciaux

Parmi les domaines de l’intelligence artificielle (IA), l’apprentissage automatique consiste à entraîner un modèle pour répondre à un problème en lui présentant une multitude d’exemples représentatifs de la tâche à accomplir. Mais que se passe-t-il lorsque ce modèle n’est pas aussi performant pour un groupe de personnes que pour les autres ? Il n’est plus équitable. « Imaginons une application médicale de détection des grains de beauté suspects, illustre Michaël Perrot, chercheur au sein de l’équipe Magnet. Selon la nuance de peau, les données changent et cela peut poser un problème d’équité. Si certains grains de beauté suspects sont moins bien repérés dans un groupe, les patients n’iront pas consulter le dermatologue, risquant de contracter une maladie grave qui aurait pu être évitée. » De tels biais peuvent notamment émerger lorsque les grands volumes de données, sur lesquels ces modèles sont entraînés, ne sont pas représentatifs de la population globale.

Dans l’exemple médical précédent, les données d’entraînement peuvent être celles de consultations hospitalières. Cependant, chaque établissement n’a qu’une vision partielle du problème via sa population locale. Il aura donc des difficultés à obtenir un modèle équitable. Une solution consiste à croiser différentes sources de données pour les enrichir, en utilisant l’apprentissage décentralisé.

Le principe ? Plusieurs entités communiquent directement entre elles, avec l’objectif de coopérer, sans partager de données potentiellement sensibles et sans stocker les informations dans un lieu unique géré par un tiers. La souveraineté sur les données est ici importante, mais elle n’est pas suffisante pour garantir le respect de la vie privée des personnes dans les bases d’apprentissage. « Même si les données ne sont pas directement exposées, les modèles qu’elles ont permis d'entraîner peuvent, eux, être utilisés pour retrouver des informations sensibles, explique Michaël Perrot. Il convient donc d’élaborer des mécanismes d’apprentissages spécifiques qui garantissent que ce n’est pas possible. »

Vers des modèles plus équitables

Pour relever ce défi, Michael Perrot a lancé un projet intitulé "Équité en apprentissage décentralisé respectueux de la vie privé", soutenu par le dispositif STaRS réservé à l’accueil des talents de la recherche scientifique dans la région Haut-de-France.

Le but de ce projet est de concevoir de nouveaux algorithmes d’apprentissage, à la fois respectueux de la vie privée et capables d’entraîner de manière décentralisée des modèles qui ne sont pas discriminatoires envers certains groupes d’individus, explique-t-il.

Première étape du projet : élaborer un algorithme d’apprentissage de modèles équitables le plus simple possible, afin de pouvoir lui ajouter aisément des contraintes supplémentaires – en l’occurrence celles du respect de la vie privée et de la décentralisation. « Nous avons ainsi créé une méthode d’apprentissage appelée FairGrad (Fairness Aware Gradient Descent), diffusée en "open source", précise Michaël Perrot. Celle-ci permet d’entraîner simplement des modèles équitables et elle est compatible avec l’une des librairies standard en apprentissage automatique, "Pytorch". Elle se base sur un principe de repondération des exemples. L’idée est d’augmenter l’importance des données des personnes désavantagées tout en diminuant l’impact de celles avantagées. Nous nous attelons aujourd’hui à combiner cette méthode FairGrad avec le logiciel DecLearn, développé par notre équipe Magnet, pour effectuer de l’apprentissage décentralisé. »

Explorer les interactions entre équité, vie privée et apprentissage décentralisé

Outre les développements algorithmiques, une particularité du projet est la volonté d’étudier le problème de façon théorique afin de répondre aux interrogations liées à l’apport de l’équité dans les modèles. Comment celle-ci interagit-elle avec l’apprentissage décentralisé ? Comment interfère-t-elle avec l’apprentissage respectueux de la vie privée ? Enfin, comment les trois concepts réagissent-ils tous ensemble ? Si les domaines de l’équité, du respect de la vie privée et de l’apprentissage décentralisé ont largement été étudiés individuellement, leurs interactions ne sont que rarement considérées dans la littérature scientifique actuelle.

Dans ce contexte, Michaël Perrot s’est penché sur l’impact des contraintes de respect de la vie privée sur l’équité. Résultat : lui et ses coauteurs ont démontré que cet impact est en fait très limité lorsque le jeu de données utilisé pour entraîner le modèle est suffisamment grand. « Les variations en termes d’équité sont bornées par une mesure de proximité entre le modèle respectant la vie privée et celui qui ne la respecte pas, confie-t-il. Plus ils sont proches, plus les variations sont faibles et plus l’impact des contraintes de vie privée sur l’équité est limité. Or plusieurs approches sont connues pour entraîner des modèles privés proches de modèles non privés pour des jeux de données suffisamment grands. Intuitivement, plus la taille de la population considérée est importante, plus il est difficile d’identifier une personne avec certitude. C’est ce que l’on appelle communément se fondre dans la masse. »

Une IA centrée sur l’humain, au bénéfice de tous

Au-delà de ces recherches, la question de l’IA et de l’équité interroge aussi les institutions internationales. L’Europe s’est ainsi récemment emparée du sujet. L'Artificial Intelligence Act (AI Act), le projet de règlement de la Commission européenne sur l'IA, mentionne les droits fondamentaux en matière de protection des données, de dignité humaine et de non-discrimination. « C’est pourquoi la recherche fondamentale sur l’IA est essentielle, conclut Michaël Perrot. Elle permet de mieux comprendre pourquoi des biais peuvent apparaître dans les modèles d’apprentissage, d’étudier des moyens pour les éviter et, surtout, d’avancer encore plus dans le domaine de l’IA centrée sur l’humain. L’objectif est de prendre en compte l’impact des modèles d’apprentissage sur les populations… pour que personne n’en soit exclu. »  Un enjeu fondamental pour nos sociétés.