Sites Inria

English version

République numérique

4/04/2018

TransAlgo : évaluer la responsabilité et la transparence des systèmes algorithmiques

Quand on s'apprête à faire une réservation de billet d'avion ou d'une chambre d'hôtel, on constate une variabilité des prix au moment du passage au paiement. Est-ce du yield management ou est-ce dû à une discrimination sur des critères inconnus (légaux ou non). L’objectif du projet TransAlgo est de comprendre et d’éclairer ce type de pratiques. Comment développer des méthodes permettant de vérifier si une décision est prise sur des critères respectant les valeurs et la réglementation de nos sociétés ? Nozha Boujemaa, à qui ce travail d’envergure a été confié, nous répond.

Comment est né le projet TransAlgo ?

Suite à la loi pour une république numérique, Axelle Lemaire, alors secrétaire d'État chargée du Numérique et de l'Innovation, a commandé en 2016 au Conseil général de l’Économie (CGE) un rapport sur les modalités de régulation des algorithmes de traitement des contenus. L'une des recommandations de ce rapport était la mise en place d’une plate-forme scientifique collaborative destinée à favoriser, d’une part, le développement d’outils logiciels et de méthodes de tests d’algorithmes et, d’autre part, la promotion de leur utilisation. Nous travaillons sur  la mise en place d'une plate-forme dénommée TransAlgo pour le développement de la transparence et de la responsabilité des systèmes algorithmiques, du fait de la dualité des données et des algorithmes.

Inria s’est vu confier le rôle d’opérateur de TransAlgo, avec les contributions scientifiques de nombreux acteurs académiques fédérés autour des challenges de TransAlgo, notamment le CNRS. Outre l'expertise scientifique, Inria apportera l'aide au développement logiciel.

Cette plate-forme sera une première en Europe.

Pourquoi se préoccuper de ce sujet ?

Une question simple : les recommandations automatiques de consommation de biens et de services (par exemple Netflix pour les contenus audiovisuels ou Amazon pour les produits du quotidien) sont-elles loyales au consommateur ou au fournisseur du service ? Les moteurs de recommandation deviennent de plus en plus prescripteurs et leur transparence représente désormais un enjeu économique important, par exemple pour les producteurs de contenus culturels. Le consentement à l'utilisation des données personnelles est-il réellement respecté ? Une étude récente d'Inria et de la CNIL a ainsi épinglé un acteur économique bien connu. En cause, son application mobile qui outrepassait le consentement de l'utilisateur en communiquant sa position GPS en dépit du refus de ce dernier. En l'occurrence, les responsables n'étaient pas au courant et ont dû diligenter une enquête interne pour comprendre d'où venait le problème. Le manque de loyauté des programmes n'est pas forcément intentionnel ! Un autre exemple de comportement déloyal est le pricing volatile que vous pouvez constater lorsque le prix de votre billet d'avion augmente au fur et à mesure de vos visites sur un site d'e-commerce. La finalité n'est pas de freiner l'innovation ou les nouveaux modèles d'affaires mais d'accompagner l'innovation par l'information éclairée du consommateur, qu'il soit citoyen (B2C) ou entreprise (B2B), et par la traçabilité d'une prise décision automatisée. La transparence est un atout pour l' "en-capacitation" du consommateur mais aussi un facteur de compétitivité économique. Dans le cas où le consommateur du service est un professionnel (B2B), on peut évoquer une situation de concurrence déloyale ou non.

Il y aussi les mécanismes de tri dans les moteurs de recherche, les mécanismes de recommandation et de sélection de contenus proposés qui n’apparaissent pas à l’heure actuelle de manière transparente... Tout cela peut avoir des impacts que la plupart des gens ne mesurent pas encore sur l’octroi de prêts bancaires, d’assurance, les situations de recrutement, etc.

De vrais enjeux donc, d'information, de neutralité, de loyauté, d’équité, de non-discrimination, de lutte contre la concurrence déloyale, de respect du consentement et de la vie privée, etc. Une chose très importante à comprendre néanmoins est que la plate-forme scientifique TransAlgo ne sera en aucun cas en charge du contrôle réglementaire des algorithmes ou de l’utilisation des données. Elle proposera une offre d’études, d’outils et de services à l’ensemble des acteurs concernés.

Inria s’est vu confier le rôle d’opérateur de TransAlgo et sera le catalyseur de la dynamique scientifique avec d'autres partenaires académiques.

Quels sont les enjeux scientifiques de TransAlgo ?

La transparence des systèmes algorithmiques est un vrai défi pour la recherche académique. Cela fait appel à plusieurs compétences disciplinaires et beaucoup de sujets identifiés ne sont pas encore suffisamment explorés par la recherche académique, d'où l'importance de multiplier l'effort de recherche. Deux approches seront développées par TransAlgo: l'auditabilité des algorithmes et le développement de nouvelles générations d'algorithmes "Transparent-par-construction" qui facilitent la mesure de leur transparence, leur explication et la traçabilité de leur raisonnement. On s'attachera aussi à développer des algorithmes dits "responsables-par-construction" s’ils respectent les lois, et s’ils se conforment à certaines règles et valeurs de nos sociétés.

Un algorithme est transparent si l’on peut facilement vérifier sa "responsabilité", par exemple, s’il ouvre son code, s’il explicite à la fois la provenance des données qu’il a utilisées, et celles qu’il produit, s’il explique ses résultats, ou encore s’il publie des traces de ses calculs. Notons que nous considérerons aussi les situations où le code n'est pas ouvert car il n'y a aucune obligation de divulgation de celui-ci.

Comment allez-vous procéder ?

Pour pouvoir s’y atteler, il est nécessaire de définir au préalable ce qu'on appelle un logiciel transparent, neutre, loyal, ou équitable, des notions qui sont plutôt juridiques. Ce travail implique la vérification de la conformité entre ses spécifications et son comportement, autrement dit l'écart entre ce qu'il est supposé faire et ce qu'il fait. Il apportera aussi un éclairage sur sa conformité aux règles éthiques et juridiques. Les méthodes et les outils techniques de la transparence des systèmes algorithmiques sont un sujet complexe et multiforme. Les propriétés que l’on souhaite vérifier, par exemple la non-discrimination ou la loyauté, incluent une part importante de subjectivité, qui dépend des cas d'usage et des contextes. Cela rend leur spécification difficile. Les challenges scientifiques sont nombreux et très peu de travaux de recherche existent sur le sujet.

TransAlgo a un rôle pédagogique substantiel vis-à-vis du grand public pour expliciter les concepts utilisés, dont certains sont objectivables et d'autres non. La plateforme TransAlgo offrira un espace de ressources et d'échanges participatifs à la communauté scientifique et au-delà. On y trouvera des livres blancs, rapports, articles, mais aussi des jeux de données et des protocoles de tests contrôlés. La plate-forme sera aussi un espace de partage des bonnes pratiques aux niveaux national et international, un espace de formation avec des cours en ligne. L'objectif est d'augmenter la prise de conscience collective des enjeux autour des données et des algorithmes de gestion et de traitement de l'information, de se doter d'outils algorithmiques d'encapacitation du citoyen, des pouvoirs publics et des professionnels.

TransAlgo sera aussi une plate-forme d'animation de la communauté scientifique dédiée aux défis que posent les questions de transparence et de responsabilités des algorithmes. Ces questions nécessitent des expertises interdisciplinaires et regroupent plusieurs acteurs académiques, en plus d'Inria et du CNRS, comme Sciences Po, l'IMT, l'université de Grenoble Alpes, l'université Paris-Sud, l'université de Versailles-Saint-Quentin, l'université Pierre et Marie Curie et l'ENS.

Nous avons créé cinq groupes de travail sur les thématiques suivantes :

  • Moteurs de classement de l'information et systèmes de recommandation
  • Apprentissage : robustesse aux biais des données et des algorithmes, reproductibilité, explication et intelligibilité
  • Protection des données et contrôle d'usage des données
  • Métrologie des réseaux de communication
  • Influence, désinformation, impersonification (photos, voix, agent conversationnel), nudging,  fact-checking

Comment être certain d’avoir un ancrage dans le monde réel ?

Nous sommes attachés à des cas d'usage provenant de la vie des citoyens et des professionnels. Les associations ont aussi un rôle à jouer pour le recensement et l'objectivation de la situation actuelle de certaines pratiques des plates-formes ou des services à travers un dispositif contributif (citoyens et professionnels).

Pour faire remonter des cas d’usages bien réels, nous avons des échanges avec la Direction Générale de la Concurrence, de la Consommation et de la Répression des Fraudes (DGCCRF), le Conseil Supérieur de l'Audiovisuel (CSA), l’Autorité française de contrôle en matière de protection des données personnelles (CNIL), la FING (Fondation internet nouvelle génération), en plus de la CERNA (Commission de réflexion sur l'éthique de la recherche en sciences et technologies du numérique d'Allistene). Nous comptons travailler également à partir des remontées d’expression de besoins qui viendront des industriels et des associations de consommateurs.

Mots-clés : République Numérique TransAlgo Transparence des données Sécurité Algorithmes CNIL CERNA Institut DATAIA Institut PRAIRIE

Haut de page

Suivez Inria tout au long de son 50e anniversaire et au-delà !