Comment pourrait-on définir une "IA responsable" ?
L’intelligence artificielle désigne un ensemble de logiciels et de méthodes qui n’est pas en lui-même responsable ou irresponsable : ce sont l’organisation, les processus et les êtres humains qui produisent l’IA qui doivent l’être. Et ils doivent l’être non seulement dans l’intention, mais également et surtout dans les effets. Nous ne sommes pas en train de juger une science, mais l'humain qui a créé l’algorithme ou qui le pilote. Dans l’interaction avec l’Homme, un algorithme peut se comporter d’une mauvaise manière, déloyale, trompeuse ou biaisée. L’interaction d’un algorithme d’IA avec l’Homme est un processus suivi par une sorte de norme de qualité éthique. Si cette interaction suit la norme définie, on peut considérer qu’elle est responsable. La responsabilité inclut l’éthique, le légal, mais également l’environnemental.
L’IA est-elle de plus en plus "irresponsable" ?
La frénésie technologique développée par les progrès de l’IA, la course effrénée à l’innovation, le volume de plus en plus immense des données, multiplient les tentations d’irresponsabilité. S’il y a irresponsabilité c’est en général qu’il y a une efficacité recherchée qui fait fi, consciemment ou non, de la responsabilité. Certaines entreprises de livraisons à domicile sont tentées, par exemple, d’utiliser les données personnelles des livreurs, comme le nombre de jours d’arrêt maladie, pour évaluer leur performance. Si cette tentation n’est pas contrôlée, par les organismes eux-mêmes et par l’État, y céder devient "irresponsable", non pas au sens juridique, mais moral et éthique.
Ce n’est donc pas l’algorithme qui est "irresponsable", mais la façon dont on l’utilise dans l’organisation du travail, notamment dans la planification ou la rémunération. Nous avons en France un appareil de contrôle légal assez performant : les démarches commerciales agressives ou biaisées tombent sous le coup de la DGCCRF (Direction générale de la concurrence, de la consommation et de la répression des fraudes) par exemple.
Mais, pour un institut comme Inria, reste une question scientifique : comment peut-on prouver que l’algorithme est biaisé ? Plusieurs de nos équipes-projets y travaillent, telles Privatics, Dionysos, Wide ou Magnet.
Quels sont les acteurs concernés par la responsabilisation de l’IA ?
Il y a trois acteurs : le secteur public, le secteur privé et la société civile. Dans le public, de nombreuses initiatives mettent en valeur la question de la responsabilité. Je pense par exemple à des missions comme Etalab qui coordonne la conception et la mise en œuvre de la stratégie de l’État dans le domaine de la donnée et témoigne de l’auto-régulation de l’État.
Dans le secteur privé, nous avons deux cas de figure : les entreprises ou organismes vertueux qui inscrivent dans leurs valeurs cette responsabilité, pour des raisons d’éthique et/ou d’image ; et les entreprises qui ne voient pas leur avantage à prendre en main la question de la responsabilité, qui attendent d’être sanctionnées pour changer de comportement, voire qui ont été sanctionnées et n’ont pas encore modifié leurs pratiques suffisamment. C’est le cas, en particulier, des entreprises en situation de position dominante : les Facebook Papers sont un aveu éclatant de l’absence d’auto-régulations de certaines firmes.
L’acteur public, bien que perfectible, se doit d’être transparent – et c’est un impératif constitutionnel. L’acteur privé bienveillant se pare d’outils et de processus pour aller vers davantage de responsabilité. Il faut créer, pour celui-ci, un éventail d’aides et de formations lui permettant de poursuivre ce chemin vertueux. Il faut hausser aussi le niveau de culture scientifique, notamment en IA, dans le tissu industriel, et travailler avec les fédérations professionnelles pour œuvrer à une réelle formation.
L’acteur privé volontairement irresponsable ou négligeant ne répond pas, quant à lui, à la démarche de co-construction : il faudrait être irrationnel ou naïf pour croire que ces entreprises vont rentrer d’elle-même dans le chemin de la régulation par l’approche collaborative. Nous rentrons donc, pour cet acteur, dans le cadre de la surveillance.
Au milieu de ces acteurs, Inria est une force de neutralité, qui peut jouer du temps long de la recherche pour conseiller, expliquer, qui est légitime pour comprendre et donner ce recul dont les acteurs en présence manquent parfois. Inria peut aussi jouer un rôle de création de bien commun numérique, vers des IA plus explicables, contrôlables, et in fine plus responsables en face des décisions prises.
Existe-t-il une politique européenne en matière de surveillance et de régulation ?
La position de la France est avant-gardiste sur ces sujets. Elle est moteur, avec l’Allemagne et la Hollande par exemple, dans le développement des DSA et DMA, les deux règlements européens visant à réguler l’espace numérique. La règlementation et la surveillance seront, à termes, européennes avec, sans doute, quelques pays moteurs. Les autorités de régulations des pays membres se voyant déléguer certains aspects de la surveillance selon les préjudices et les expertises locales. Mais il est parfois difficile de faire coexister des visions différentes de la discrimination, du préjudiciable par exemple, au sein des réseaux sociaux de grande taille, ce qui n’est que le reflet de sensibilités idéologiques ou politiques régionales.
L’exemple des algorithmes de modérations de contenu des grandes plateformes, très sensibles à la langue, induit des effets de bords très différents d’un pays à l’autre. C’est un vrai travail de collaboration entre les pays, sur les questions économiques, mais également les questions culturelles ou législatives.