Intelligence artificielle

IA : bâtir la confiance et garantir la souveraineté

Date:
Mis à jour le 10/11/2021
Les applications de l’intelligence artificielle à toutes les dimensions de nos vies posent des questions nouvelles. Quels enjeux et quelles solutions pour développer la confiance dans l’IA et garantir notre souveraineté dans ce domaine ? Éléments de réponse avec Fabien Gandon, délégué scientifique du centre Inria d’Université Côte d’Azur et responsable de l’équipe-projets Wimmics.
Fabien Gandon
© Inria / Photo H. Raguet

Qu’est-ce que l’intelligence artificielle à vos yeux ?

Je définirais l’intelligence artificielle (IA) comme l’automatisation de processus que nous, humains, percevons comme intelligents : déduire, apprendre, lire, imaginer, parler, reconnaître, composer, rédiger, coopérer, mentir, résoudre, explorer, etc. Les dernières avancées de l’IA apportent de formidables capacités pour nos applications, comme la capacité à prédire un phénomène et la capacité à s’entraîner à une tâche, par exemple.

Tout le monde a entendu parler des techniques d’apprentissage automatique – et des fameux réseaux de neurones artificiels – qui ont connu des développements et des succès fulgurants ces dernières années, mais l’IA ne se limite pas à cette seule approche et exploite une grande variété de méthodes. Elle s’inscrit dans des domaines plus vastes, les sciences du numérique, en particulier l’informatique mais aussi les mathématiques, dont l’ensemble des avancées la nourrissent.

En quoi les applications de l’intelligence artificielle concernent-elles les citoyens et les États ?

Toute entité (entreprise, commerce, collectivité, etc.) qui produit, se procure ou détient des données peut bénéficier des avancées de l’IA, laquelle permet de les améliorer, les analyser, les interpréter afin de prédire et de décider. Optimiser la gestion de l’énergie en prédisant la consommation, améliorer les soins et traitements en apprenant à les adapter à chaque patient, analyser des images satellitaires pour comprendre, suivre et prédire les phénomènes environnementaux ou les activités de l’agriculture, etc. : les applications de l’IA concernent ou concerneront pratiquement tous les aspects de nos vies, ce qui présente autant d’opportunités que de risques.

Toute technique possède un caractère dual et l’IA n’échappe pas à cette règle ! La vulnérabilité potentielle de systèmes informatiques face à des attaques exploitant des algorithmes qui apprennent de leurs échecs est devenu un sujet stratégique majeur. Nous pouvons également nous trouver vulnérables devant la formidable capacité prédictive des algorithmes, qui deviennent des outils de manipulation et d’exploitation potentielle des usages du numérique : ce qui est prédictible devient potentiellement manipulable et entraîne alors des pertes de liberté(s)…

Quels verrous scientifiques doit-on lever afin de bâtir la confiance dans l’intelligence artificielle ?

Je pense qu’élaborer des méthodes d’IA techniquement robustes et auditables, avec un but éthique et documenté, sont les deux enjeux majeurs actuels. La conception de méthodes d’intelligence artificielle « dignes de confiance » pose de nombreuses questions scientifiques, visant à renforcer la capacité des humains à agir de concert avec elle. Les recherches dans cette direction visent à pouvoir obtenir des explications sur une conclusion, une prédiction ou une suggestion opérée par une IA, auditer tous les éléments des solutions des algorithmes face aux données, ou intégrer des mécanismes permettant la contestation, le retour et la correction par les utilisateurs.

Bâtir la confiance en l’IA suppose aussi de se doter d’un projet social, politique et moral en regard des projets scientifiques que nous développons. Dès les phases de conception, le travail en IA doit être centré sur l’humain, son bien-être et ses droits, et sur les caractéristiques nécessaires à cela : la robustesse, la sécurité, la transparence et l’équité. Outre les enjeux techniques que j’ai évoqués précédemment, se posent aussi des questions plus larges, comme poser un cadre éthique, former aux capacités et limites des systèmes, ou en réguler les usages, etc.

Atteindre une robustesse technique sans renoncer aux exigences éthiques nécessite souvent de trouver un équilibre, souvent délicat, entre des caractéristiques contraires ! Par exemple, accroître la transparence d’un algorithme demande d’accéder à son codage informatique, ce qui peut poser des problèmes de sécurité ; détecter et corriger un biais de prédiction nécessite de disposer de plus de données, ce qui peut aller contre le respect de la vie privée, etc.

Quelles problématiques pose l’intelligence artificielle au regard de la souveraineté et quels en sont les grands enjeux technologiques ?

Une politique publique, un investissement économique, une décision de justice ou une action de défense n’auraient qu’un piètre résultat sans la possibilité complète de contrôle, de l’analyse à la mise en œuvre de la décision. Si l’on perd le contrôle de la méthode de collecte, des données nécessaires, de la méthode d’analyse, de la prédiction d’aide à la décision, ou de l’infrastructure de mise en action, on perd des moyens de mise en œuvre de sa souveraineté.

Cette maîtrise globale et systémique qui, au-delà des méthodes d’intelligence artificielle, inclut tous ses composants (données et algorithmes, serveurs, réseaux et terminaux, applications et logiciels, etc.) et ses écosystèmes (recherche et industrie) peut être difficile à atteindre en termes de coûts, de temps, de taille critique, etc. Il me paraît donc plus judicieux d’identifier et de commencer par les éléments à la fois stratégiques et prioritaires. Par exemple, une maîtrise des techniques de cryptographie et de leur insertion dans d’autres traitements (communication, stockage, interrogation, etc.) peut permettre d’assurer une autonomie stratégique pour notre souveraineté et notre sécurité.

Le besoin d’assurer ou de reconquérir des fonctions critiques ne doit cependant pas se transformer en un protectionnisme numérique systématique : Internet et le Web sont intéressants notamment parce qu’ils sont mondiaux, et en IA, parmi de nombreux autres exemples, la détection et la correction de biais ou la généralisation de résultats peut grandement tirer bénéfice d’échanges et de collaborations internationales…

En termes de protection des données, quelles questions les citoyens et les entreprises doivent-ils se poser ?

Il nous faut maintenant systématiquement interroger la collecte et l’utilisation de nos données : nous savons que celles-ci ont de la valeur et qu’elles peuvent être "obtenues" (avec notre consentement) ou "subtilisées" (à notre insu) et non "données" !  Par exemple, un agriculteur a besoin de savoir que son tracteur va collecter des données à propos de son activité pour le compte du constructeur, ou un patient a besoin de savoir que sa pharmacie collecte des données sur lui au bénéfice de laboratoires privés. Le numérique aujourd’hui, et l’IA plus largement demain, font partie de notre quotidien : chaque citoyen et acteur de ce secteur doit être un "veilleur" de ses propres données. Cela passe d’une part par la diffusion d’une culture du numérique, et d’autre part par une réflexion individuelle et collective, posant les limites de ce qui est acceptable ou non, de "ce pour quoi" on autorise l’accès à une donnée...

En savoir plus

Les nouveaux enjeux de l'IA