Sites Inria

English version

Intelligence artificielle

Magalie Quet & Marie-Laetitia Gambié - 23/04/2018

Entretien avec Michèle Sebag sur l’intelligence artificielle : son histoire, son avenir, ses limites

Michèle Sebag, co-responsable de l'équipe TAU - © Inria / Photo H. Raguet

Michèle Sebag, coresponsable de l’équipe de recherche TAU, a été récemment nommée à l’Académie des technologies, société savante française, fondée le 12 décembre 2000, dont le but est d’« éclairer la société sur le meilleur usage des technologies », et où elle participe notamment à une commission sur l’éthique de l’informatique. Experte depuis les années quatre-vingt-dix sur les questions d’intelligence artificielle, elle a d’ailleurs été récemment considérée par la revue L’Usine Nouvelle comme faisant partie des « défricheurs » de l’intelligence artificielle : ces « spécialistes du machine learning et de la donnée [qui] font progresser les performances des algorithmes et les lancent à la conquête de nouveaux territoires » . Rencontre avec cette chercheuse qui se consacre à l’IA depuis près de 30 ans…

Les 5 avancées majeures qui ont fait de l'IA ce qu'elle est aujourd'hui

Si les premières machines « pensantes » apparaissent très tôt dans les contes (le Golem) et la science-fiction (Frankenstein, XIXème siècle), c’est au siècle dernier que les scientifiques commencent à imaginer ce qu’ils appellent alors très abusivement des « cerveaux électroniques ». Le mathématicien et cryptologue britannique Alan Turing (le film « Imitation Game » lui est consacré en 2015) imagine dans les années 40 une machine universelle, la machine de Turing , et se demande comment celle-ci pourrait résoudre n’importe quel problème en manipulant des symboles. Ces travaux amorcent l'idée qu'un système artificiel puisse résoudre des problèmes à la « mode humaine »…  Les premiers jalons de l’IA étaient posés !

Après une première période de grands espoirs, l’IA connaît un premier hiver dans les années soixante-dix : trop d’espoirs et de promesses non tenues amènent à l'arrêt des financements. Il faudra attendre dix ans pour que l’intérêt, les recherches et les investissements reprennent. Ainsi, les systèmes experts – logiciels capables de répondre à des questions en effectuant un raisonnement à partir de faits et de règles connues – deviennent populaires : « ils semblent enfantins vu d’aujourd’hui,  nous raconte Michèle Sebag, mais ils montrent que l’informatique peut servir à raisonner, en plus de calculer : c’est un début d’intelligence artificielle » . Un système expert sait reproduire des syllogismes : « Tous les Hommes sont mortels, or Socrate est un Homme, donc Socrate est mortel » . Mais les limites sont atteintes rapidement : les problèmes du monde réel sont pleins d’exceptions et les règles sont difficiles à acquérir. Les espoirs se tournent alors vers a construction automatique de règles ou de modèles à partir des données disponibles : c’est l’âge de l’apprentissage machine.

Cette discipline va bénéficier d’une phase d’expansion sans précédent : la puissance de calcul des ordinateurs augmente de manière gigantesque ; la plupart des activités humaines (depuis les supermarchés jusqu’aux banques, depuis les hôpitaux jusqu’à l’éducation) s’appuient sur les ordinateurs, ce qui fournit des données abondantes. Répondant à ces augmentations de la matière (les données) et des moyens (les capacités de calcul), les algorithmes bondissent !

L’ère actuelle est celle des réseaux neuronaux profonds : le deep learning , ou « apprentissage profond » . Il faut insister sur le fait que les réseaux neuronaux avaient été inventés bien avant les années 2000 ; mais les pionniers, tels Yann Le Cun ou Jürgen Schmidhuber, ont commencé par être des prophètes méconnus…  Un déclic se produit en 2012 lors du concours d’algorithmes de reconnaissance d’images ImageNET Challenge . Le principe est simple : un « agent intelligent » doit reconnaître les éléments présents dans un stock d’images (des chats, des chiens, des avions, des lions, des soleils couchants...). Des programmes classiques s’y affrontent ; les meilleurs font 25 % d’erreur, plus ou moins epsilon.  Mais cette année-là, l’université de Toronto écrase tous les concurrents avec seulement 16 % d’erreurs en utilisant une méthode d’apprentissage inédite… mise au point par Yann Le Cun dans les années quatre-vingt-dix : un « réseau de neurones convolutionnel ».

Notons que ces réseaux de neurones n’ont rien à voir avec les réseaux biologiques (nos cerveaux) : là où le cerveau humain apprend à reconnaître un chat à partir d’un ou d’une poignée d’exemples, l’ordinateur a besoin de millions d’images. Une IA n’a pas d’ADN, pas de parents, pas de curiosité*, ne se déplace pas dans l’environnement….

À partir de là, les avancées vont s’accélérer. Dans le contexte du célèbre jeu de Go (2016), on crée des IA qui dépassent maintenant les meilleurs joueurs humains. La différence comparé au jeu d’échecs est que la force brute ne suffit pas - par exemple le nombre de combinaisons possibles au Go est plus grand que le nombre d’atomes dans l’univers ! Il faut donc jouer, mais en se focalisant sur les situations intéressantes ; mais quelles sont-elles ? Comment les reconnaître ? Il faut déjà être un bon joueur pour savoir si une situation est intéressante... Autrement dit, l’IA doit apprendre et apprendre à chercher de nouvelles données en parallèle : on parle alors d’apprentissage par renforcement . Les travaux commencés par Sylvain Gelly et Olivier Teytaud (aujourd’hui respectivement chez Google et Facebook) dans l’équipe TAO dirigée par Marc Schoenauer et Michèle Sebag inspirent directement le logiciel AlphaGo de DeepMind. Le prochain défi est maintenant de réaliser une IA frugale : pour donner un ordre d’idée, le nombre de parties jouées par AlphaGo pour atteindre son niveau correspond au nombre de parties jouées par un humain en plusieurs centaines d’années…

Une autre avancée de l’IA ces dernières années, appelée generative adversarial networks (GANs) ou réseaux adversaires génératifs, met en compétition deux agents intelligents . Le premier (l’agent créateur) essaye de générer des images réalistes ; le deuxième (l’agent examinateur) sépare les vraies images des images générées. L’agent créateur est excellent quand il réussit à tromper l’agent examinateur !  Les domaines d’application des GANs sont innombrables : par exemple, dans le cadre des véhicules autonomes, le générateur permettrait de créer des images de situations difficiles pour tester le véhicule ; et la présence de l’examinateur garantit que ces images sont les plus proches possibles de situations réelles.

Jusqu'où est-on capable d'aller ?

Nous pouvons imaginer une IA toute puissante en principe, s’appuyant sur l’ensemble des connaissances humaines disponibles sur Internet, sur les capteurs de trafic, d’électricité, d’eau, sur les caméras omniprésentes… pour optimiser le trafic, éviter les gâchis ou les accidents… ou pour aider Big Brother . Au-delà des espoirs et des craintes (immenses, voir ci-dessous), une telle IA est-elle faisable ?

Il y a plusieurs verrous. Tout d’abord, l’IA dépend de la qualité des données disponibles, et du fait que ces données reflètent vraiment le monde . Or,  souvent, les données sont recueillies par des êtres humains : on ne note pas « ce qui est évident » ; le problème est que ce qui va de soi pour un être humain ne va pas de soi pour une IA.

Un deuxième verrou est que, pour comprendre vraiment les données, l’environnement, il est souvent nécessaire de jouer avec, d’interagir avec l’environnement et d’apprendre comment nos actions le modifient. Si l’IA n’interagit pas avec l’environnement, elle reste à la surface des choses ; si elle agit, comment limiter les dangers ?

L’IA peut-elle apprendre l’éthique ?

En dépit de leurs limites actuelles, il est clair que des IAs peuvent à terme devenir les meilleures et les pires des choses : des alliés inappréciables et des adversaires inaccessibles. C’est donc maintenant que nous devons réfléchir aux garde-fous. De la même manière que l’éducation, la justice et la police établissent des règles pour préserver la vie en société, nous devons définir des règles pour les IAs et leur développement .

Un premier type de garde-fous concerne les données  : les IAs, avides de données, doivent  respecter la vie privée et ne pas détruire le contrat social. Supposons par exemple qu’un modèle d’assurances permette de conclure avec confiance qu’une personne particulière est « à gros risque » ; la conséquence en serait qu’elle aurait de grosses primes à payer (ou serait dans l’impossibilité de s’assurer) ; inversement, une personne identifiée comme « sans risque »  n’aurait aucun intérêt à s’assurer. Autrement dit, la solidarité et le partage des risques effectué par l’assurance disparaitraient.

Un deuxième type de garde-fous concerne les critères . Une règle du type« don’t be evil »n’a aucun sens en soi pour une IA. Quel est le comportement attendu ? Si la voiture autonome a le choix entre écraser six chiens, ou trois chats et un lapin, que faire ? Les humains (toutes les catégories d’humains en jeu, les usagers, les ingénieurs, les juristes, les philosophes, les économistes, les sociologues, …) doivent s’entendre sur les moins mauvaises façons de résoudre les cas critiques.

Un troisième type de garde-fous concerne les humains . Aidé d’une IA toute-puissante, comment éviter de tomber dans la barbarie ? Aidé d’une IA bienveillante, comment éviter de sombrer dans la paresse ? Dans le fatalisme ?  Quels seront les nouveaux défis ?

Ayant construit de bonnes IAs, comment devenir de meilleurs humains ? 

(*) Ainsi  Jürgen Schmidhuber est un des premiers scientifiques à avoir proposé l’existence d’un mécanisme de créativité artificielle. Il est basé sur un pôle de compression de l’information (un système qui regarde les images, les choses, les faits et les résume) et un pôle de surprise (un système qui essaie de surprendre le premier système).

Mots-clés : Inria Saclay - Île-de-France CNRS Michèle Sebag TAU Intelligence artificelle

Haut de page

Suivez Inria tout au long de son 50e anniversaire et au-delà !