Simuler la navigation des robots en pleine foule

Date:
Mis à jour le 23/10/2020
Comment faire pour que les robots puissent circuler au milieu d'une foule dense en toute sécurité ? C'est le thème de CrowdBot, un consortium financé par le programme européen ICT H2020 et coordonné par Inria. Dans ce contexte, les scientifiques du centre de recherche de Rennes étudient l'interaction entre l'humain et le robot en simulant l'un et l'autre dans un environnement virtuel.
homme en fauteuil roulant qui se déplace dans une ville en réalité virtuelle
image d'illustration : simulation issue du projet ADAPT dans un environnement proposé par Rennes Métropole© Inria / Photo G. Scagnelli

 

"Faire évoluer un robot au milieu de la foule, un fauteuil roulant autonome par exemple, pour nous, ne consiste pas à laisser une distance de sécurité d'un mètre autour de lui. À ce moment-là, le robot, ne serait pas présent dans la foule, mais simplement à côté d'elle. Ce que nous avons à l'esprit, c'est un robot en situation de très grande proximité avec l'humain, y compris parfois en contact physique”, résume Julien Pettré, coordinateur scientifique du projet CrowdBot. Partant de ce principe, l'objectif des chercheurs est de rendre les déplacements de la machine aussi fluides que possible tout en s'assurant que les petits contacts occasionnels resteront sans danger.

Le consortium rassemble cinq entités académiques : l'université technique de Rhénanie-Westphalie, à Aix-la-Chapelle, les écoles polytechniques fédérales de Zurich (ETHZ) et Lausanne (EPFL), Inria et University College London, ainsi que deux partenaires industriels (Locomotec et SoftBank Robotics Europe). Pour leur part, les scientifiques d'Inria se focalisent sur l'interaction Homme robot au moyen de la simulation et de la réalité virtuelle.

Crash tests en toute sécurité

“Grâce aux outils de simulation, nous sommes en mesure de réaliser des crash tests en toute sécurité. Nous sommes donc capables de jeter des humains virtuels et des robots virtuels les uns contre les autres dans des collisions à différentes vitesses et avec différents angles. En fonction de ces paramètres, des abaques nous indiquent, selon les forces exercées, le niveau de dangerosité de ces contacts. Par exemple, selon la forme géométrique du robot, la forme d'un corps humain et son mouvement, nous avons pu établir la fréquence des contacts pour chaque partie du corps. Typiquement, on note que les accoudoirs des fauteuils roulants autonomes présentent des risques de collision avec des têtes d'enfants.”

La diversité humaine

Cela dit, aussi efficaces que ces méthodes puissent être, un problème subsiste.

Image
Photo de Julien Pettré
Verbatim

Si les robots réagissent de la façon dont ils sont programmés, les humains, eux, ont des réactions complexes par nature, donc très difficiles à modéliser et à simuler.

Auteur

Julien Pettré

Poste

Coordinateur scientifique du projet Crowdbot

Et de fait, il n'existe pas deux piétons identiques. Certains traînent des pieds, d'autres enchaînent de grandes enjambées à vive allure. Certains réagissent au quart de tour, d'autres plus lentement. Certains sont sveltes et souples, d'autres plus massifs ou plus chétifs. Certains ont l'esprit dans la lune, d'autres sont attentifs à ce qui se passe autour d'eux.

La combinaison de toutes ces caractéristiques ouvre des possibilités infinies. “Difficile de couvrir une telle variété. Cela demanderait un nombre d'expériences considérable avec de vrais robots et énormément de participants humains.” Sans oublier quelques petits bleus au passage...

Réalité Virtuelle

D'où l'idée de mener ces études en réalité virtuelle. “Cela va nous permettre de séparer physiquement les deux entités, le robot et l'être humain, puis de les réunir dans un environnement virtuel. Nous immergeons un piéton équipé d'un visiocasque dans une situation virtuelle contrôlée par ordinateur. Nous immergeons aussi un robot Pepper dans une situation virtuelle similaire.” Pour ce dernier, pas besoin de casque. “Nous contournons cette étape en lui envoyant directement les données qu'il produirait s'il percevait la scène en utilisant ses capteurs, que ce soit une caméra ou n'importe quel autre type d'instrument.”

 

Le robot pepper
© Inria / Photo C. Morel

Pléthore de données cinématiques

Le robot et l'humain se perçoivent comme s'ils étaient véritablement face à face. “Nous les plaçons dans des situations de contact imminent. Chacun réagit en fonction de ce que fait l'autre. En plus de la perception respective de leur interaction, nous pouvons jouer tout un environnement en disposant des obstacles, en ajoutant d'autres piétons simulés, y compris certains ayant des interactions les uns avec les autres. Ce que nous étudions, c'est l'instant juste avant la collision. Nous laissons le robot réagir à grande proximité de l'humain et l'humain réagir à grande proximité du robot. La configuration de la collision est assez réaliste par rapport à ce que l'on sait faire en simulation pure.” Cette approche permet de générer une grande quantité de données cinématiques : des informations sur les trajectoires, mais aussi sur les positions du corps, par exemple.

Étudier ainsi l'immersion d'un robot mobile dans la foule en recourant à la réalité virtuelle constitue une première mondiale. “Cela demande un assemblage de technologies assez conséquent, que ce soit pour la simulation du comportement de la foule, l'animation, le rendu, l'immersion, etc. Il se trouve que les équipes de notre centre de recherche, ici à Rennes, possèdent ces différentes expertises.” Le pôle universitaire rennais dispose aussi de deux des plus grandes salles de réalité virtuelle en Europe : Immersia et Immermove.

 

Un éventail de possibilités

“Notre nouvel outil ouvre toute une gamme de possibilités, ajoute Solenne Fortun, en charge de la gestion du projet CrowdBot. On peut décider de tout simuler, de simuler seulement le robot, de simuler seulement l'humain, d'immerger le robot dans la réalité virtuelle en simulant tout le reste, ou encore de placer l'humain et le robot dans une situation virtuelle. Même si les contacts ne sont pas rendus, car nous n'avons pas la technologie pour cela, nous sommes capables d'évaluer cette situation de contact d'une façon qui est beaucoup plus conforme à la réalité.”

La plate-forme se trouve encore en cours de développement. Elle sera mise ensuite à disposition de la communauté scientifique. L'outil peut servir à trois choses. D'abord, étudier les réactions humaines. “Pour l'instant, nous ne savons pas vraiment comment l'humain réagit face aux robots étant donné leur forme, leur vitesse, leur aspect, etc. C'est difficile à estimer d'avance.”

 

Video file

Un banc d'essais pour les fabricants

Deuxièmement : évaluer le comportement du robot. “On peut tester l'algorithme A par rapport à l'algorithme B pour établir lequel est le plus performant, lequel offre le meilleur niveau de sécurité.” De cette façon, l'outil peut devenir un banc d'essai pour les industriels souhaitant immerger leurs robots dans une foule virtuelle et mesurer comment ces machines se comportent. Troisièmement : collecter des données. “L'inférence à partir des données devient de plus en plus importante car les méthodes d'apprentissage automatique s'avèrent très efficaces pour prédire le comportement humain.” Ces mêmes méthodes peuvent aussi permettre au robot d'apprendre des solutions pour des tâches de navigation.

Ce vaste ensemble de métriques pourrait aussi intéresser les autorités européennes chargées de légiférer sur ces sujets. Comme l'indique Julien Pettré, “dans le domaine de la cobotique, il existe déjà des standards de sécurité couvrant l'interaction entre les ouvriers et les robots industriels. De la même façon, on peut imaginer que nos recherches actuelles aboutiront à des standards, des normes et des lois que devront respecter les robots se déplaçant dans l'espace public.”

Julien Pettré et Solenne Fortun sont membres de Rainbow, une équipe-projet Inria, Université Rennes 1, Insa-Rennes et CNRS, commune à l'Irisa (UMR6074).