Sites Inria

English version

Interface homme-machine

Stéphanie Dupont - 26/10/2016

Nouvelle interface Homme-machine : des mini robots pour l’affichage et l’interaction

À l’occasion de la conférence UIST2016 (User Interface Software and Technology ) qui s’est tenue à Tokyo du 16 au 19 octobre 2016, Mathieu Le Goc, doctorant au sein de l’équipe AVIZ du centre Inria Saclay - Île-de-France a présenté un nouveau mode d’interface Homme-machine composée de plusieurs mini robots autonomes qui gèrent l'affichage et l'interaction. À cette occasion, il a reçu le prix du meilleur article.

C’est lors d’une rencontre entre Mathieu Le Goc et Pr. Sean Follmer (Université de Stanford) que la collaboration est née. Chacun avait travaillé sur un projet similaire et leurs travaux étaient complémentaires. Dirigé par Pierre Dragicevic et Jean-Daniel Fekete, Mathieu a passé trois mois en Californie pour travailler en collaboration avec Pr. Sean Follmer et ses étudiants. Il a entre autres construit sur mesure et fabriqué avec Lawrence Kim, doctorant à l'Université de Stanford, tous les éléments matériels des robots. « La plate-forme est composée de mini robots, d'une carte de communication sans fil  et d’un projecteur de lumière structurée à grande vitesse pour le suivi optique.  Chacun des cent robots existants à ce jour mesure un peu plus de deux centimètres de diamètre et est doté de petites roues et de deux types de capteurs ; des capteurs de lumière pour la  localisation, tactiles et de mouvement pour les interactions » , décrit Mathieu.

De l’ordinateur aux robots 

La lumière structurée envoyée par le projecteur permet de situer la localisation du robot et son orientation. Les robots ne sont pas autonomes, c’est l’ordinateur qui coordonne chaque robot et leurs interactions.  Mathieu Le Goc explique que « cette nouvelle forme d’interaction Homme-machine est basée sur le principe des essaims », c’est-à-dire les phénomènes de déplacements et d’interactions chez certaines communautés d’insectes sociaux, comme les fourmis et les abeilles, ou chez des animaux en mouvement comme les oiseaux migrateurs. C’est donc sur ce modèle que l’ordinateur ordonne le mouvement à chaque robot et leur mode de regroupement. La lumière structurée est le vecteur des informations envoyées par l’ordinateur aux robots.

Des robots à l’ordinateur

La transmission d’informations est réciproque. Les capteurs de localisation situés sur les robots permettent à l’ordinateur de visualiser les dispositions et mouvements sur l’écran. « Ce sont nos partenaires de Stanford qui ont mis au point les systèmes de localisation » précise Mathieu. Les événements physiques sont quant à eux identifiés grâce aux capteurs tactiles. 

Perspective et mobilité inédites

C’est un nouveau mode d’interaction Homme-machine en premier lieu parce que l’écran n’est plus l’intermédiaire. Cette plate-forme donne une autre perspective; il devient possible d’agir par le toucher grâce aux capteurs tactiles et ainsi d’interagir avec le monde physique. 

Une autre nouveauté réside dans la localisation des robots et la mobilité du dispositif. « D’autres plates-formes fonctionnant à partir d’aimants ont déjà été développées. Les aimants, comme les roues de notre projet, permettent de déplacer les robots. Le fonctionnement à partir de lumière structurée comporte l’avantage de localiser les robots. En outre, cette technologie rend la plateforme plus mobile » explique Pierre Dragicevic.

« C’est une véritable évolution dans l’avancée des techniques d’affichage et de visualisation » précise Jean-Daniel Fekete, responsable de l’équipe AVIZ. On ne sait pas encore quel type d’application popularisera cette technologie qui associe le monde réel au monde virtuel mais « en termes d’affichage, on peut utiliser les robots comme on utilise les pixels, pour une représentation physique » conclut Mathieu le Goc.

Mots-clés : Interaction Homme Machine – Visualisation – Mathieu Le Goc – AVIZ – Inria Saclay – Île-de-France

Haut de page

Suivez Inria tout au long de son 50e anniversaire et au-delà !