Sites Inria

English version

Séminaire In'Tech

Le séminaire

Poppy, robot humanoïde bio-inspiré - © Inria / Photo H. Raguet

Inria Grenoble - Rhône-Alpes et le Pôle Grenoble Cognition, ont organisé une journée de rencontres entre chercheurs et industriels sur le thème "Vers une robotique cognitive ?" , mardi 24 juin de 10h à 16h, à Inria Montbonnot.

De plus en plus d’applications de la robotique ont pour objectif d’assister, voire de substituer l’humain dans des tâches de la vie courante, la conduite automobile autonome, la prise de décision dans les marchés financiers, la recherche d’information sur internet ou l’aide à la mobilité pour des personnes à mobilité réduite, etc. Pour ce faire, on développe des systèmes robotiques dotés de capteurs/actionneurs avancés et ciblés, qui dépassent souvent les performances sensorielles des observateurs humains (vision infrarouge, miniaturisation, mesure d'assiette, time of light, etc). Cependant le constat est souvent décevant en comparaison des capacités des systèmes naturels humain ou animal. La redondance est la clef de la robustesse, la simplicité celle de l'efficacité.

Cette journée sera l’occasion de faire le point sur quelques systèmes robotiques innovants exploitant la connaissance du vivant ou s’en inspirant (bio-inspiré) pour définir des méthodes de mesures ou d'action simples et robustes. Elle sera également l'occasion de discuter des modèles issus des sciences cognitives qui permettraient d'augmenter l'adaptabilité et la robustesse des systèmes robotiques. Pouvons-nous lever des verrous technologiques avec l'apport des sciences cognitives qui permettrait d'amélioration des systèmes sans recourir à une surenchère d'information ?

Programme de la journée du 24 juin 2014

9h30

Accueil des participants autour d’un café

10h00

Discours d'ouverture

par  Inria et le Pôle Grenoble Cognition

 

Introduction au thème de la journée

10h15 - 10h45

  • La vision des couleurs ou l'échec de l'optimalité générale

David Alleysson, Chargé de Recherche CNRS, Laboratoire de Psychologie & NeuroCognition

  • Pourquoi 3 super-ordinateurs Cray ne parviennent pas à faire aussi bien qu'une abeille avec 960 000 neurones ou l'urgence de développer les liens entre sciences cognitives et robotique

Martial Mermillod, Professeur UPMF, IUF, Directeur-Adjoint du Pôle Grenoble Cognition

 

Matinée conférences

10h45 - 11h15

  • Conscience humaine et conscience robotique: l’approche sensorimotrice

 J. Kevin O’Regan, Laboratoire Psychologie de la Perception - CNRS, Université Paris Descartes

Comment fabriquer un robot qui ressente réellement la douleur, au lieu de seulement manifester des réactions d’évitement ? Pourquoi le rouge nous paraît-il rouge plutôt que vert ? Ces types de questions paraissent inabordables pour la science, si l’on adopte le point de vue classique selon lequel les sensations sont engendrées par des processus neuronaux dans nos cerveaux.

Mais l’approche “sensorimotrice” prétend que c’est une erreur de penser que les sensations sont engendrées par quoi que ce soit. Au contraire, les sensations sont des manières d’interagir avec le monde.

Adopter ce point de vue nous permet de faire de nouvelles prédictions concernant des phénomènes perceptifs chez l’homme que j’illustrerai avec des résultats sur la cécité aux changements, la couleur, et la substitution sensorielle. Prendre ce point de vue ouvre également la perspective de la véritable conscience chez les robots.

11h15 - 11h45

  • Un nouveau sens bio-inspiré des poissons pour la navigation des robots sous-marin : le sens électrique

Vincent Lebastard et Sylvain Lanneau , Institut de Recherche en Communications et Cybernétique (IRCCYN ), Nantes

L'électrolocation est inspirée du mode de perception de certains poissons dit faiblement électriques, par exemple Gnathonemus petersii. Sa transposition sur des engins sous-marins repose sur l'utilisation de plusieurs électrodes situées le long du corps de l’engin sous-marin. Ces électrodes permettent de créer un champ électrique autour de l’engin et de mesurer les perturbations de ce champ dues à l’environnement. Ces mesures permettent de détecter et de localiser des objets (ou obstacles) conducteurs (vivants) ou non. Cette méthode est applicable aussi bien dans l'eau douce que dans l'eau salée, indépendamment de la turbidité (particules en suspension, boue,…).

11h45 - 12h15

  • Des Abeilles aux robots et vice-versa

Franck Ruffier, CNRS, Aix-Marseille Université, Institut des Sciences du Mouvement

Accorder une certaine autorité de vol à un micro-aéronef est une tâche particulièrement difficile, en particulier pendant le décollage, l’atterrissage, ou en présence de vent. Construire un aéronef de quelques grammes ou dizaines de grammes équipé d’un pilote automatique demande alors une démarche innovante.
 J’ai choisi une démarche bioinspirée résolument tournée vers les insectes ailés pour résoudre les problèmes robotiques inhérents au décollage, au contrôle de la vitesse, à l’évitement d’obstacles, à la réaction au vent, ou bien encore l’atterrissage grâce à la mesure du flux optique.

12h15 - 13h30

Ouverture du showroom et déjeuner buffet

 

Avec la participation de :

  • Véhicules et machines intelligents dans le LabEx IMobS3 (Innovative Mobility: Smart and Sustainable Solutions)
    Jean-Charles Quinton, Institut Pascal / LabEx IMobS3
  • Jessiko, le robot poisson
    Christophe Tiraby, Robotswim
  • Présentation du robot Angels et vidéos associées
    Vincent Lebastard, Sylvain Lanneau,  IRCCYN, Mines Nantes
  • Nicolas Marchand, GIPSA-lab
 

Après-midi conférence

13h30 - 14h00

  • Perception active et robotique cognitive bio-inspirée

Jean Charles Quinton, Institut Pascal (UMR 6602), Université Blaise Pascal, Clermont-Ferrand

La perception active est employée chez les êtres vivants pour limiter l'énergie nécessaire à l'intégration d'informations utiles issues d'un environnement complexe. Les sensations et l'action sont ainsi liées dans un comportement adaptatif dès les premiers stages perceptifs. Les mêmes stratégies peuvent être exploitées en robotique cognitive, afin de réduire le coût des capteurs et actuateurs, ainsi que pour limiter les ressources temporelles et computationnelles requises au traitement des données. La combinaison de traitements parallèles bottom-up avec des stratégies séquentielles d'exploration top-down seront illustrées sur des expérimentations en robotique mobile basées sur la vision réalisées à l'Institut Pascal (LabEx IMobS3).

14h00 - 14h30

  • Vision artificielle embarquée neuro-inspirée

Michel Paindavoine, Université de Bourgogne – Laboratoire LEAD UMR 5022 CNRS, Dijon

Dans le domaine des algorithmes de Traitement du Signal et des Images, les résultats de recherche les plus récents permettent d’envisager la mise en œuvre de systèmes embarqués dédiés à la reconnaissance de visages en temps réel, à l’analyse de mouvements humains en temps réel ou encore à la robotique mobile pour l’assistance aux personnes handicapées.

Si ces dispositifs sont performants, des limitations apparaissent comme les problèmes liés à la prise en compte d’environnements naturels variés (aspect robustesse et adaptabilité des algorithmes)  ainsi que pour l’autonomie des systèmes embarqués supportant les applications visées (aspect limitation de la consommation et de l’encombrement des processeurs). De telles limitations représentent actuellement de véritables verrous scientifiques et technologiques. Pour lever ces verrous, l’une des voies prometteuses est d’aborder cette question selon une approche pluridisciplinaire en considérant d’une manière conjointe  la modélisation du système visuel humain (approche neuro-inspirée), les algorithmes de traitement du signal et des images, les réseaux de neurones artificiels, les capteurs d’images CMOS et les nouvelles technologies de la microélectronique.

A partir de la description de ces différents domaines complémentaires et de leurs interactions, nous verrons comment il est possible d’apprendre à un système embarqué de vision artificielle « neuro-inspiré » d’analyser en temps réel des mouvements humains dans une scène complexe.

14h30 - 15h00

  • Jessiko, un robot poisson à l'aspect vivant, avec une architecture simple

 Christophe Tiraby, Robotswim, Palaiseau

Jessiko est un robot poisson autonome actuellement proposé pour l’évènementiel et la décoration de prestige (hôtels de luxe, centres commerciaux, musées, discothèques, sièges de grandes entreprises…). Bien que de constitution simple, il est capable de nager de façon complètement autonome, seul ou en banc de plusieurs dizaines d'individus. Il peut également interagir avec le public tel un chien avec son maître.
Après une introduction générale, je vous propose de présenter l'architecture du robot et du système de localisation. Nous verrons quels sont les principes qui permettent de créer un comportement réaliste et imprédictible à partir d'algorithmes purement déterministes.

15h00 - 16h00

Discussions avec les intervenants, espace showroom

Les séminaires In'Tech sont animés par le centre de recherche Inria Grenoble- Rhône-Alpes, ils ont pour vocation d'être un lieu de rencontre entre PME, industriels et chercheurs.
Objectif : favoriser la veille technologique et l'échange d'informations entre les différents acteurs du développement des sciences et technologies de l'information de la région.

  • une série de présentations, un temps d'échange et de discussion
  • un espace réservé à des sociétés ou laboratoires pour qu'ils présentent leur activité

Mots-clés : Rencontre Inria Industrie Santé Innovation Centre de recherche Grenoble Rhône-Alpes Bio-informatique Bio-mimétisme Bio-mimetic Bio-inspirés Bio-inspired Intelligence collective Swarm intelligence Robotique incarnée Embodiment Embodied robotic Ingénierie cognitive

Haut de page

Suivez Inria