Sites Inria

English version

La science dans notre quotidien

Juliette Dunglas (*) - 5/12/2018

À l'interface : Willow et société

De la recherche Google par images aux vidéos remaniées d’Obama, le traitement des images par la technologie se cache partout. Derrière ce qui semble aujourd’hui aisé et monnaie courante, des algorithmes complexes œuvrent dans l’ombre. 

Donne-moi une image et je te dirai qui elle est

La première chose à savoir sur les ordinateurs, c’est que leur « intelligence » n’existe que par celle de leurs concepteurs et conceptrices. En cela, il faut tout leur apprendre mais également s’adresser à eux avec le seul langage qu’ils connaissent : 0 et 1. 

Pour l’humain, une image se forme grâce à des rayons lumineux qui traversent l’œil et qui sont ensuite traduits par des signaux électriques pour devenir « ce que l’on voit. » Ce merveilleux organe, une fois couplé au cerveau, est capable d’analyser, estimer, ajuster, traiter de façon intuitive les informations visuelles qui lui sont soumises. 

Pour l’ordinateur, la tâche est plus fastidieuse… Au royaume des cartes mères tout n’est que chiffres et tout doit être traduit. Ainsi, une image, cet assemblage de pixels qui apparaît sur un écran, s’exprime par des chiffres et toutes les actions et interactions qu’elle subira correspondront à un enchaînement de 0 et de 1. Une fois que ces bases sont posées, tout peut être envisagé, moyennant une flopée d’algorithmes…

L’outil magique de Google qui permet de retrouver la source d’une image enregistrée sur l’ordinateur ne fait pas exception. Schématiquement il y a une entrée (l’image), une sortie (le résultat de recherche) et au milieu ? Un algorithme qui permet de comparer point par point l’image déposée réduite à l’état de chiffres avec une base de données gigantesque. Le tout en environ 0,42 seconde.

Voir plus grand  

Pour créer des panoramas ou des images en 3D à partir de simples images 2D, l’ordinateur doit pouvoir assembler plusieurs images en trouvant des points de correspondances ponctuels entre elles, paire à paire. Là, encore c’est un algorithme qui doit les détecter, les identifier, les catégoriser et les assembler. Ce genre de manipulation trouve une application, par exemple, en archéologie pour créer des reconstructions 3D d’un édifice. 

Dessine-moi un mouton  

Si le schéma semble simple et adaptable, il existe néanmoins des variations de ces algorithmes qui opèrent sur des tâches plus conséquentes.

Avec l’arrivée du machine learning , ce procédé qui vise à apprendre à un ordinateur à apprendre par les données qui lui sont fournies, les algorithmes doivent se complexifier pour se baser sur l’apprentissage statistiques. Imaginons « l’apprenti illustrateur », un programme capable de reconnaître ce que l’utilisateur ou utilisatrice lui dessine. Avant de pouvoir prétendre à cette réussite, l’ordinateur ingurgite des dessins fournis par des volontaires : un mouton, deux moutons, trois moutons… 10.000 moutons, et autant de manière de les dessiner. À chaque fois, l'ordinateur met à jour les paramètres de son modèle pour arriver à apprendre au fur et à mesure ce que les utilisateurs et utilisatrices lui dessinent. Pour s’en sortir, le modèle arrivera à repérer des traits caractéristiques du mouton et fera des statistiques de ce qui est censé ressembler à un mouton. Plus il aura accumulé les données, plus il excellera au Pictionary

Une équipe qui tire le meilleur de la science

L’équipe-projet Willow travaille sur des algorithmes de base pour en créer de nouveaux capables de décrypter les images et de les exploiter. Les modèles développés permettent ainsi aux ordinateurs de comprendre une image et de faire ce que l’œil humain fait, voire plus.

De l’analyse à la reconnaissance en passant par la catégorisation, l’équipe trouve des applications à leur science dans l’archéologie ou encore les effets spéciaux. 

Une équipe-projet rattachée à l'ENS et au CNRS

Propos recueillis auprès d'Ignacio Rocco, doctorant dans l'équipe-projet Willow.

Mots-clés : Willow Inria de Paris Images Images 3D Machine learning

Haut de page

Suivez Inria