Sites Inria

English version

Domaines de recherche

Actions exploratoires : défricher de nouvelles voies de recherche

Les actions exploratoires visent à susciter l’émergence de nouvelles thématiques de recherche. Elles donnent à des scientifiques les moyens de tester des idées originales. Ce galop d’essai peut se prolonger ensuite dans la création d’une véritable équipe-projet Inria. Présentations des actions exploratoires mises en place pour Inria.

Les actions exploratoires sont l’occasion de faire confiance à l’intuition des chercheurs et chercheuses. Grâce à ce dispositif, Inria mobilise des moyens sur quelques sujets très novateurs, à risque et en rupture par rapport aux approches traditionnelles de l’institut, en intelligence artificielle, en e-santé ou en agriculture numérique. Il donne le moyen d’approfondir un sujet et d’en prouver la pertinence scientifique : une étape indispensable avant de lancer la création d’une équipe-projet. Il peut s’agir également d’explorer des thématiques inhabituelles et marginales pour Inria, comme des sujets touchant aux sciences sociales ou au domaine juridique.

Les actions exploratoires sont l’occasion de faire confiance à l’intuition des chercheurs et chercheuses

AI4HI : Artificial Intelligence for Human Intelligence

Dans un milieu éducatif idéal, chaque apprenant pourrait bénéficier d'une pédagogie personnalisée et adaptée à son besoin, par exemple avec un tuteur capable de réagir rapidement à ses questions, de proposer du contenu pédagogique adapté à son niveau, pouvant passer rapidement sur les forces et se concentrer sur les faiblesses. Les contraintes de ressources du monde réel font que bien souvent avoir une pédagogique différenciée est difficilement atteignable.

Le but du projet AI4HI est d'allier les avancées en intelligence artificielle aux compétences de compilation et d'enseignement de l'équipe pour aider l'enseignement par la génération automatique d'exercices et leur recommandation aux apprenants, en particulier pour l'enseignement de la programmation et du debug à des novices. Ce système permettrait de proposer aux apprenants des exercices adaptés à leurs besoins et ainsi faciliter l'apprentissage, la progression, ainsi que leur confiance.

  • Responsable : Florent Bouchez Tichadou

COML : The Cognitive Machine Learning Team

Le but de l'équipe CoML est de faire de l'ingénierie inverse des capacités humaines d'apprentissage, c'est-à-dire d'élaborer des algorithmes effectifs qui puissent reproduire certaines de ces capacités humaine de traitement, d'étudier leurs propriétés mathématiques et algorithmiques, et de tester leur validité empirique en tant que modèles de la cognition humaine telle que mesurée grâces aux méthodes comportementales et neurologiques. Les résultats escomptés sont d'une part des algorithmes d'apprentissage automatique plus adaptables et plus fiables, et d'autre part, des modèles quantitatifs des processus cognitifs qui permettent de prédire les données du développement ou du traitement humains.

  • Responsable : Emmanuel Dupoux

DATA4US :  Transparence des données personnelles pour les internautes

Depuis mai 2018, le Règlement Général sur la Protection des Données (RPGD) controle la collecte de données à caractère personnel dans tous les pays de l'UE. Aujourd'hui, les utilisateurs sont toujours tracés et leurs données sont toujours collectées à leur insu lorsqu'ils naviguent sur le Web. Le RGPD donne aux utilisateurs le droit d'accéder à leurs propres données, mais ils n'ont aucun moyen d'exercer leurs droits dans la pratique.
DATA4US est un projet conjoint entre deux équipes Inria Sophia Antipolis et Inria Grenoble - Rhône-Alpes qui s'attaque à ces défis interdisciplinaires en établissant des collaborations avec des chercheurs en droit. DATA4US proposera une nouvelle architecture pour l’exercice des droits d’accès, qui expliquera aux utilisateurs si leurs données ont été collectées de manière légale, et permettra éventuellement de contacter les DPD pour des requêtes plus approfondies.

  • ResponsablesNataliia BielovaCédric Lauradoux

ELAN : ModELisation de l'apparence des phénomènes Non-linéaires

ELAN est une équipe de modélisation et de simulation physique, au positionnement original à la frontière entre informatique graphique et mécanique computationnelle. L'équipe se consacre à la conception de modèle numériques à la fois prédictifs, robustes et efficaces en temps de calcul, dans le but de capturer la forme et le mouvement de phénomènes mécaniques visuellement riches, comme le flambage d'une poutre mince, l'écoulement d'un tas granulaire ou encore l'enchevêtrement dans un milieu fibreux. Les applications visées concernent aussi bien la simulation physique pour l'industrie du loisir numérique (cinéma d'animation, effets spéciaux) que le prototypage virtuel pour l'ingénierie mécanique (aéronautique, cosmétologie). Bien que très différents, ces deux types d'applications nécessitent le déploiement de modèles capables de passer à l'échelle de phénomènes complexes, caractérisés par des grandes déformations et des interactions non-régulières de type contact frottant. Un troisième objectif, orthogonal aux précédents, est de contribuer à faire avancer notre compréhension de certains phénomènes naturels physiques ou biologiques (croissance de plantes, écoulements granulaires, sur-enroulement de l'ADN, etc.) à travers des collaborations actives avec des physiciens de la matière molle. Afin de répondre à ces objectifs, l'équipe s'efforce de maîtriser aussi finement que possible la chaîne complète de modélisation numérique, qui implique diverses compétences depuis la conception mécanique et l'analyse numérique jusqu'à l'algorithmique efficace et l'implémentation en machines de prototypes.

ETHICAM: Nouveaux paradigmes de communication basés sur des technologies émergentes

L’évolution du paradigme de l’Internet des objets (IoT) vers l’ “Internet of Everything“ (IoE) représente un axe de recherche important et émergent, capable de connecter et d’interconnecter un nombre considérable de nœuds hétérogènes, inanimés et vivants, englobant des molécules, des nanocapteurs, des véhicules et les gens. Ce nouveau paradigme exige de nouvelles solutions d'ingénierie pour la communication pour surmonter la miniaturisation et l’insuffisance du spectre.

De nouveaux paradigmes de communication omniprésents seront conçus au moyen d’une approche de recherche multidisciplinaire de pointe intégrant des (quasi) particules (par exemple des phonons) et des caractéristiques spécifiques du (méta) matériau (par exemple, de la chiralité) dans la conception des mécanismes de communication.

  • Responsable : Valeria Loscri

GRAM :  Programmation chimique de vésicules artificielles

Les réseaux de réactions chimiques sont un paradigme de calcul utilisé par les cellules naturelles pour traiter l’information, prendre des décisions et commander leurs processus vitaux.
La synthèse de vésicules artificielles sans ADN ni ARN mais contenant des quantités précises d’enzymes permet aujourd’hui d’implanter des fonctions de haut niveau, par exemple de diagnostic avec des nombreuses applications potentielles en santé et environnement.
En nous appuyant sur les travaux antérieurs de l’EP Lifeware sur la programmation chimique et le calcul analogique chimique, sur ceux du laboratoire CNRS-Alcediag Sys2diag sur la synthèse de vésicules enzymatiques de diagnostic, et sur l’expertise de la station biologique de Roscoff sur les transporteurs membranaires, nous explorons une approche originale de conception de circuits analogiques chimiques appliquée à la programmation de vésicules artificielles pour des fonctions de haut-niveau.

  • ResponsableFrançois Fages

KOPERNIC : Adapter le raisonnement pire cas à différentes criticités

Un système cyber-physique (SCP) est formé de composants cyber (informatique) et de composants physiques qui communiquent entre eux. L'équipe Kopernic étudie les propriétés temporelles (temps d'exécution d'un programme ou ordonnançabilité d'un ensemble de programmes communicant) des composants cyber des SCP. Un composant cyber est en général formé de fonctions possédant des niveaux différents de criticité relativement aux propriétés temporelles, donc une solution à ce problème doit être accompagnée de preuves appropriées à chaque niveau de criticité. Une solution est appropriée à un niveau de criticité si toutes les fonctions correspondantes remplissent les exigences de ce niveau. En fonction de leurs fondements mathématiques, les solutions sont : soit non probabilistes quand toutes les propriétés temporelles sont estimées ou bornées par des valeurs numériques, soit probabilistes quand au moins une propriété temporelle est estimée ou bornée par une fonction de distribution.

L'équipe Kopernic propose une solution orientée système au problème consistant à étudier les propriétés temporelles des composants cyber des SCP. La solution sera fondée sur la composition d'approches probabilistes et non probabilistes.

  • Responsable : Liliana Cucu

MALESI : MAching LEarning for Simulation

Afin de comprendre finement certains phénomènes physiques, biologiques ou autres, on fait appel à des méthodes numériques qui permettent de résoudre les équations associées par ordinateur.

Depuis plusieurs années on arrive à obtenir des méthodes très précises mais générant des pollutions numériques qui peuvent détruire la qualité du résultat. Le but du projet est d'adapter les méthodes d'apprentissage et d'IA pour détecter et corriger ces pollutions. A terme cela pourrait mener à des codes de simulation qui apprennent à corriger une partie de leurs mauvais comportements et a s'optimiser de façon autonome.

  • Responsable : Emmanuel Franck

ODiM : Outils informatisés d’aide au Diagnostic des Maladies mentales

ODiM est un projet interdisciplinaire, à l’interface de la psychiatrie-psychopathologie, la linguistique, la sémantique formelle et les sciences du numérique. Il tend à substituer au paradigme des Troubles du Langage et de la Pensée (TLP) tel qu’on l’utilise dans le secteur de la Santé mentale, un modèle cognitif et sémantico-formel des Troubles du Discours (TDD). Il s’agit de traduire ces troubles en signes pathognomoniques, de manière à en faire des outils diagnostiques complémentaires ainsi que de dépistage des personnes vulnérables dites « à risques », avant le déclenchement de la maladie. Le projet se décline selon trois axes.

Le travail proposé trouve ses fondements dans les données réelles que sont les entretiens avec les patients schizophrènes. Une phase de recueil de données dans des centres hospitaliers partenaires et auprès d’un groupe témoin, constituée d’entretiens et de tests neuro-cognitifs, est donc nécessaire. Le recueil de données permettra le développement du modèle théorique, tant dans la formalisation psycholinguistique que sémantico-formelle pour l’identification de signes diagnostiques. La réussite d’un tel projet nécessite l’extension de la méthodologie d’analyse afin d’augmenter la capacité du modèle existant à identifier les séquences porteuses de discontinuités symptomatiques. Si l’objectif général du projet est de proposer un cadre méthodologique permettant de définir et d’appréhender des indices diagnostiques associés à la psychose, nous souhaitons aussi outiller ces approches par le développement de logiciels permettant d’identifier automatiquement ces indices, tant au niveau du discours que du comportement langagier.

  • ResponsableMaxime Amblard

OptiTrust : produire du code haute performance digne de confiance

Produire du code haute performance pour une simulation numérique nécessite de traduire un algorithme exprimé à haut niveau en du code optimisé. Pour tirer parti des nombreuses optimisations de code qui sont hors de portée d'un compilateur fonctionnant de manière entièrement automatique, le programmeur doit retravailler le code à la main. Cette phase de réécriture manuelle est problématique à plusieurs égards : elle requiert beaucoup de temps, a tendance à sur-spécialiser le code pour un hardware particulier, donne du code particulièrement difficile à maintenir, et est source de bugs subtiles, extrêmement difficiles à détecter dans le cas d'algorithmes parallèles.

L'objectif du projet OpitTrust est de développer une approche permettant de produire du code haute performance digne de confiance. L'idée est de partir du code haut niveau, et d'appliquer une séquence de transformations guidée par l'utilisateur, jusqu'à aboutir au code optimisé. Les étapes de transformations sont enregistrées dans un script, qui inclus notamment les énoncés formels des propriétés qui justifient la correction des transformations. Le programmeur peut obtenir un retour interactif sur l'état du code après chaque étape d'optimisation, et peut rejouer le script de transformation à la suite d'un changement ou d'une extension de l'algorithme.

Nous envisageons de démontrer la faisabilité de cette approche en deux temps. D'une part, nous allons vérifier formellement (en Coq) des transformations source-à-source génériques couramment utilisées par les développeurs de code haute performance. D'autre part, nous allons vérifier formellement un algorithme parallèle de simulation de plasmas basé sur la méthode PIC (particle-in-cell). La combinaison de ces deux résultats fournirait alors le premier code haute performance formellement vérifié pour une simulation numérique.

  • Responsable : Arthur Charguéraud

Réal : Réécriture algébrique

La réécriture est une branche du calcul formel consistant à transformer des expressions mathématiques selon des règles admissibles. Les exemples vont de situations élémentaires, comme une identité remarquable (a + b)² = a² + 2ab + b² dans un anneau, à des calculs dans des structures algébriques complexes, comme la relation de Jacobi [[x,y],z] = [x,[y,z]] - [[x,z],y] dans une algèbre de Lie.

Le projet Réal propose d'explorer les connexions entre réécriture et algèbre. Il s'agit de comprendre les fondations algébriques de la réécriture, d'intégrer des mécanismes de calcul similaires connus en algèbre, et de développer de nouveaux outils de calcul en vue d'applications dans trois domaines des mathématiques : algèbre combinatoire et supérieure, théorie des groupes et des représentations, étude des systèmes et variétés algébriques.

  • ResponsableYves Guiraud

SNIDE : Search Non neutratlIty Detection

Les moteurs de recherche jouent un rôle clé pour accéder aux contenus et sont accusés de biaiser leurs résultats afin de favoriser leurs propres services. Ceci a conduit au sensible débat sur leur neutralité, similaire à celui sur la neutralité du Net. Notre objectif est de construire et appliquer une méthodologie mettant ou non en évidence un biais et quantifiant son impact.

  • Responsable : Bruno Tuffin

SR4SG : Sequential collaborative learning of recommandations for sustainable gardening

Le projet "Sequential Recommendation for Sustainable Gardening (SR4SG)" a pour objectif de rassembler la recherche en systèmes de recommandations, apprentissage séquentiel et par renforcement d'une part, et la recherche en agriculture raisonnée, préservation des sols et protection de la biodiversité d'autre part, autour de la problématique du partage collaboratif de bonnes pratiques agricoles.

L’agriculture est une activité universelle, qu’il s’agisse de cultiver un jardin dans un but de production alimentaire, ornementale ou scientifique, à petite ou grande échelle, en amateur ou en professionnel. Aujourd’hui les modifications des écosystèmes et des conditions climatiques complexifient la tâche des jardiniers et agriculteurs. De plus, l’évolution de nos sociétés altère la transmission des connaissances agricoles entre régions et générations, tout en limitant l’exploration à des environnements contrôlés.

L’apprentissage par renforcement, popularisé dans le domaine des jeux mais également appliqué à la vente en ligne et au e-commerce via les systèmes de recommandations, au cœur des GAFAMs, et à la santé via les essais cliniques, a montré quant à lui des progrès spectaculaires ces dernières années. Malgré l’expérimentation constante et la prise de décision séquentielle omniprésente qui caractérise l'agriculture, et si plusieurs domaines de recherche en informatique et mathématique appliqué se tournent aujourd’hui vers ce domaine applicatif (comme le traitement d’images), les efforts de recherche en apprentissage par renforcement restent à la marge. L’arrivée de techniques de collecte de données à différentes échelles telles que l’imagerie satellitaire/aérienne, les capteurs de terrain, mais aussi la possibilité de retour utilisateur par des applications de téléphonie mobile rend de plus en plus pertinent le développement de méthodes impliquant l’apprentissage séquentiel.

En s'orientant vers la culture durable des sols, le projet SR4SG, fortement interdisciplinaire, servira à fédérer une communauté mixte ambitieuse autour de l'apprentissage séquentiel au service du jardinage durable, à en établir ses fondements, et à développer une plateforme de sciences participative au service de la société et de la recherche.

  • Responsable : Odalric-Ambrym Maillard

TRACME : Trajectoires causales multi-échelles

Ce projet vise à modéliser un système physique à partir de mesures sur ce système. Comment, à partir d'observations, reconstruire un modèle fiable de la dynamique du système ? Lorsque différents processus interagissent à différentes échelles, comment obtenir une modélisation significative à chacune de ces échelles ? Le but est de fournir un modèle suffisamment simple pour apporter une compréhension des processus étudiés, mais suffisamment élaboré pour permettre des prédictions précises. Pour ce faire, ce projet propose d'identifier les classes d'équivalence causales du système puis de modéliser leur évolution par un processus stochastique. Une renormalisation permet de passer de l'échelle du continuum à celle, arbitraire, où les données sont acquises. Les applications envisagées sont essentiellement en sciences naturelles.

  • Responsable : Nicolas Brodu

Actions exploratoires terminées

Ctrl-A : Automatique pour l'informatique autonomique

Les systèmes de calcul sont de plus en plus ubiquitaires, à des échelles allant des plus petits systèmes embarqués jusqu’aux grandes infrastructures du Cloud . Ils sont de plus en plus adaptatifs et reconfigurables, pour la gestion des ressources, de l’efficacité énergétique, ou par fonctionnalité. Qui plus est, ces systèmes sont de plus en plus complexes et autonomes : leur gestion dynamique ne peut plus reposer sur des administrateurs humains et administratices humaines. La conception et la mise en œuvre sûres et correctes du contrôle automatisé de leur reconfiguration et régulation sont reconnues comme des problèmes majeurs dans l’efficience de ces systèmes adaptatifs.
Notre objectif est de construire des méthodes et outils pour la conception de contrôleurs sûrs de systèmes de calculs autonomiques, adaptatifs et reconfigurables. Pour atteindre ce but, nous proposons de combiner Informatique et Automatique, selon les axes correspondant aux différents niveaux de ce problème de conception conjointe :

  • infrastructures système adaptatives ;
  • support de programmation ;
  • techniques de modélisation et contrôle.

Notre équipe rassemble des compétences complémentaires, relevant de laboratoires différents, de façon à contribuer plus efficacement à la thématique particulièrement active localement à Grenoble des interfaces logiciel/matériel, et plus largement aux niveaux national et international à la communauté naissante du Feedback Computing .

ESTASYS : solutions innovantes pour la spécification rigoureuse de systèmes de systèmes

ESTASYS développe des solutions innovantes pour la spécification rigoureuse de systèmes de systèmes. Notre approche se base sur une modélisation des composants au moyen de représentations mathématiques. Ensuite, des techniques efficaces sont appliquées pour prédire le comportement du système et le corriger en fonction de son évolution.

FLOWERS : L’apprentissage des bébés robots

Un robot peut-il apprendre comme un bébé et explorer le monde qui l’entoure sans avoir été programmé par un ingénieur ou une ingénieure ? C’est cet étonnant paradigme qu’explore une équipe Inria Bordeaux Sud-Ouest. Sans imiter l’intelligence humaine comme le préconise l’intelligence artificielle, ces chercheurs et chercheuses en robotique comportementale et sociale tentent de créer un dispositif capable d’apprendre et de se développer par lui-même, comme le font les enfants.

Les psychologues du développement ont décrypté la logique de ces processus complexes, basés sur l’exploration spontanée. Implémenter une telle fonction de curiosité dans le "cerveau" des robots leur permettrait d’apprendre par eux-mêmes. L’équipe a déjà mis ce concept à l’épreuve. Elle entreprend désormais de coupler cet apprentissage du corps et de l’espace avec celui du langage, ouvrant ainsi la voie à une interaction sociale autonome des robots avec les humains. De tels robots seraient plus robustes pour faire face à des espaces et à des situations inconnus. Ils permettraient aussi de tester la pertinence des théories des psychologues.

InBio

InBio est un groupe interdisciplinaire de recherche en biologie expérimentale et computationnelle. L'objectif principal d'InBio est de développer un cadre méthodologique complet pour faciliter le développement d'une compréhension quantitative du fonctionnement des processus cellulaires. Étant donné un processus cellulaire d'intérêt, le problème revient à identifier la souche à construire et l'expérience à réaliser qui permettent de caractériser de façon optimale le processus étudié, puis à réaliser cette expérience et à mettre à jour les connaissances que l'on a sur le système. Le processus est alors réitéré.

Nous combinons des approches de biologie des systèmes et de synthèse avec des méthodes d'apprentissage actif et d'automatique, ainsi que des approches de modélisation stochastique et statistique.

InBio est un groupe de recherche commun entre Inria et l'institut Pasteur. Il est localisé à l'institut Pasteur et affilié à l'équipe projet Lifeware à Inria Saclay - Ile-de-France.

LICIT : Une conception éthique de l’informatique

L’informatique est partout ! Dans bon nombre d’appareils, des machines à laver aux avions, dans des puces RFID qui contrôlent l'accès à des bâtiments, pour verrouiller les voitures, dans les usages d’Internet bien sûr, mais aussi dans les cartes de transport, les passeports biométriques ou la vidéosurveillance. Comment protéger les libertés collectives et individuelles face à cette déferlante de nouveaux services et usages des technologies de l’information ?

Une équipe Inria Grenoble Rhône-Alpes a décidé de relever ce défi en ouvrant un nouveau champ de recherche : l’intégration de critères légaux et éthiques dans la conception des systèmes informatiques. Avec des juristes, les chercheurs et chercheuses revisitent les principes de la protection de la vie privée et inventent le cadre formel d’une infrastructure de protection des données. Elles et ils proposent aussi des méthodes pour définir les responsabilités juridiques en matière de logiciels.

MUSE : Measuring networks for enhancing USer Experience

MUSE signifie "Measuring networks for Enhancing User Experience" , c'est-à-dire métrologie des réseaux appliquée à l'amélioration de l'expérience utilisateur - utilisatrice. Nous sommes aujourd'hui complètement dépendantes et dépendants d'Internet. Ainsi, les problèmes de performance ou les pannes créent rapidement des frustrations sévères ; comme par exemple lorsqu'un téléchargement prend trop de temps, un appel vocal est saccadé, ou encore un film acheté en ligne s'immobilise sur l'écran. Pour complexifier encore cette situation, la plupart des internautes ne sont pas technophiles et sont donc incapables de régler les problèmes qu'elles et ils rencontrent. En résumé, la complexité des applications rend le diagnostic de panne sur Internet difficile, même pour des expertes et experts. Diagnostiquer avec exactitude les problèmes et leur trouver une solution restent des sujets de recherche ouverts et complexes. L'objectif de l'équipe MUSE est d'améliorer l'expérience des utilisateurs et utilisatrices sur Internet en mettant en place des technologies réseaux personnalisées qui s'appuient sur la mesure de la qualité de l'expérience de l'utilisateur et de l'utilisatrice. Nous sommes plus spécifiquement intéressés par le développement de techniques de diagnostic pour les réseaux domestiques où les utilisateurs et utilisatrices manquent terriblement de support.

NANO-D : Des maquettes virtuelles à l’échelle des atomes

Beaucoup d’objets manufacturés, des voitures aux avions, sont conçus et testés par ordinateur. À la clé : des avantages indéniables en termes de coûts et de délais de fabrication. L’idée de ces chercheurs et chercheuses Inria Grenoble - Rhône-Alpes est de concevoir des méthodes algorithmiques efficaces pour faire de même à l’échelle des atomes. Pourquoi ? Pour modéliser et simuler des systèmes nanométriques complexes. Qu'il s'agisse de nanosystèmes naturels comme les protéines ou artificiels comme des structures mécaniques miniatures.

Le problème est ardu compte tenu du grand nombre d’atomes en jeu mais aussi de la durée et de la complexité des phénomènes à simuler. Autant de verrous qui rendent ces simulations trop coûteuses. Disposer de méthodes efficaces devient alors très intéressant. Les chercheurs développent en particulier de nouvelles approches adaptatives qui concentrent automatiquement les moyens de calcul sur les parties les plus pertinentes des nanosystèmes étudiés.

STEEP :  Modéliser le développement durable

Arbitrer la construction d’un barrage, estimer l’impact d’un projet d’urbanisation, choisir une technologie de traitement de déchets : autant de choix technologiques qui auront des répercussions en matière de développement durable. Or les collectivités locales, des communautés de communes aux régions, manquent cruellement d’outils pour faire ces choix.

Pour y remédier, des chercheurs et chercheuses Inria Grenoble Rhône-Alpes explorent deux nouveaux types d’outils d’aide à la décision. Le premier simule ces systèmes complexes où de nombreux facteurs interagissent, notamment des facteurs humains. Objectif : anticiper les impacts de ces choix politiques sur la biodiversité et les ressources locales… y compris de façon prospective en fonction de scénarios climatiques ou d’évolutions économiques globales. Le deuxième outil développé vise à optimiser les choix en termes de coût tant du point de vue économique qu’environnemental ou sociétal.

TAPDANCE

Imaginez que nous puissons contrôler la matière à l'échelle nanométrique de manière sophistiquée, comme nous contrôlons les informations à l'aide des ordinateurs. Cette forme de contrôle ultime conduirait à des médicaments intelligents qui agiraient comme des soignantes et soignants moléculaires, diagnostiquant et guérissant les patientes et patients, ainsi qu'à des procédés efficaces de fabrication chimique qui exploiteraient les interactions logiques à l'échelle nanométrique. L'équipe Inria TAPDANCE se concentre à la fois sur la théorie et la mise en œuvre pratique de TELS ordinateurs moléculaires:

  • Nous inventons de nouveaux modèles d'ordinateurs moléculaires et caractérisons mathématiquement leur puissance de calcul.
  • Nous concevons et ingénierons des ordinateurs moléculaires en laboratoire, en utilisant l'ADN comme matériau de construction.

TAPDANCE est l'acronyme pour Theory and Practice of DNA Computing Engines .

Mots-clés : Interaction homme-machine Intelligence artificielle Robotique Climat Développement durable Biodiversité Nano-systèmes Informatique Graphique Mécanique computationnelle

Haut de page

Suivez Inria