http://www.inria.fr/centre/saclay/actualites/(view_mode)/rss fr Les actualités d'Inria Saclay - Ile-de-France Retrouvez toutes les actualités du centre de recherche Inria Saclay - Ile-de-France Mon, 03 Dec 2012 00:28:21 +0100 Francis Maes en visite dans l'équipe Tao http://www.inria.fr/centre/saclay/actualites/francis-maes-en-visite-dans-l-equipe-tao <p>Francis Maes, de l'Université de Leuwen, est en visite pour un mois, du 20 novembre au 20 décembre 2012 dans l'équipe Tao.</p> Excellent paper award pour l'équipe Tao pour le papier "Strategic Choices: Small Budgets and Simple Regret" http://www.inria.fr/centre/saclay/actualites/excellent-paper-award-pour-l-equipe-tao-pour-le-papier-strategic-choices-small-budgets-and-simple-regret <p>Excellent paper award à la conférence en Technologies et Applications en Intelligence Artificielle TAAI 2012 pour le papier &quot;Strategic Choices: Small Budgets and Simple Regret&quot; d'Olivier Teytaud (équipe Tao), Chen-Wei Chou, Ping-Chiang Chou, Chang-Shing Lee, David Lupien St-Pierre, Mei-Hui Wang, Li-Wen Wu et Shi-Jim Yen.</p> Nozha Boujemaa, chevalier de l'Ordre National du Mérite http://www.inria.fr/centre/saclay/actualites/nozha-boujemaa-chevalier-de-l-ordre-national-du-merite ]]> <p>Nozha Boujemaa, directrice du centre Inria Saclay - Île-de-France, a été distinguée au grade de chevalier de l'Ordre National du Mérite, selon le décret PREX1238852D du 14 novembre 2012.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc585372_0_0_1" id="eztoc585372_0_0_1" class="anchor"></a><h5>L'ordre National du Mérite</h5><p> L’Ordre National du Mérite est un ordre français qui a été institué le 3 décembre 1963 par le général de Gaulle. Il récompense les mérites distingués, militaires (d'active et de réserve) ou civils, rendus à la nation française. Il remplace d'anciens ordres ministériels et coloniaux.<br /> Il comprend trois grades : chevalier, officier et commandeur, et deux dignités : grand officier et grand-croix.<br /> La nomination dans l'Ordre National du Mérite peut se faire par proposition ministérielle ainsi que par la procédure d'initiative citoyenne.</p> </div> </div> La preuve mathématique par informatique ! http://www.inria.fr/centre/saclay/actualites/la-preuve-mathematique-par-informatique ]]> <p>Une démonstration formelle complète, certifiée par le logiciel Coq, a été annoncée en septembre par Georges Gonthier et son équipe du laboratoire commun Inria Microsoft Research.</p> <p>Ces travaux rendent artificielle l’opposition entre informatique et mathématiques, le dénominateur commun étant la logique. Parmi les &quot;compagnons de route&quot; de Georges Gonthier, deux jeunes chercheurs se réjouissent d’avoir participé à l’aventure et &quot;grandi&quot; avec le projet Mathematical Components (MathComp). Témoignages…</p> <a name="eztoc583510_1" id="eztoc583510_1" class="anchor"></a><h3>Vous sentez-vous privilégié(e) d’avoir contribué au succès des derniers travaux de Georges Gonthier ?</h3> <div class="object-right"> <p class="illustration" style="width:266px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/saclay/actualites-images/saclay_assia_mahboubi_260x195/583523-1-fre-FR/saclay_assia_mahboubi_260x195_xml_small.jpg" width="260" height="195" alt="" title="" /> </span> <span class="legende"> <cite>© Inria / Photo Kaksonen</cite> </span> </p></div> <p> <strong>Assia Mahboubi, chargée de recherche chez Inria depuis 2007 et membre de l'équipe MathComp depuis 2006.</strong><br /> Georges Gonthier jouissait déjà d'une grande notoriété avant le succès de ce projet autour de la preuve formelle du théorème de Feit-Thompson. Ses contributions dans le domaine de l'informatique sont multiples, mais sa vérification du théorème des 4 couleurs, en collaboration avec Benjamin Werner (Inria) a jeté un coup de projecteur sur notre thématique.</p> <br class="clear" /> <div class="object-left"> <p class="illustration" style="width:266px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/saclay/actualites-images/saclay_enrico_tassi_260x195/583527-1-fre-FR/saclay_enrico_tassi_260x195_xml_small.jpg" width="260" height="195" alt="" title="" /> </span> <span class="legende"> <cite>© Photo Bernard Lachaud</cite> </span> </p></div> <p> <strong>Enrico Tassi,&nbsp; chargé de recherche chez Inria depuis septembre 2012 après un post-doc sur le projet (terminé fin 2011). A travaillé sur le projet dans le cadre de son doctorat à Bologne (Italie) pendant 6 mois (fin 2006/début 2007).</strong><br /> L’idée de faire des maths avec un ordinateur, et avec pour but de vérifier la preuve, m’a beaucoup plu. L’étude et le développement d’outils comme Coq ont effectivement été au cœur de mes études en master et thèse. Le laboratoire commun Inria-Microsoft Research venait d’être créé et c’était une excellente opportunité pour venir travailler avec les meilleurs experts du domaine.</p> <br class="clear" /> <a name="eztoc583510_2" id="eztoc583510_2" class="anchor"></a><h3>Que représente pour vous ce domaine de recherche et quel est le fond de votre motivation ?</h3><p><strong>Assia Mahboubi</strong>&nbsp;: Il s'agit d'une activité assez transverse qui questionne la notion philosophique de vérité mathématique aussi bien qu'elle peut apporter des réponses aux besoins modernes de sécurité informatique. Il est extrêmement difficile d'avoir une confiance absolue dans la preuve d'un théorème. Nous essayons de transcrire les énoncés mathématiques et leur démonstration dans le langage très simple et parfaitement codifié qu'est la logique, pour qu'un ordinateur puisse nous aider à les vérifier. Cette recherche a de multiples aspects, et pose de nombreuses questions : qu'est-ce qu'une preuve mathématique? Qu'est-ce qu'un programme ? Qu'est-ce que la logique ?</p> <p><strong>Enrico Tassi</strong>&nbsp;: Quand un argument est-il valide? Ce problème a été étudié pendant des centaines d’années, depuis les philosophes comme Aristote aux mathématiciens tels Hilbert et Gödel. Notre recherche essaie de répondre positivement aux questions suivantes : les ordinateurs peuvent-ils assister l’homme à formuler des arguments complexes et originaux sans induire d’erreur ?&nbsp; Peuvent-ils aider les scientifiques face à la complexité croissante des théories mathématiques qu’ils développent ?</p> <a name="eztoc583510_3" id="eztoc583510_3" class="anchor"></a><h3>Comment vous projetez-vous à la lumière du projet aujourd’hui abouti ?</h3><p><strong>Assia Mahboubi</strong>&nbsp;: L’idée de s'aider d'un ordinateur pour faire des preuves n'est pas nouvelle : c'est un domaine d’investigation chez Inria depuis plusieurs décennies. La nouveauté avec ce succès c'est que l'approche passe à l'échelle pour de « grosses preuves » et de « grands théorèmes ». De nombreux domaines utilisant des programmes informatiques&nbsp; critiques (aéronautique, cryptographie...) bénéficient déjà des applications de ce domaine de recherche. Mais maintenant, nous pensons qu'il peut aussi intéresser un spectre plus large de scientifiques, incluant des mathématiciens n'utilisant jusqu'à présent que papier et tableau noir.</p> <p><strong>Enrico Tassi</strong>&nbsp;: Le projet terminé montre qu’on pouvait vérifier des théories mathématiques complexes avec un ordinateur. Mais le travail n'est pas fini car il faut encore rendre cette technologie utilisable par tous les scientifiques, et pas seulement par les experts de preuve formelle comme nous.</p> "Notre diagramme de travail ressemblait à un plan de guerre napoléonienne !" http://www.inria.fr/centre/saclay/actualites/notre-diagramme-de-travail-ressemblait-a-un-plan-de-guerre-napoleonienne-! ]]> <p>Six années se sont écoulées entre le début du projet et la fin de la preuve du théorème de Feit et Thompson réalisée le 20 septembre 2012. Récit d’une aventure moderne.</p> <p>Entretien avec Georges Gonthier, laboratoire commun Microsoft Research-Inria.</p> <a name="eztoc583490_1" id="eztoc583490_1" class="anchor"></a><h3>Quel était l’objectif du projet ?</h3><p> Il s’agissait de traduire le sens de l’énoncé mathématique sous une forme compréhensible pour l’ordinateur afin que ce dernier puisse déterminer si la démonstration est correcte et complète. La démonstration est en fait le but ultime qui permet de tester tous les développements réalisés en amont et nécessaires pour la réaliser. En effet, cette démonstration s’appuie sur de nombreux domaines mathématiques : l'algèbre linéaire, la géométrie, la théorie des nombres, la théorie de Galois, des corps finis, etc. Il fallait développer les bibliothèques de mathématiques nécessaires pour réaliser toutes les étapes de la démonstration.<br /> Nous avons ainsi passé les 3 premières années à codifier les mathématiques plus simples, puis une année à réaliser une première moitié de la démonstration qui reposait sur ces types de mathématiques. Une autre année a été nécessaire pour développer les outils pour une autre branche des mathématiques, puis une dernière année pour la 2<sup>e</sup> &nbsp;partie de la démonstration.</p> <a name="eztoc583490_2" id="eztoc583490_2" class="anchor"></a><h3>Comment a été organisé le travail sur ces 6 années ?</h3><p>Une dizaine de chercheurs et de post-doctorants ont contribué à ce travail à des degrés différents et pendant des périodes de temps différentes. En tant que coordinateur j’étais à temps complet sur le problème. Le travail était nécessairement réparti du fait de la dispersion géographique des participants à Cambridge, Inria Saclay et Inria Sophia Antipolis. Mais plusieurs chercheurs pouvaient travailler sur le même problème sur un site donné. Pour le dernier bout de preuve le 20 septembre, tout le monde a mis la main à la pâte !</p> <a name="eztoc583490_3" id="eztoc583490_3" class="anchor"></a><h3>Aviez-vous prévu que ce travail prenne autant d’années ?</h3><p>J’avais déjà acquis une expérience avec la démonstration du théorème des quatre couleurs. Je savais que la mise en place des fondements est longue avant de voir ensuite effectivement le travail avancer : il faut comprendre comment construire les bibliothèques avant de les réaliser et, but ultime, de les tester par cette preuve. J’avais prévu que l’ensemble prendrait 5 à 6 ans. Donc pas de surprise de ce côté ! Pour mes collègues en revanche c’était différent. Lorsque j’ai griffonné il y a 6 ans un diagramme représentant toutes les parties à développer et leurs interconnexions, mon auditoire a conclu au plan d’une guerre napoléonienne ! Le 20 septembre j’ai reçu une photo de moi accoutré d’un bicorne !</p> <a name="eztoc583490_4" id="eztoc583490_4" class="anchor"></a><h3>Avez-vous eu des surprises au cours de ce travail ?</h3><p> Nous avons eu quelques bonnes surprises, notamment sur la manière d’écrire les bibliothèques afin d’être en mesure de les assembler de manière flexible. C’était un problème de fond que nous avons abordé en nous appuyant sur le même principe que pour réaliser les composants logiciels facilement connectables entre eux : en ajoutant une partie de code stipulant comment se combiner avec d’autres logiciels. Et là, j’ai découvert que l’on pouvait utiliser le même mécanisme que pour l’interprétation des annotations mathématiques et que Coq disposait des outils nécessaires.<br /> Nous avons également identifié quelques erreurs de transcription sans conséquences dans la démonstration grâce au programme.</p> <a name="eztoc583490_5" id="eztoc583490_5" class="anchor"></a><h3>Quel est l’impact de ce travail ?</h3><p>Le fait que l’on arrive à faire par ordinateur un problème réputé difficile montre qu’il y a des progrès réalisés dans la qualité des outils et des techniques mis en œuvre dans ce travail de codification des mathématiques. C’est un peu tôt pour juger de l’impact de cette démonstration. Mais nos résultats ont été rendus disponibles au fur et à mesure de leur élaboration et les bibliothèques développées ont déjà été reprises : aujourd’hui un nombre important de publications utilisent Coq et notre bibliothèque. Il nous faut maintenant mettre l’accent sur la diffusion de nos résultats qui a été un peu mise de côté durant ces années.</p> <a name="eztoc583490_6" id="eztoc583490_6" class="anchor"></a><h3>Et y a-t-il une suite prévue pour ces travaux ?</h3><p>Nous devons aujourd’hui tirer les leçons de l’expérience réalisée pour préparer des outils pour la suite et prendre le temps de la réflexion. La notoriété aidant, nous avons déjà reçu des suggestions de problèmes. La suite naturelle serait le théorème de classification complet mais c’est une entreprise qui dépasse de loin les moyens humains du labo commun. Il faudrait y associer les labos de mathématique du monde entier ! J’ai aussi quelques idées de mon côté mais rien n’est encore décidé.</p> Un grand succès pour la preuve informatique http://www.inria.fr/centre/saclay/actualites/un-grand-succes-pour-la-preuve-informatique ]]> <p>6 ans après la démonstration par ordinateur du théorème des quatre couleurs, Georges Gonthier et son équipe réussissent la démonstration, autrement plus complexe, du théorème de Feit et Thompson, un théorème central pour la théorie des groupes et leur classification. Grand pas pour les mathématiques, qui s’appuient de plus en plus sur la preuve par ordinateur, c’est surtout une réussite pour l’informatique qui montre là sa capacité à déployer des outils et des techniques de qualité pour codifier les mathématiques.</p> <p>Après la validation du théorème des quatre couleurs par le logiciel de certification Coq en 2005, c’est au tour du théorème de Feit et Thompson de passer dans la moulinette de la preuve informatique. La difficulté était cependant incomparable car, si le théorème des quatre couleurs n’utilise que des mathématiques combinatoires élémentaires, le théorème de Feit et Thompson s’appuie sur des mathématiques embrassant, grosso modo, le programme jusqu’à la licence ! Il est également plus long, avec ses 250 pages de démonstration, et les enjeux autrement importants, avec des applications dans de nombreux domaines scientifiques modernes, de la mécanique quantique à la cryptographie, en passant par la cristallographie.</p> <p>Réussir à faire la preuve que cette démonstration est correcte et complète est donc une entreprise de taille que Georges Gonthier et son équipe, Laurence Rideau, <a href="/centre/saclay/actualites/la-preuve-mathematique-par-informatique" target="_self">Assia Mahboubi</a>, <a href="/centre/saclay/actualites/la-preuve-mathematique-par-informatique" target="_self">Enrico Tassi</a>&nbsp;et bien d'autres, ont mis 6 ans à achever. Il s’agit en effet de faire &quot;comprendre&quot; la démonstration à l’ordinateur et pour cela il est nécessaire de lui &quot;enseigner&quot; toutes les mathématiques dont il aura besoin : théorèmes, démonstrations, etc., mais aussi la manière de s’en servir, une compétence qui transparaît uniquement dans les notations présentes dans la partie des livres de cours consacrée aux exercices. La principale difficulté résidait dans la codification de cette partie opérationnelle. Les chercheurs ont été aidés en cela par leur formation d’informaticiens rompus à l’utilisation de langages permettant de décrire les procédés utilisés, et grâce aux règles cachées que les chercheurs ont identifiées derrières les notations mathématiques. Une ligne de mathématique peut ainsi correspondre à un contenu implicite de 2 pages !</p> <p>Au final : une bibliothèque informatique de mathématiques imposante et un enrichissement de la boîte à outils Coq et de son environnement. Les chercheurs ont ainsi développé un langage au-dessus de Coq qui permet de décrire des démonstrations compliquées. La preuve a également permis de tester les capacités du logiciel de certification. Il faut 1h40 pour compiler les 170 000 lignes de la démonstration.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc583268_1" id="eztoc583268_1" class="anchor"></a><h3>Le théorème qui a fondé l’algèbre moderne</h3><p> Le théorème de Feit et Thompson est la pierre angulaire de la théorie des groupes moderne, et donc de la classification des groupes simples, qui est elle-même la pierre angulaire de l’algèbre moderne. La théorie des groupes étudie les opérations réversibles, ce qui devient vite compliqué lorsque le nombre de dimensions augmente. Elle trouve des applications dans des domaines très variés dont la plus ancienne historiquement est la cristallographie : la théorie des groupes permet d’interpréter les interférences provoquées par l’illumination d’un cristal par les rayons X afin d’en déduire la structure du cristal. Dans le domaine grand public, la théorie des groupes est à l’origine de casse-tête comme le rubik’s cube pour lequel chaque manipulation est réversible. <br /> &nbsp;Les recherches mathématiques sur les groupes se sont développées au milieu du 20<sup>e</sup> &nbsp;siècle lorsque l’on s’est aperçu qu’ils étaient très utiles. Les mathématiciens ont voulu étudier leurs propriétés en utilisant une méthode consistant à factoriser les groupes, c’est-à-dire à les décomposer en facteurs de groupes élémentaires (dits simples) à la manière des entiers décomposés en facteurs de nombres premiers (30=2*3*5). Cette méthode permet de restreindre l’analyse des propriétés à celle des groupes simples, qui peut se faire systématiquement grâce à une classification énumérant toutes les formes possibles de groupes simples (3 types génériques et 26 exceptions). En 1955 Brauer avait montré que l’on pouvait classifier un groupe en étudiant ses involutions, mais cette technique ne fonctionne pas pour les groupes d’ordre impair. C’est là qu’intervient le travail de Feit et Thompson qui, en démontrant que tous les groupes impairs sont résolubles, a ouvert la voie à l’étude des groupes pairs. Ils ont également fourni des méthodes totalement nouvelles et sont à l’origine d’un changement de perspective dans les mathématiques. La publication du théorème en 1963 prenait en effet la forme d’un article comptant 250 pages, ce qui était inédit à une époque où les démonstrations mathématiques élégantes les plus longues ne dépassaient pas 20 pages. De quoi alimenter des doutes sur le sérieux du travail ! La classification des groupes simples d’ordre pair, qui s’est poursuivie jusqu’en 2003, fait pour sa part 10 000 pages… </p> </div> </div> Le Castor informatique, une découverte ludique de l’informatique par les élèves http://www.inria.fr/centre/saclay/actualites/le-castor-informatique-une-decouverte-ludique-de-l-informatique-par-les-eleves Mon, 5 Nov 2012 12:12:35 GMT ]]> <p>Le Castor informatique est un concours pour les élèves de collèges et lycées, à base de petits exercices et de jeux, pour leur montrer que l’informatique ne correspond souvent pas à ce qu’ils imaginent ! Sylvie Boldo, chercheuse dans l’équipe Toccata, et qui fait partie du comité d’organisation, nous explique l’originalité de cette initiative.</p> <a name="eztoc570824_1" id="eztoc570824_1" class="anchor"></a><h3>Comment fonctionne le concours Castor informatique ?</h3><p> L’une des grandes forces du concours, c’est qu’<strong>au niveau logistique c’est très léger</strong>&nbsp;: tous les élèves d’une école ne sont pas obligés d’être regroupés au même endroit, il suffit d’avoir des ordinateurs connectés à internet et 45 min devant soi. Au niveau des résultats, la correction se fait automatiquement en ligne, ce qui permet d’accueillir un grand nombre de participants jusqu’au dernier moment : <strong>il est encore possible de s’inscrire pour participer la semaine prochaine</strong>&nbsp;! Cette facilité d’organisation permet que l’initiative se mette en place un peu partout.<br /> Ce qui est intéressant dans le Castor, c’est que le professeur fait normalement <strong>participer toute sa classe</strong>, il n’y a de sélection des bons élèves contrairement à d’autres concours où il y a une pré-sélection par les enseignants ou avec des tests. Ça évite que les professeurs ne proposent que les bons en maths qui sont généralement considérés comme les bons en informatique, alors que ça peut relever de logiques très différentes. Le but est vraiment de faire participer le plus grand nombre d’élèves possible parce que l’informatique est accessible à tous. Un autre aspect qui m’interpelle, du fait de la participation d’une classe entière, c’est que du coup les filles sont présentes. L’année dernière, elles représentaient 46 % des 46 000 élèves au total en France.</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>Rendre les élèves actifs de leur découverte de l’informatique</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <a name="eztoc570824_2" id="eztoc570824_2" class="anchor"></a><h3>Le concours se déroule dans plusieurs pays, comment se passe cette coordination internationale ?</h3> <div class="object-right"> <p class="illustration" style="width:266px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/saclay/actualites-images/saclay_probleme_castor_informatique_260x195/570813-1-fre-FR/saclay_probleme_castor_informatique_260x195_xml_small.jpg" width="260" height="195" alt="" title="" /> </span> <span class="legende"> Exemple d'exercice </span> </p></div> <p> La France est bien impliquée dans le comité d’organisation puisque nous sommes 13 professeurs, chercheurs ou représentants d’associations à travailler à la préparation du concours. Cette année je n’ai pas pu <strong>concevoir les exercices</strong>, je le ferai l’année prochaine, mais j’en ai fait la <strong>sélection avec le choix des niveaux</strong>&nbsp;(6<sup>e</sup> -5<sup>e</sup> &nbsp;/ 4<sup>e</sup> -3<sup>e</sup> &nbsp;/ 2<sup>nde</sup> &nbsp;/ 1<sup>ère</sup> -Terminale). Il y a entre 15 et 20 questions par niveau, et nous veillons à ce qu’il y ait au moins un tiers d’exercices facilement accessibles, même si l’on aurait plus tendance à choisir des exercices difficiles parce qu’ils nous paraissent plus drôles, avec plus de notions abordées. Il faut aussi essayer qu’il y ait un <strong>équilibre thématique</strong>&nbsp;par exemple avec de l’algorithmique, de la programmation, des usages de l’informatique…<br /> Un travail très intéressant qui arrive en complément de la création des jeux, c’est la rédaction pour chaque question des explications <strong>« Pourquoi c’est de l’informatique »</strong>. En effet, c’est important de relier les exercices à de la science, sur laquelle les chercheurs travaillent ou que les gens utilisent. Au final, le concours regroupe des élèves de 17 pays européens, donc il faut imaginer que certains exercices vont être faits par les élèves de tous ces lieux différents !</p> <a name="eztoc570824_3" id="eztoc570824_3" class="anchor"></a><h3>Qu’est-ce qui vous plaît dans l’aventure Castor informatique ?</h3><p> Tout d’abord, à un premier niveau, ça permet à plein d’élèves de faire de l’informatique, car derrière ces jeux, il y a des vrais problèmes. <strong>Sous des aspects ludiques, on montre une science</strong>. Ça offre une <strong>rencontre entre des élèves qui n’y connaissent rien et l’informatique</strong>, ce qui leur permettra après de peut-être s’orienter vers ce domaine en connaissance de cause. Ça leur montre que c’est pour tout le monde, que ça peut être à leur portée, et du coup ça permet de casser l’image du geek asocial et incompréhensible.<br /> Ça me plaît aussi parce que c’est une <strong>œuvre collective à destination d’un public réceptif</strong>. Les élèves, plus que les adultes, sont ouverts à cette découverte, ils utilisent les ordinateurs, mais ne connaissent rien à l’informatique. Ce concours leur permet de pressentir ce qui est sous le capot et de les rendre actifs de leur découverte de l’informatique. Je suis sensible à cette notion d’être actif dans son apprentissage, car comme ils sont dans un rapport de jeu et pas passifs à écouter un cours, ça les intéresse beaucoup plus. Et leur montrer qu’ils peuvent prendre du plaisir à résoudre des problèmes, c’est une belle réussite.</p> Trouver la géométrie dans une meule de points http://www.inria.fr/centre/saclay/actualites/trouver-la-geometrie-dans-une-meule-de-points Fri, 26 Oct 2012 12:35:01 GMT ]]> <p>Frédéric Chazal, directeur de recherche dans l'équipe Geometrica, explique les grands principes du domaine de recherche de son équipe en calcul géométrique en se basant sur des exemples concrets d'images.</p> <p>Grâce aux progrès récents de l’informatique, la représentation et la manipulation virtuelle d’objets physiques réels 3D sont devenues ces dernières années une nécessité et une pratique courante dans de nombreux domaines de l’industrie, de la science et même de la vie de tous les jours. Les exemples sont nombreux : un archéologue découvrant une statue peut la scanner et en envoyer en quelques instants un modèle numérique à un expert situé à des milliers de kilomètres afin d’avoir un avis ; un géographe ayant relevé les coordonnées de nombreux points sur un massif montagneux peut en extraire une carte 3D ; une entreprise disposant d’un prototype de pièce mécanique (comme celle de la figure ci-dessous) peut la scanner pour en obtenir un modèle numérique sur lequel elle pourra simuler différents type d’opérations (tests de déformation sous différentes contraintes, tests d’aérodynamisme…) et qu’elle pourra aussi envoyer à une usine qui reproduira la pièce à l’autre bout du monde…</p> <div class="object-center"> <p class="illustration" style="width:606px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/saclay/actualites-images/saclay_geometrica1/569098-1-fre-FR/saclay_geometrica1_reference.jpg" width="600" height="242" alt="" title="" /> </span> <span class="legende"> <cite>© AIM@SHAPE Shape Repository</cite> </span> </p></div> <p>Dans chacun de ces cas, l’obtention du modèle numérique 3D nécessite de &quot;reconstruire&quot; une représentation continue de l’objet utilisable par l’ordinateur à partir des coordonnées d’un ensemble fini de points mesurés à sa surface. Il s’agit d’un problème délicat, connu sous le nom de &quot;reconstruction de surface&quot;, qui a été largement étudié depuis une vingtaine d’années et pour lequel des solutions algorithmiques variées ont été proposées. Le rôle du mathématicien est de proposer des méthodes et des algorithmes permettant d’obtenir une surface ayant les mêmes caractéristiques géométriques et qui soit le plus proche possible de l’objet physique mesuré. Ce n’est que récemment que des résultats mathématiques généraux assurant la validité de nombreux algorithmes ont été établis. Étonnamment, ils reposent sur des idées très simples que nous allons esquisser dans cet article.</p> <a name="eztoc569125_1" id="eztoc569125_1" class="anchor"></a><h3>Reconstruire en remplaçant les points par des boules</h3><p>Une idée très simple pour retrouver la géométrie de l’objet considéré à partir d’un ensemble de points mesurés à sa surface consiste à remplacer chaque point par une boule de rayon fixé centrée en ce point et à considérer la réunion de ces boules comme illustré sur la figure ci-dessous. On considère un objet en forme de bouée (ou de donut pour les gourmands) comme celui de la figure ci-dessous, appelé tore en termes mathématiques. Grâce à un scanner ou à un autre instrument de mesure on échantillonne cet objet en relevant les coordonnées d’un ensemble de points à sa surface (image de gauche). On fixe alors un nombre r , et on considère la réunion des boules de rayon r centrées en chacun des points de l’échantillonnage. Évidemment, si le rayon des boules (c’est-à-dire le nombre r) est choisi trop petit, leur réunion est pleine de trous et ne reflète pas la géométrie du tore (image du milieu). En revanche, pour un choix judicieux du rayon, nous obtenons une forme dont la surface, appelée bord en mathématiques, est semblable à celle du tore (image de droite) : elle est proche de l’objet initial et a la propriété de pouvoir être déformée continument en l’objet initial sans se recouper ou se déchirer. On dit alors que notre surface reconstruite est isotope à notre objet initial.</p> <div class="object-center"> <p class="illustration" style="width:606px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/saclay/actualites-images/saclay_geometrica2/569102-1-fre-FR/saclay_geometrica2_reference.jpg" width="600" height="470" alt="" title="" /> </span> <span class="legende"> À partir d’un ensemble de points mesurés à la surface du tore couleur cuivre ci-dessus (image de gauche) on peut retrouver une surface proche en remplaçant chaque point par une boule de rayon convenable (image de droite). </span> </p></div> <p>Bien sûr, même si elle se confirme sur bon nombre de cas pratiques, la constatation précédente n’a pas valeur de résultat général et il est facile d’imaginer des situations où notre idée ne permet pas de reconstruire correctement la surface de l’objet échantillonné. Par exemple, si le nombre de points mesurés est insuffisant, oubliant de larges zones de l’objet, ou si certaines mesures sont erronées et représentent des points éloignés de l’objet (comme c’est le cas sur la figure ci-dessous), aucun choix de rayon des boules ne permettra de retrouver la géométrie de l’objet. Cependant, les mathématiques permettent d’identifier le domaine de validité de notre méthode et de transformer l’idée simple de départ en un résultat de reconstruction rigoureux. On dit que l’objet et l’échantillon sont proches au sens de Hausdorff lorsque tous les points de l’objet sont proches d’un point mesuré (aucune zone de l’objet n’a été oubliée) et lorsque tous les points mesurés sont proches de l’objet (il n’y a pas de mesure erronée). En utilisant quelques outils classiques (mais non élémentaires) de géométrie et d’analyse, il a été démontré que si l’échantillon des points mesurés et l’objet sont suffisamment proches au sens de Hausdorff alors il existe un choix de rayon pour lequel la surface obtenue en remplaçant chaque point de l’échantillon par une boule de ce rayon est isotope à la surface de l’objet initial.</p> <a name="eztoc569125_2" id="eztoc569125_2" class="anchor"></a><h3>Quand le bruit s’en mêle…</h3><p> Il n’est pas rare en pratique que l’ensemble des points mesurés contienne des valeurs erronées créant des points aberrants loin de l’objet étudié. Les boules centrées sur ces points créent alors des composantes &quot;parasites&quot; conduisant à un résultat désastreux (voir la figure ci-dessous). Dans ce cas, l’échantillon n’est plus proche de l’objet au sens de Hausdorff et le résultat de reconstruction énoncé précédemment n’est plus valable.<br /> </p> <div class=""> <p class="illustration" style="width:606px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/saclay/actualites-images/saclay_geometrica3/569106-1-fre-FR/saclay_geometrica3_reference.jpg" width="600" height="224" alt="" title="" /> </span> <span class="legende"> Lorsque l’ensemble échantillonné à la surface du tore contient des points aberrants (image de gauche), remplacer les points par des boules a un effet catastrophique : les points aberrants créent des composantes parasites qui ne permettent plus de retrouver la géométrie de l’objet de départ (image du milieu). L’image de droite représente une surface de niveau de la fonction &quot;moyenne des distances aux 5 plus proches voisins&quot; : elle est un peu &quot;cabossée&quot; mais on retrouve la géométrie du tore échantillonné ! </span> </p></div> <p>Pour surmonter cette difficulté, il nous faut revenir sur l’approche précédente avec un regard un peu plus mathématique qui va nous indiquer la piste à suivre. La réunion de l’ensemble des boules d’un rayon R centrées sur l’échantillon est exactement l’ensemble des points de l’espace situés à distance inférieure à R d’un point de l’échantillon. De plus, la surface bordant cette union est l’ensemble des points qui se situent exactement à distance R de l’ensemble des points de l’échantillon. En d’autres termes, la surface que nous reconstruisons est une surface de niveau de la fonction qui à chaque point de l’espace associe sa distance au point qui lui est le plus proche dans l’échantillon. On parle alors de fonction distance à l’échantillon. C’est l’étude des propriétés mathématiques de ces fonctions distance qui permet de prouver le résultat de reconstruction énoncé précédemment. Pour obtenir une méthode de reconstruction valide en présence de points aberrants, l’idée consiste à remplacer la fonction distance à l’échantillon par une nouvelle fonction dont certaines surfaces de niveau fourniront une reconstruction correcte de l’objet. Pour cela, plutôt que d’associer à chaque point de l’espace la distance à son plus proche voisin dans l’échantillon, on lui associe la moyenne des distances à ses k plus proches voisins où k est un nombre entier choisi plus petit que le nombre de points de l’échantillon. Le procédé de reconstruction consiste alors à choisir une des surfaces de niveau de cette nouvelle fonction &quot;moyenne des distances au k plus proches voisins dans l’échantillon&quot;. Nous l’illustrons pour un ensemble de points du plan sur la figure suivante.</p> <div class="object-center"> <p class="illustration" style="width:606px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/saclay/actualites-images/saclay_geometrica4/569110-1-fre-FR/saclay_geometrica4_reference.jpg" width="600" height="462" alt="" title="" /> </span> <span class="legende"> L’image en haut à droite représente un ensemble de 200 points du plan dont 150 ont été échantillonnés près d’un cercle de rayon 1 et les 50 autres sont des points &quot;aberrants&quot; choisis au hasard. Sur l’image en haut à droite, nous avons représenté la réunion des disques de rayon 1 centrés sur l’ensemble de points. Les points aberrants empêchent de retrouver la géométrie du cercle. Les deux images du bas représentent une courbe de niveau de la fonction &quot;moyenne des distances aux k plus proches voisins&quot; pour des valeurs de k=3 (à gauche) et k=5 (à droite). La zone en jaune représente l’ensemble des points où cette fonction est inférieure à 0,1. La courbe de niveau est donc celle délimitant la zone jaune de la zone rouge. On remarque que pour k=3 il reste encore 3 petites composantes parasites qui disparaissent pour k=5 permettant ainsi de retrouver une courbe de niveau ayant une géométrie proche de celle du cercle échantillonné. </span> </p></div> <p>On peut alors démontrer un résultat mathématique semblable à celui du paragraphe précédent valable pour des échantillons proches de l’objet en un sens beaucoup moins restrictif que celui de Hausdorff : si la proportion de points proches de l’objet au sens de Hausdorff est largement supérieure à la proportion de points aberrants (on parle dans ce cas de proximité au sens de Wasserstein) alors il existe une surface de niveau de la fonction « moyenne des distances » qui est isotope à la surface de l’objet échantillonné.</p> <a name="eztoc569125_3" id="eztoc569125_3" class="anchor"></a><h3>Inférence géométrique et analyse des données</h3><p>Une particularité intéressante de l’approche précédente est sa remarquable généralité. Elle permet d’étudier la structure géométrique d’ensembles finis de points sans se restreindre au cas de mesures effectuées à la surface d’objets physiques. Les progrès récents des moyens d’acquisition de données dans tous les domaines de la science, de l’économie ou même de la vie de tous les jours permettent d’obtenir d’immenses masses de données dont il faut comprendre la structure et l’organisation pour en tirer des informations pertinentes. Souvent, chaque observation est le résultat de mesures quantitatives (par exemple les coordonnées d’une position, une température, une intensité,…) qui peuvent être interprétées comme les coordonnées d’un point dans un espace de dimension 2, 3 ou plus, le nombre de dimensions étant égal au nombre de mesures pour chaque observation. On obtient ainsi des ensembles de points qui se concentrent autour de structures géométriques parfois complexes, comme par exemple dans le cas de la figure ci-dessous. Inférer et comprendre ces structures est un enjeu important de l’analyse des données qui génère depuis quelques années une importante activité de recherche mathématique. L’approche et les résultats que nous avons évoqués dans les paragraphes précédents pour la reconstruction de surfaces se généralisent à ce contexte d’analyse des données et apportent de nouveaux outils et méthodes mathématiques et algorithmiques pour l’inférence géométrique.</p> <div class="object-center"> <p class="illustration" style="width:606px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/saclay/actualites-images/saclay_geometrica5/569114-1-fre-FR/saclay_geometrica5_reference.jpg" width="600" height="236" alt="" title="" /> </span> <span class="legende"> Un exemple de données représentées par un ensemble de points portant une structure géométrique. L’image de gauche de la figure ci-dessus représente un ensemble de données où chaque élément est un point dont les coordonnées représentent la position d’une galaxie observée dans une portion de l’univers (on travaille ici à une échelle tellement grande qu’une galaxie peut être assimilée à un point !). Il est connu des astrophysiciens que les galaxies ne sont pas distribuées uniformément dans l’univers mais ont tendance à se concentrer autour de structures géométriques filamentaires. L’image de droite qui met en évidence ces structures filamentaires a été obtenue grâce à une adaptation des méthodes de reconstruction présentées dans cet article. </span> </p></div> <p><em>Une première version de ce document est parue sur le site <a href="http://images.math.cnrs.fr/Trouver-la-geometrie-dans-une.html" target="_blank">Image des mathématiques</a>&nbsp;du CNRS, en octobre 2012.</em></p> Des métadonnées pour mieux comprendre le passé http://www.inria.fr/centre/saclay/actualites/des-metadonnees-pour-mieux-comprendre-le-passe Fri, 5 Oct 2012 18:17:07 GMT ]]> <p>En 2014 aura lieu le centenaire de la Première Guerre Mondiale. Mais comment commémorer un tel événement avec des éléments historiques dispersés à travers toute l’Europe, sans qu’un travail exhaustif d’historiens ait pu être mis en place ? Laurent Romary nous explique avec le projet CENDARI comment les sciences du numérique peuvent apporter une solution à ce problème et servir l’ensemble des sciences humaines.</p> <a name="eztoc562086_1" id="eztoc562086_1" class="anchor"></a><h3>Pouvez-vous nous expliquer ce qu’est CENDARI et quel est votre objectif ?</h3><p> CENDARI est un projet européen qui renforce la <strong>collaboration entre chercheurs en sciences du numérique et historiens</strong>, avec pour objectif la mise en réseau des fonds d’archives répartis sur le continent européen. Cette initiative s’intègre plus généralement dans le projet d’infrastructure DARIAH qui vise à <strong>échanger autour des méthodologies et outils au service des sciences humaines</strong>. Inria en est partie prenante car j’en suis l’un des trois co-directeurs.<br /> CENDARI est centré sur la thématique de l’histoire, avec comme sujets la <strong>période médiévale et celle de la Première Guerre Mondiale</strong>. Pour ces deux époques, les historiens ont du mal à accéder à des données d’archives qui sont réparties un peu partout sur le territoire européen. Ils sont confrontés à deux problèmes. Tout d’abord, une très grande diversité des fonds documentaires, par exemple pour la Première Guerre Mondiale : posters, affiches, archives audio, vidéos, livres, objets, artefacts, costumes, cartes… Tous ces matériaux sont éparpillés un peu partout en Europe : en France bien sûr mais aussi en Serbie, en Pologne, en Russie…<br /> Tout le continent européen a été impacté donc c’est un peu partout que peut se faire ce travail de mémoire. Le deuxième obstacle est l’inégalité de connaissances des fonds disponibles. On connaît très bien par exemple les archives fédérales allemandes qui ont des descriptifs très précis, quand au contraire on ne sait quasiment rien des archives en Serbie. Le point positif est que l’on peut s’inspirer de bonnes initiatives un peu partout en Europe, comme le Manuscriptorium médiéval de la Bibliothèque nationale tchèque qui est un très bon exemple, pour pouvoir les reproduire ailleurs.</p> <a name="eztoc562086_2" id="eztoc562086_2" class="anchor"></a><h3>Concrètement, qu’est-ce que cela apporte aux autres chercheurs ?</h3> <div class="object-right"> <p class="illustration" style="width:266px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/saclay/actualites-images/saclay_premiere_guerre_mondiale_195x260/562045-1-fre-FR/saclay_premiere_guerre_mondiale_195x260_xml_small.jpg" width="260" height="347" alt="" title="" /> </span> <span class="legende"> Archives de l'Imperial War Museum </span> </p></div> <p> Notre but est de <strong>mettre les sciences du numérique au service des autres sciences</strong>, ici des sciences humaines et sociales. L’idée est de permettre à un chercheur d’<strong>être connecté à l’ensemble des données européennes pour pouvoir chercher une information</strong>&nbsp;sur un lieu particulier, sur une période précise, ou encore un personnage. Pour la Première Guerre Mondiale, on doit pouvoir retracer l’itinéraire d’un général russe à une certaine période, ou connaître le mode de vie des habitants d’un village autour de Verdun pendant le Chemin des Dames. On peut faire la même transposition dans la période médiévale pour comprendre comment une personne a pu se retrouver citée dans plusieurs parchemins en Europe.<br /> Pour cela, nous combinons deux thématiques complémentaires d’Inria. De mon côté, je m’occupe de la <strong>modélisation des métadonnées associées aux archives</strong>. Un fonds documentaire n’est exploitable que s’il est décrit de façon précise, c’est ce que l’on appelle les métadonnées. Je travaille pour que ces descripteurs qui vont identifier les contenus des archives soient intégrés dans un répertoire unifié où toutes les données sont normalisées : identifier les lieux, les personnes, etc. de façon harmonisée. Là encore, deux problématiques se posent. En premier lieu, qu’est-ce que l’on décrit, à quel niveau de granularité arrive-t-on : une région, un lieu, un lieu-dit... Ensuite, comment décrire de façon harmonisée des éléments si différents ? Des standards internationaux comme le <em>Text Encoding initiative (TEI)</em>&nbsp;ou <em>Encoding Archival Description (EAD)</em>&nbsp;sont utilisés pour décrire par exemple une vidéo, en mettant les bonnes « balises » sur le descriptif. En exploitant cette masse d’informations et en l’intégrant dans une énorme base de données, on parviendra ainsi à une extraction automatique d’informations. Le deuxième volet du travail d’Inria, dirigé dans ce projet par Jean-Daniel Fekete de l’équipe Aviz, est la <strong>visualisation de ces informations</strong>. En effet, face à un tel nombre de données, il est essentiel de pouvoir faire une recherche intelligente dans ces éléments, de permettre par une interface intuitive de filtrer automatiquement sur une période, sur un espace, sur un événement particulier.</p> <a name="eztoc562086_3" id="eztoc562086_3" class="anchor"></a><h3>Comment votre travail pourra-t-il servir d’autres chercheurs en sciences humaines ?</h3><p> La Commission Européenne nous a orientés sur un travail en histoire sur le Moyen-Âge et la Première Guerre Mondiale car cela nous permettait de commencer à travailler sur des exemples précis. Nous mettons les historiens dans une démarche de recherche sur le système que nous avons construit, et grâce à leurs retours nous pouvons savoir si l’interface est trop simple ou au contraire trop complexe, comment la faire évoluer, comment ils s’y retrouvent. Nous observons comment par exemple ils cherchent des corrélations de présence de deux personnes dans un même lieu, ou comment ils peuvent mettre en parallèle une décision militaire avec des actions sur le terrain. Cela nous permet d’affiner le modèle avant un élargissement, car bien sûr nos <strong>outils génériques d’exploration de fonds de données peuvent s’appliquer à d’autres périodes, et aussi à d’autres domaines en sciences humaines que l’histoire</strong>.<br /> À l’heure actuelle,&nbsp; pour les deux périodes qui nous sont confiées, nous nous concentrons sur une identification exhaustive des archives disponibles au niveau européen, un recueil maximal d’informations et un travail de standardisation optimal de ces données sur lesquelles nous testons nos méthodes. En parallèle, nous allons lancer un travail en commun avec deux autres projets liés à DARIAH, EHRI sur l’holocauste et ARIADNE sur l’archéologie. Nos méthodes de travail se rejoignent même si elles s’adressent à des communautés de recherche différentes. <strong>Comme l’intégration des données européennes dans un seul espace informationnel est un travail de longue haleine, nous souhaitons dès maintenant lancer des ponts entre nos expertises</strong>&nbsp;pour ne pas attendre la finalisation de nos projets au bout des 4 ans.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc562086_4" id="eztoc562086_4" class="anchor"></a><h3>&quot;Un haut lieu de mémoire dans l'environnement numérique&quot;</h3> <div class="object-left"> <p class="illustration" style="width:76px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/saclay/actualites-images/saclay_emiliano_degl_innocenti_70x110/562223-1-fre-FR/saclay_emiliano_degl_innocenti_70x110_medium.jpg" width="70" height="110" alt="" title="" /> </span> <span class="legende"> <cite>© Lorenza Tromboni</cite> </span> </p></div> <p><strong>Emiliano Degl'Innocenti, spécialiste des sciences humaines dans le monde numérique, responsable du laboratoire multimédia et numérique de la Società Internazionale per lo Studio del Medioevo Latino (SISMEL, organisation internationale d'étude de la culture latine médiévale) et de la Fondazione Ezio Franceschini (FEF, fondation Ezio Franceschini)</strong></p> <p>En tant que médiéviste et historien de la philosophie, je suis fasciné par l'histoire de la mnémotechnique dans le but de gérer la <strong>quantité croissante de données et de connaissances</strong>&nbsp;(impossible à gérer par un individu avec sa propre mémoire uniquement) à l'aide de moyens artificiels. La longue histoire du Moyen-Âge occidental est ponctuée de nombreuses tentatives visant à augmenter la mémoire naturelle de l'homme grâce à des systèmes de mémoire artificielle. J'ai également remarqué que nombre de nos attentes et attitudes, relatives aux informations et à l'environnement numériques dans leur ensemble, sont liées aux mêmes besoins que ceux inhérents à la gestion d'une grande quantité d'informations de plus en plus complexes.</p> <p>Finalement, en tant que chercheur dans le domaine des sciences humaines numériques, je constate chaque jour, et ce depuis des années, le fossé qui sépare les différentes sciences humaines (par ex. les médiévistes) avec leurs propres traditions, contenus et attentes, des spécialistes de l'informatique. De par sa nature et ses objectifs, je pense que CENDARI est l'emplacement idéal pour <strong>développer un type de collaboration tout aussi inédit qu'efficace</strong>&nbsp;entre les spécialistes des sciences humaines (historiens, archivistes, bibliothécaires, etc.) et les spécialistes de l'informatique. Depuis la phase de lancement du projet CENDARI, des spécialistes issus de disciplines informatiques et traditionnelles sont censés travailler en étroite collaboration et partager du contenu, des flux de tâches et des objectifs afin de créer une expérience totalement nouvelle pour les utilisateurs désireux d'effectuer des recherches dans l'environnement numérique. Je ne cesse de penser, en particulier pour les études médiévales, que pour modifier radicalement les méthodes de recherche, il nous faut basculer d'une ère centrée sur les bases de données à un nouveau genre de noosphère numérique. Des données davantage interopérables, l'annotation et l'intégration sémantiques avec différentes sources, la création de systèmes complexes de gestion des connaissances : <strong>un haut lieu de mémoire dans l'environnement numérique pour gérer, améliorer et préserver notre héritage culturel, avec la sensibilité des philosophes médiévaux et les outils de l'ère numérique</strong>.</p> </div> </div> Des outils pour mieux tirer parti de l’imagerie cérébrale http://www.inria.fr/centre/saclay/actualites/des-outils-pour-mieux-tirer-parti-de-l-imagerie-cerebrale Fri, 28 Sep 2012 11:06:21 GMT ]]> <p>L’imagerie cérébrale a beaucoup progressé ces dernières années, fournissant des données toujours plus nombreuses et de meilleure qualité.&nbsp; Développer des outils logiciels performants et fiables pour améliorer l’exploitation de ces images est aujourd’hui une nécessité. C’est là un rôle important d’Inria. L’équipe Parietal présente 4 articles sur ce thème à MICCAI 2012 et 4 contributions à des ateliers spécialisés, sans compter une démonstration sur le stand Inria.</p> <p>Bertrand Thirion, responsable de l'équipe Parietal, Inria Saclay - Île-de-France</p> <a name="eztoc559166_1" id="eztoc559166_1" class="anchor"></a><h3>Quelles sont les grandes avancées en imagerie cérébrale de ces dernières années ?</h3><p>L’imagerie cérébrale a beaucoup progressé grâce à l’amélioration des performances des équipements et au développement de techniques d’analyse des images de plus en plus sophistiquées. L’avènement de l’IRM à haut champ permet d’obtenir de très bonnes images de l’activation cérébrale. La résolution est aujourd’hui de 1 mm alors qu’elle était de 3 mm il y a seulement 5 ans. Les données sont donc de meilleure qualité et autorisent une étude plus fine des connexions fonctionnelles entre différentes régions du cerveau.</p> <p>Cette étude est facilitée de son côté par le développement de nouvelles techniques d’analyse de ces images qui estiment des modèles de plus en plus précis des connexions corticales. Ces techniques reposent sur des méthodes de calcul assez complexes qui doivent encore être améliorées.</p> <p>Un troisième aspect important de ce domaine de recherche se développe actuellement avec l’émergence de bases de données recueillant les énormes quantités de données sur le cerveau qui s’accumulent au fil des ans. Je pense qu’un grand défi pour le futur est de créer les outils nécessaires pour gérer ces bases de données d’imagerie. </p> <a name="eztoc559166_2" id="eztoc559166_2" class="anchor"></a><h3>Quels types d’outils sont nécessaires pour exploiter ces grandes bases de données ?</h3><p> Nous avons besoin de développer des outils informatiques permettant de réutiliser ces données, par exemple pour des méta-analyses. C’est intéressant, par exemple, pour comparer des données obtenues par des protocoles différents ou bien pour combiner des données d’expériences similaires afin de confirmer un résultat ou construire des hypothèses plus précises et plus objectives. La principale difficulté associée à la réalisation de ce type d’outils est de savoir comment gérer l’information associée aux images, notamment le protocole utilisé pour leur obtention. Une fois les données organisées, les technologies d’apprentissage trouvent leur place ici en permettant d’identifier automatiquement les caractéristiques communes à un grand nombre de données. Notre équipe présente, sur le stand Inria de MICCAI, une démonstration d’un logiciel qui offre les outils nécessaires à cette approche, Scikit learn.<br /> Un autre défi pour les informaticiens est d’être capable d’utiliser des images obtenues de modalité différente (anatomiques, fonctionnelles, etc.) pour offrir une information plus complète et précise sur une partie du cerveau. Nous présentons à MICCAI un travail qui porte sur la manière de mettre en commun deux sources d’informations : l’une, fournie par l’imagerie fonctionnelle, sur la formation dynamique de réseaux d’activation, et l’autre, apportée par l’IRM de diffusion, sur les fibres reliant différentes régions du cerveau. Le but est de combiner les deux types d’image pour faire un lien entre les fibres nerveuses et les réseaux d’activation et construire ainsi un meilleur modèle. Il est aussi possible d’utiliser une modalité pour guider l’interprétation de l’autre.</p> <a name="eztoc559166_3" id="eztoc559166_3" class="anchor"></a><h3>Peut-on envisager des applications médicales de ces avancées ?</h3><p>A moyen terme, ces travaux serviront pour l’étude de cohortes de patients, par exemple pour identifier des marqueurs de risque de maladie neuro-dégénérative dans une perspective de diagnostic et de pronostic. </p> Des outils modulaires et efficaces d’aide à l’interprétation des images médicales http://www.inria.fr/centre/saclay/actualites/des-outils-modulaires-et-efficaces-d-aide-a-l-interpretation-des-images-medicales Fri, 28 Sep 2012 10:18:41 GMT ]]> <p>L’imagerie médicale, scanner ou IRM, fournit de nombreuses données mais identifier l’évolution d’une maladie ou détecter une tumeur peu évolutive n’est pas chose aisée. L’équipe Galen développe des algorithmes visant à aider les médecins à identifier ces évolutions le plus tôt possible. Un travail avant tout méthodologique que l’équipe applique avec succès à de nombreuses applications comme en témoigne la forte contribution de ces chercheurs à MICCAI’2012 ainsi qu’aux colloques précédents.</p> <p>Nikos Paragios, responsable de l’équipe Galen, Inria Saclay – Île-de-France</p> <a name="eztoc559026_1" id="eztoc559026_1" class="anchor"></a><h3>Vous présentez quatre travaux à MICCAI 2012, qu’ont-ils de commun ?</h3><p>Notre contribution à ces quatre articles est méthodologique. Nous concevons des programmes intelligents capables d’aider les médecins à mieux interpréter les données médicales pour identifier les maladies et les traiter. Depuis une dizaine d’années, nous avons développé un cadre générique d’analyse des données basé sur la théorie des graphes qui permet d’obtenir des solutions avec de bonnes propriétés en ce que concerne leur optimalité, et efficaces au niveau du temps de calculs nécessaire. Il présente aussi l’avantage de pouvoir être décliné sur des problèmes qui touchent différents types de données, de maladies ou de populations. Ces travaux ont un impact direct sur les pratiques car nous résolvons ainsi des problèmes scientifiques très proches des préoccupations cliniques et plusieurs applications ont déjà fait l’objet de transferts technologiques et sont utilisées actuellement en milieu hospitalier.</p> <a name="eztoc559026_2" id="eztoc559026_2" class="anchor"></a><h3>Deux contributions touchent en effet directement l’interprétation d’images de malades ?</h3><p>Le premier travail, réalisé en collaboration avec le CHU de Montpellier et la société INTRASENSE, concerne la détection des tumeurs cérébrales et plus particulièrement des gliomes de type II, à partir des données fournies par les images scanner ou IRM des patients. Notre approche permet de trouver les correspondances entre un cerveau malade et un cerveau sain pour détecter les anomalies, et aussi d’établir ces correspondances dans le temps pour suivre l’évolution de la tumeur. Les outils que nous avons développés aident le médecin à identifier la tumeur et à décider du moment propice pour l’intervention.</p> <p>Un second travail, effectué avec les médecins des hôpitaux Henri Mondor et de la Pitié Salpêtrière et l’institut de Myologie, applique la méthodologie des graphes à la mesure du volume musculaire de patients atteints de myopathies. Ces maladies provoquent la fonte des muscles qui sont alors remplacés par des graisses. Etablir des correspondances dans le temps entre les images scanner ou IRM, permet de suivre l’évolution de la maladie mais aussi d’identifier les muscles touchés pour mieux cibler les traitements, comme la thérapie génique.</p> <a name="eztoc559026_3" id="eztoc559026_3" class="anchor"></a><h3>Quelles sont les applications visées dans les deux autres présentations que vous faites à MICCAI ?</h3><p>L’une d’elle applique la méthodologie à des populations de cellules dans une expérience effectuée par des biologistes et des informaticiens de l’université de Houston. Dans ce cas, la théorie des graphes est utilisée pour identifier les gènes actifs dans une cellule de souris en établissant des correspondances avec un modèle de base.</p> <p>Dans le dernier travail, la part de cette méthodologie est plus congrue. Il s’agit, pour General Electric, de développer des scanners ultra rapides en adoptant un mouvement intelligent du capteur qui permette de réduire le temps d’acquisition — donc d’exposition des patients aux rayonnements — pour une même qualité de reconstruction. Pour cela, des outils sophistiqués de reconstruction ont été développés (Sparsité/ méthodes parcimonieuses) qui intègreront la théorie des graphes pour prendre en compte les mouvements du patient ou des organes comme le cœur, afin de réduire les artefacts de reconstruction.</p> Le Laboratoire d'Excellence DigiCosme fait son inauguration http://www.inria.fr/centre/saclay/actualites/le-labex-digicosme-fait-son-inauguration Tue, 11 Sep 2012 17:30:44 GMT ]]> <p>À l'occasion du colloque d'inauguration du Labex DigiCosme les 12 et 13 septembre 2012, retour sur les origines et les ambitions de ce projet avec une interview de Christine Paulin-Mohring, en charge de son pilotage.</p> <a name="eztoc553351_1" id="eztoc553351_1" class="anchor"></a><h3>Le Labex DigiCosme* ne part pas de rien…</h3><p> Depuis les années 2000, différentes évolutions ont contribué à mieux structurer sur le Plateau de Saclay la recherche et la formation en informatique.<br /> &nbsp;L’arrivée d’Inria a marqué un premier tournant en favorisant des coopérations entre l’École Centrale, l’École Polytechnique, l’ENS Cachan et l’Université Paris-Sud, à travers des équipes-projets mixtes. Il en a résulté le Pôle Commun de Recherche en Informatique (PCRI). Ces projets Inria ont pour particularité de s’inscrire dans la durée. Les chercheurs se fréquentent régulièrement, travaillent ensemble, en mettant à profit la proximité de leurs locaux respectifs, sur des durées un peu longues (une dizaine d’années en moyenne). Il y a eu ensuite l’étape Digiteo avec une extension des collaborations à d’autres partenaires, comme le CEA List. Le Labex devrait permettre de renforcer la structuration de l’informatique dans un contexte où les laboratoires impliqués se rapprochent géographiquement. Il regroupe 300 chercheurs et autant de doctorants, répartis sur les sites des 11 établissements : CEA, CNRS, l’École Polytechnique, Supélec, Inria, Université Paris-Sud, l’École Centrale Paris, l’ENS de Cachan, l’ENSTA ParisTech, l’Institut Mines-Télécom, et enfin l’Université de Versailles St Quentin.</p> <a name="eztoc553351_2" id="eztoc553351_2" class="anchor"></a><h3>En principe un Labex se doit d’être un pluridisciplinaire, or vous avez fait le choix de privilégier l’informatique…</h3><p> C’est vrai : l’interdisciplinarité était un des critères, mais manifestement pas le plus décisif, comme en témoigne notre sélection. En faisant le choix d’un Labex disciplinaire, nous ne renonçons pas à l’interdisciplinarité. Dans le cadre de l’Idex, des équipes pourront poursuivre des recherches transversales avec des biologistes, des physiciens, etc. Nous avons déjà des relations intéressantes avec des labos de physique pour observer les systèmes de calcul comme un système physique.<br /> &nbsp;Mais, à la différence d’autres disciplines, comme la physique ou les mathématiques, les sciences de l’information (informatique et communication) sont encore une discipline jeune. Elle doit trouver sa place et être reconnue en tant que science à part entière même si elle joue un rôle important au service des autres sciences. Les informaticiens sont le plus souvent tirés vers les interfaces, mais doivent &nbsp;faire reconnaître un noyau scientifique spécifique. Nous assistons à une explosion de la société de l’information, c’est une évidence, mais si on veut en tirer les bénéfices, il faut une réflexion de fond et susciter des modèles nouveaux. Avec ce Labex, nous avons donc voulu défendre le cœur des sciences de l’information.</p> <p>Il ne s’agit pas de couvrir toutes les problématiques, mais de travailler sur des axes fondamentaux : la programmation, les données et les communications, soit le cœur de notre discipline. Pour chacun de ces axes, on a cherché à identifier des défis. À l’heure actuelle, le principal défi concerne les données : de plus en plus volumineuses et hétérogènes, distribuées. On est également passé du temps des calculateurs autonomes à celui des systèmes décentralisés. Les modèles changent, les algorithmes s’en trouvent modifiés.</p> <a name="eztoc553351_3" id="eztoc553351_3" class="anchor"></a><h3>Ce retour au cœur implique-t-il de se retrouver entre informaticiens&nbsp; ? Ou solliciterez-vous d’autres compétences ?</h3><p>De fait, nous nous retrouvons essentiellement autour de projets resserrés car c’est le gage d’une meilleure implication des chercheurs. Du point de vue universitaire, les aspects informatique et communication dans les réseaux ne relèvent pas des mêmes sections, ni des mêmes laboratoires. Le Labex a pour vertu de renforcer les synergies entre ces deux domaines au cœur des systèmes informatiques actuels. Cependant, nous comptons aussi mobiliser les compétences d’autres disciplines. Les systèmes numériques ont tant gagné en gigantisme que les techniques d’observation et de modélisation se rapprochent de la physique. Les collaborations avec des physiciens s’imposent donc. Nous souhaitons aussi développer des liens avec les sciences sociales et humaines.</p> <a name="eztoc553351_4" id="eztoc553351_4" class="anchor"></a><h3>Se centrer sur le cœur de l’informatique&nbsp; : est-ce à dire que vous privilégierez une recherche plus fondamentale qu’appliquée ?</h3><p>Je ne ferais pas ce distingo. Le chemin entre recherche fondamentale et recherche appliquée est très court en informatique. Toutes les thématiques que nous avons proposées sont en lien direct avec les applications. Comme par exemple les problèmes de certification et de correction qui vont des capteurs jusqu’aux modèles abstraits les plus élaborés et s’appuient sur des résultats avancés en logique et algorithmique.</p> <p>* Le projet a été labellisé par l’ANR sous le nom de DigiWorlds, pour des raisons de conflit avec une marque déposée, ce nom a été abandonné en septembre 2012 et le Labex renommé&nbsp; DigiCosme.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc553351_4_1" id="eztoc553351_4_1" class="anchor"></a><h4>Une experte du multi-institutionnel</h4><p>Après des études à l’ENS de jeunes filles qu’elle intègre en 1982, Christine Paulin-Mohring soutient en 1989 &nbsp;une thèse de l’Université Paris 7, &nbsp;préparée en partenariat avec Inria et l’ENS. « J’ai toujours évolué dans un cadre multi-institutionnel ! ». De fait, chargée de recherche au CNRS, puis professeur en informatique à l’Université Paris-Sud en 1997, elle participe aux premiers projets communs entre laboratoires. Avec son ex-directeur de thèse, elle monte la première équipe commune entre Inria et le LIP, un laboratoire CNRS à l'ENS Lyon, équipe qui deviendra un des premiers projets commun d’INRIA Futurs impliquant également Paris-Sud, le CNRS et l’école Polytechnique .</p> </div> </div> <p><strong>Extrait de l'interview &quot;Un Labex pour une discipline sans frontières : l’informatique. Rencontre avec Christine Paulin-Mohring&quot; sur le site <em>Media Paris Saclay</em></strong></p> Cryptologie et codage pour assurer notre intégrité numérique http://www.inria.fr/centre/saclay/actualites/cryptologie-et-codage-pour-assurer-notre-integrite-numerique Fri, 13 Jul 2012 17:58:57 GMT ]]> <p> Le dynamisme scientifique d’Inria vient en partie du renouvellement régulier de ses équipes. En effet, au-delà de 4 ou 8 ans, les équipes-projets doivent présenter un nouveau projet de recherche. L’occasion de réfléchir à une nouvelle orientation thématique, avec un nouveau responsable d’équipe, un nouveau nom, de nouveaux profils…<br /> Quelques mois après la transformation de l’équipe-projet Tanc en équipe de recherche Grace, rencontre avec son responsable, Daniel Augot, qui nous explique les implications de cette évolution.</p> <a name="eztoc531773_1" id="eztoc531773_1" class="anchor"></a><h3>Peux-tu nous expliquer le domaine sur lequel travaille l’équipe Grace (<em>Geometry, arithmetic, algorithms, codes and encryption</em>) ?</h3><p>Nous nous intéressons à la cryptologie qui protège les informations, les communications et les machines contre des adversaires par des algorithmes et des protocoles informatiques ; mais aussi au codage qui cherche à lutter contre les événements de nature aléatoire. Tout le souci est de mettre le <strong>bon niveau de protection en fonction des besoins</strong>, car ce n’est pas pareil de contrer un élément qui plante par hasard ou si une personne attaque. On pourrait se dire qu’il vaut mieux prévoir les cas les plus graves et être capables de tout contrer, mais ça serait alors très lourd au niveau énergie et rapidité pour des applications qui n’en ont pas forcément besoin. On se base donc sur un cas moyen, c’est-à-dire qu’on prévoit un ou plusieurs problèmes, mais pas que tout s’écroule en même temps. Dans le cas moyen, le codage est suffisant, tandis que dans le pire des cas la cryptologie est nécessaire. Par exemple il n’est pas grave qu’une conversation téléphonique soit perturbée, par contre il est essentiel que les ordres communiqués dans une centrale nucléaire soient clairement compréhensibles et certifiés authentiques.</p> <a name="eztoc531773_2" id="eztoc531773_2" class="anchor"></a><h3>Dans ce contexte, pourquoi était-il intéressant que l’équipe Tanc devienne Grace ?</h3><p> François Morain était le responsable de l’équipe Tanc depuis plusieurs années. Il y avait eu beaucoup de changements de personnes, Andreas Enge était parti au centre de Bordeaux, Benjamin Smith et moi-même avions rejoint l’équipe, Alain Couvreur a été recruté en 2011… De plus, François est devenu professeur à l’École Polytechnique en 2009, ce qui est une charge très importante, et j'ai donc pris la direction de l'équipe.<br /> Au niveau thématique, j’apportais avec le codage algébrique un nouveau domaine d'application par rapports aux thèmes de Tanc.</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>La redondance se retrouve partout, comme épeler son nom en disant &quot;A comme Alpha, B comme Bravo&quot;</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p> L’équipe Grace a donc été créée en janvier 2012. Une nouvelle chercheuse, Françoise Lévy-dit-Vehel, fait maintenant partie de l’équipe, elle vient renforcer cet axe de codage algébrique, et représente bien cette synergie que nous avons avec l’ENSTA, dont les élèves arrivent sur le plateau de Saclay en septembre 2012.<br /> <strong>Toutes ces raisons de changements de personnes et de nouvelles thématiques ont fait que c’était légitime de changer d’équipe, de nom, de responsable.</strong></p> <a name="eztoc531773_3" id="eztoc531773_3" class="anchor"></a><h3>Plus en détails, quels sont les axes de recherche de l’équipe ?</h3> <div class="object-right"> <p class="illustration" style="width:266px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/saclay/actualites-images/saclay_algebric_groups_serveur_260x195/531760-1-fre-FR/saclay_algebric_groups_serveur_260x195_xml_small.jpg" width="260" height="195" alt="" title="" /> </span> <span class="legende"> <cite>© Inria / Photo Kaksonen </cite> </span> </p></div> <p>L’équipe est organisée autour de trois axes de recherche. Le premier est la <strong>théorie algorithmique des nombres et son application à la cryptologie</strong>. Nous écrivons des programmes pour déterminer la factorisation et la primalité des nombres, c’est-à-dire que nous décomposons un grand nombre en nombres premiers (un nombre premier est un nombre qui ne peut être divisé que par lui-même et 1). Ici le problème fondamental est de savoir le niveau exact de difficulté de la factorisation.</p> <p>Le deuxième axe est la <strong>cryptologie à base de courbes</strong>, avec l’étude et la construction de nouvelles courbes pour la cryptographie à clé publique. La cryptologie, sans être toute la sécurité informatique, y est au cœur. Pour chiffrer un message, on peut utiliser une clé de chiffrement type RSA ou des courbes elliptiques. Le chiffrement RSA est par exemple utilisé de manière standard pour la sécurité sur internet, les échanges avec votre carte bancaire, ou le certificat électronique pour vos impôts. Le choix entre ces deux méthodes se fait sur une question de performance en termes de rapidité et de taille de clé.</p> <p> Enfin le troisième axe est celui du <strong>codage</strong>, où ces mêmes courbes sont utilisées pour avoir des codes plus performants. Ce domaine est traditionnellement dans une logique télécommunications, mais de plus en plus on trouve du codage en informatique : calculs distribués, données répliquées, systèmes pair-à-pair, etc. Nous travaillons par exemple pour réaliser l’implémentation la plus performante pour un algorithme de décodage des codes algébriques dans le pire des cas.<br /> Un problème qui peut être résolu par le codage algébrique est par exemple le stockage distribué, c’est-à-dire un fichier éclaté en de nombreux petits morceaux sur plusieurs serveurs, et s’assurer que si un ou plusieurs serveurs plantent, on puisse retrouver les informations grâce au principe de redondance qui s’applique ici.<br /> Un autre exemple d’application de nos recherches est un contrat avec la direction générale de l’armement (DGA) sur le chiffrement. Cela pourra servir à avoir une implémentation légère des algorithmes, d’alléger les calculs sur les éléments mobiles, pour utiliser moins de batterie sur les téléphones portables, et accélérer les transmissions internet.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc531773_4" id="eztoc531773_4" class="anchor"></a><h3>Définition de la redondance</h3><p>Le principe des correcteurs d’erreurs est la redondance, c’est-à-dire de mettre plus d’informations que nécessaire. Si une partie de la communication est corrompue, il est tout de même possible de reconstruire le message. Une personne transmet ainsi plus que le message « pur », c’est la partie supplémentaire qui s’appelle la redondance, comme par exemple épeler son nom en disant &quot;A comme Alpha, B comme Bravo…&quot;. Il y a un compromis fondamental entre la redondance introduite, qu'on veut courte, et la résistance aux erreurs qu'on veut grande. Pour la redondance, on veut aussi une propriété de «dispersion». Si on avait pris &quot;Brava&quot; plutôt que &quot;Bravo&quot;, Alpha et Brava auraient été trop proches phonétiquement sur une communication très mauvaise. On distingue mieux Alpha et Bravo, qui dispersent donc mieux &quot;A&quot; et &quot;B&quot;.</p> </div> </div> Pique-nique annuel : le centre de Saclay fête son nouveau bâtiment http://www.inria.fr/centre/saclay/actualites/pique-nique-annuel-le-centre-de-saclay-fete-son-nouveau-batiment Mon, 9 Jul 2012 17:40:58 GMT ]]> <p>Quelques semaines après l'installation dans le nouveau bâtiment Alan Turing (Digiteo) sur le campus de l'École Polytechnique, les agents du centre de Saclay ont pu fêter ce déménagement à l'occasion du pique-nique annuel. L'opportunité pour les porteurs de ce projet immobilier de longue haleine de découvrir la concrétisation de leur travail.</p> <p>Les porteurs de ce projet immobilier, qui s'inscrit dans le cadre du programme Digiteo qui a permis l'émergence de trois nouveaux bâtiments, ont pu apprécier dans une ambiance festive la fonctionnalité et l'esprit d'ouverture de ce bâtiment, avec la visite du Général Xavier Michel, directeur général de l'École Polytechnique, d'Yves Gnanou, directeur général adjoint délégué à l'enseignement de l'École Polytechnique, de Maurice Robin, directeur de Digiteo, et de Michel Cosnard, président-directeur général d'Inria, accueillis par Nozha Boujemaa, directrice du centre, et Philippe Henry, délégué à l'administration. Ils sont tous venus partager avec les occupants du bâtiment (École Polytechnique, CNRS et Inria) la fête annuelle du centre.</p> "Un même outil mathématique peut servir aussi bien en neurophysiologie qu’en physique quantique" http://www.inria.fr/centre/saclay/actualites/un-meme-outil-mathematique-peut-servir-aussi-bien-en-neurophysiologie-qu-en-physique-quantique Tue, 5 Jun 2012 17:26:27 GMT ]]> <p>Un an après le démarrage de l’équipe Geco, point sur ses axes de recherche avec son responsable Mario Sigalotti.</p> <p>Le travail de l’équipe Geco concerne le domaine du <strong>contrôle géométrique des systèmes</strong>. Un système est pour nous une famille de lois d’évolution dans le temps. Le contrôler consiste à choisir une succession de lois d’évolution de telle sorte que l’état final soit atteint et que certains critères soient satisfaits. Pour ce faire, nous nous basons sur des outils géométriques différentiels. Ceux-ci sont bien adaptés à l’étude d’évolutions ayant des contraintes : l’évolution d’un pendule à deux bras, dont les paramètres sont deux angles, est alors vu comme une courbe sur un donuts. Notre particularité dans ce domaine est de <strong>centrer notre analyse sur les trajectoires et les familles de trajectoires</strong>. Optimiser une trajectoire, par exemple, peut signifier en choisir une qui minimise une distance, mais pas seulement ! D’autres critères comme le temps, l’énergie peuvent être pris en compte. Ce qui interpelle, c’est que cet outil mathématique sur lequel nous travaillons s’applique dans trois axes de recherche totalement différents.</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>Combiner mathématiques et neurophysiologie pourra permettre d’aider des personnes à mobilité réduite</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p>Une application surprenante est par exemple réalisée dans le domaine de la neurophysiologie, qui consiste à <strong>identifier les « coûts » optimisés par le cerveau de certaines activités</strong>, comme par exemple le mouvement des bras, des jambes, des yeux… Inconsciemment nous réalisons des gestes qui sont optimisés par rapport à notre objectif, et nous étudions donc ce qui est naturel pour le reproduire artificiellement. Pour cela, nous analysons des sujets qui réalisent des actions précises, comme par exemple pointer un objet avec son bras. Dans ce geste, différents muscles sont tour à tour activés et désactivés, pour permettre une locomotion fluide. Nous essayons de trouver les critères que le cerveau utilise pour réaliser ces mouvements. Notre travail avec des neurophysiologistes pourrait dans l’avenir venir en aide à des personnes à mobilité réduite, pour leur permettre de coordonner efficacement l’activation de certains muscles déficients.</p> <div class="object-right"> <p class="illustration" style="width:306px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/saclay/actualites-images/saclay_reconstitution_geco/511639-1-fre-FR/saclay_reconstitution_geco_large.jpg" width="300" height="150" alt="© Inria" title="© Inria" /> </span> <span class="legende"> Image corrompue et reconstruite automatiquement par ordinateur </span> </p></div> <p>Une autre forme d’optimisation est en lien avec <strong>la compréhension de la vision et surtout du fonctionnement du cortex visuel</strong>. Par exemple, quand nous voyons une courbe interrompue par un blanc, ou un triangle dont il manque un angle, le cerveau a tendance à recréer cette image. Il le fait de façon intelligente, et non pas uniquement avec un critère de minimisation de distance entre les points les plus proches. Dans ces cas, nous créons des algorithmes qui s’inspirent de comment fonctionne le cerveau pour recréer ces images. Grâce à cette biomimétique, l’ordinateur peut lui aussi interpréter intelligemment des images interrompues ou floutées que nous lui soumettons.</p> <p>Les deux autres applications de notre approche mathématique basée sur l’analyse des trajectoires sont plus abstraites. Nous apportons une aide appréciable dans le cas particulier de la <strong>commande de systèmes issus de la physique quantique</strong>, où les outils de contrôle qui requièrent des mesures ne peuvent pas s’appliquer car toute mesure du système influence son état. Grâce à l’action de lasers pointés sur éléments moléculaires, nous devons donc modifier son évolution en développant des outils ad hoc.</p> <p>Nous travaillons également sur le <strong>contrôle de systèmes à commutation</strong>, une classe de systèmes qui mélangent dynamique continue et dynamique discrète. Pour comprendre l’interaction entre ces deux dynamiques, le plus simple est de prendre l’exemple d’une voiture. Les différentes vitesses sur le levier de vitesse sont en dynamique discrète, c’est-à-dire qu’il y a un nombre fini de possibilités, tandis que les directions données par le volant sont en dynamique continue, c’est-à-dire qu’on ne peut donner une valeur précise, il y a une continuité de valeurs. Pour ce type de systèmes qui combinent les deux dynamiques, il est essentiel de contrôler l’ensemble en prenant en compte tous les paramètres. Nous nous occupons en particulier de la question de la stabilité.</p> Un nouveau bâtiment pour le centre Inria Saclay Île-de-France http://www.inria.fr/centre/saclay/actualites/un-nouveau-batiment-pour-le-centre-inria-saclay-ile-de-france Mon, 4 Jun 2012 16:46:15 GMT ]]> <p>Le centre de recherche Inria Saclay - île-de-France s'installe dès aujourd'hui dans son nouveau bâtiment. Situé sur le campus de l'École Polytechnique de Palaiseau, ce bâtiment s'inscrit dans le cadre du programme Digiteo qui a permis l'émergence de trois nouveaux bâtiments : un premier sur le site du CEA à Saclay, un deuxième sur le plateau du Moulon et enfin le dernier sur le campus de l'École Polytechnique.</p> <p>Ce nouveau bâtiment, baptisé bâtiment Alan Turing , en l'honneur du mathématicien britannique&nbsp; dont nous fêtons cette année le centenaire de la naissance, héberge dès à présent le siège administratif du centre Inria Saclay - Île-de-France, le laboratoire Inria / Microsoft Research, et prochainement le laboratoire d'informatique de l'École Polytechnique (LIX).</p> Retour sur les Rencontres dédiées à la Finance http://www.inria.fr/centre/saclay/actualites/retour-sur-les-rencontres-dediees-a-la-finance Tue, 15 May 2012 15:44:15 GMT ]]> <p>Le 3 avril dernier, une nouvelle édition des Rencontre Inria Industrie s'est tenu à Paris sur le thème des «Technologies du web et mobilité au service de l'innovation bancaire et de l'assurance ». Cette journée , organisée en partenariat avec les pôles de compétitivité Finance Innovation, TES, Picom, Oséo et W3C France, a rassemblé plus d'une centaine de personnes au coeur du quartier des affaires de Paris, venue découvrir les interventions d'experts du domaine et les nombreuses démonstrations présentes dans le showroom.</p> <p>Cette édition des &quot;Rencontres Inria-Industrie&quot;, destinée aux acteurs du monde financier, banquiers, assureurs, éditeurs de logiciels, était consacrée à la problématique du développement des technologie du web et de la mobilité au service de l'innovation bancaire et de l'assurance. Comment améliorer la relation client, proposer de nouvelles interfaces utilisateurs, innover dans le paiement électronique, traiter les grands volumes de données, offrir des services internes et externes évolutifs grâce à un système d'information ouvert et flexible : tels étaient les enjeux abordés au cours de cette journée.</p> L’analyse d’images aide à percer les secrets de la formation du verre http://www.inria.fr/centre/saclay/actualites/l-analyse-d-images-aide-a-percer-les-secrets-de-la-formation-du-verre Wed, 9 May 2012 14:51:19 GMT ]]> <p>Un partenariat original a réuni autour d’un même projet l’équipe Parietal, spécialiste du traitement statistique de l’analyse d’images appliquée au cerveau, et le laboratoire Surface du verre et interfaces (CNRS/Saint-Gobain) pour résoudre les mystères de la formation du verre. L'une des motivations de ces travaux, publiés sur le site de <em>The Journal of the American Ceramic Society</em>, est d'obtenir du verre de bonne qualité à des températures inférieures à celles utilisées actuellement par l'industrie.</p> <p>Même s’il s’agit d’un des matériaux les plus anciens maîtrisés par l’Homme, <strong>le verre n’avait pas encore livré tous ses secrets</strong>. En effet, même si l’on sait que sa création est possible par un mélange granulaire composé de deux tiers de sable de silice, et d'un tiers de carbonates de sodium et de calcium porté à 1500°C pendant plusieurs jours, la façon dont les différentes matières premières réagissent entre elles pour se transformer en verre étaient jusqu’ici inconnus.</p> <p>Pour percer ce mystère, les chercheurs ont observé, pour la première fois, la réaction en train de se produire grâce à la tomographie X développé au synchrotron de Grenoble. C’est dans le <strong>traitement statistique de l’analyse de ces images</strong>&nbsp;que l’expertise de Gaël Varoquaux, de l’équipe Parietal, a été précieuse. En effet, la cadence d'acquisition rapide nécessaire pour capturer cette dynamique dégradait la qualité des images : moins de contraste entre les grains et plus de &quot;bruits&quot;. L'analyse des images devenait alors particulièrement difficile. L'enjeu a été de <strong>segmenter les grains</strong>, c'est-à-dire de les détacher automatiquement du fond, mais aussi de les séparer entre eux, et d'identifier les matériaux qui les compose, silicate, carbonate de calcium ou carbonate de sodium. Une difficulté supplémentaire a été le <strong>volume de données</strong>&nbsp;: 1 milliard de voxel (contraction de <em>volumetric pixel</em>, c’est-à-dire un pixel en 3D) par image, et un film de mille images par expérience.</p> <div class="object-right xml_small"> <p> <object width="260" height="200" name="player" type="application/x-shockwave-flash" data="/extension/site_inria/design/site_inria/flash/player.swf"> <param name="movie" value="/extension/site_inria/design/site_inria/flash/player.swf"> <param name="allowfullscreen" value="true"> <param name="allowscriptaccess" value="always"> <param name="flashvars" value="file=http://www.youtube.com/watch?v=pPyG_fEee_o&amp;autostart=false&amp;bufferlength=1&amp;stretching=exactfit&amp;backcolor=#2a3a47&amp;frontcolor=#DDDDDD&amp;lightcolor=#FFF&amp;dock=true&amp;stretching=uniform&amp;image=/var/inria/storage/images/medias/videos/in-situ-synchrotron-tomography/500377-1-fre-FR/in-situ-synchrotron-tomography_vignette_video.jpg&plugins=fbit-1,tweetit-1"> </object> </p> </div> <p>Ainsi, les chercheurs ont pu observer les contacts qui s'opèrent entre les éléments présents, et la transformation de matériaux granulaires en verre fondu. Ces images uniques révèlent <strong>l'importance des contacts entre grains d'espèces différentes</strong>. Ce sont eux qui déterminent si les réactions menant à la production du verre liquide se produisent ou pas. Par exemple, selon l'absence ou la présence de tels contacts, le carbonate de calcium peut soit être incorporé à un liquide très réactif, soit produire des défauts cristallins. Les chercheurs ont aussi été surpris de la haute réactivité du carbonate de sodium à l'état solide: sa grande mobilité avant la fonte des matériaux augmente le nombre de contacts avec les autres grains, ce qui favorise les réactions.</p> <p>Les chercheurs s'apprêtent désormais à tester différents mélanges pour étudier l'influence de la taille des grains et de leur composition sur la vitesse de la réaction au niveau microscopique. <strong>Ils espèrent ainsi trouver des &quot;recettes&quot; pour réduire la quantité de défauts produits au début de la formation du verre, et trouver ainsi des procédés de fabrication plus rapides et moins gourmands en énergie</strong>. En outre, ils espèrent développer les méthodes d'imagerie et de traitement des données pour permettre aux chercheurs et aux industriels d'imager la transformation d'autres mélanges granulaires réactifs intervenant dans l'élaboration de verres et matériaux différents.</p> Olivier Temam, salué pour sa collaboration franco-chinoise. http://www.inria.fr/centre/saclay/actualites/olivier-temam-salue-pour-sa-collaboration-franco-chinoise Mon, 23 Apr 2012 10:01:48 GMT ]]> <p>Olivier Temam, directeur de recherche Inria et responsable de l'action exploratoire ByMoore, a été récompensé par deux fois (2010 et 2011) dans le cadre du programme « International Talents Program&nbsp;»<strong>&nbsp;</strong>de l'Académie des Sciences chinoise, pour sa collaboration avec l'ICT (Institute of Computing Technology) de Pékin. Son étudiant Zheng Li, doctorant dans l’équipe, a lui reçu en Février le prix d'excellence de recherche pour sa thèse, remis par le gouvernement chinois à des étudiants chinois ayant effectué leur thèse à l'étranger&nbsp;; ce prix est attribué à environ 500 étudiants sur les dizaines de milliers (toutes disciplines scientifiques confondues) effectuant leur thèse à l’étranger. Olivier Temam vient de fonder une équipe jointe avec l’ICT dans le cadre du LIAMA (YOUHUA), faisant suite à une équipe associée du même nom. Olivier nous explique les tenants et aboutissants de cette collaboration internationale.</p> <a name="eztoc492980_1" id="eztoc492980_1" class="anchor"></a><h3>Pouvez-vous nous rappeler la loi de Moore et les défis que vous relevez pour en repousser les limites ?</h3><p> <strong><em>&nbsp;</em></strong>La loi de Moore (par Gordon Moore, co-fondateur de la société Intel) est en fait une prédiction stipulant que la taille des transistors pourra être divisée par 2 tous les 18 à 24 mois environ. Cette réduction de la taille des transistors apporte deux bénéfices&nbsp;: augmenter le nombre de transistors par unité de surface et augmenter la vitesse (de commutation) des transistors. Ces deux propriétés sont très largement à l’origine de l’augmentation de la puissance des ordinateurs ces 40 dernières années. <br /> Cette progression est également considérée comme l'un des principaux moteurs de la croissance économique depuis plus d’une vingtaine d’années. Mais, depuis 2004 environ, le domaine a connu plusieurs chocs technologiques remettant profondément en cause notre capacité à continuer à améliorer la performance des architectures de processeurs. Tout d’abord, des contraintes liées à la consommation électrique et la dissipation de chaleur ont grandement limité l’augmentation de la vitesse du processeur (fréquence d'horloge), forçant à se tourner vers &nbsp;des architectures multi-cœurs, où le gain en performance provient du parallélisme. Toutefois, en raison de nouvelles contraintes de puissance, encore plus strictes, même l'option multi-coeurs est aujourd'hui remise en question, nous forçant sans doute à concevoir des architectures multi-cœurs hétérogènes, c'est à dire combinant des cœurs (processeurs) classiques et des accélérateurs. Les accélérateurs sont souvent des circuits plus spécialisés que les processeurs, ils ne peuvent donc exécuter que certains types d’algorithmes, mais ils peuvent être bien plus efficaces, du point de vue énergétique, que les processeurs. A l’avenir, il est fort possible que ces accélérateurs jouent un rôle prépondérant, que ce soit pour les systèmes haute-performance ou embarqués.</p> <a name="eztoc492980_2" id="eztoc492980_2" class="anchor"></a><h3>Quels sont les enjeux de la collaboration avec l'ICT ?</h3><p> Dans un premier temps, nous avons essayé de répondre à la question suivante : alors qu'il est déjà difficile pour la plupart des programmeurs de créer des applications pour des architectures multi-coeurs, quel environnement de programmation peut-on concevoir pour faciliter la programmation des architectures multi-coeurs hétérogènes qui sont encore plus complexes ? Ce point est essentiel car si l'on ne parvient pas à masquer cette complexité, nous ne réussirons pas à tirer parti de la performance potentielle de ces architectures. Notre objectif est donc de concevoir des environnements et des approches de programmation permettant à des programmeurs peu familiers avec ces architectures complexes d'en tirer parti.<br /> En parallèle, nous avons essayé de répondre à la question suivante : quels accélérateurs devons-nous concevoir ? La principale difficulté ici est de résoudre la tension entre le côté &quot;spécialisé&quot; (pour certaines applications) d'un accélérateur, et la nécessité de les utiliser dans des architectures qui doivent couvrir un grand spectre d'applications. Pour cette raison, nous nous sommes tournés vers des architectures reconfigurables, mais nettement plus efficaces énergétiquement que les FPGAs actuels, et également plus faciles à programmer, notamment grâce à un circuit de contrôle particulier (dit &quot;élastique&quot;). Ce travail est effectué en collaboration avec l'ICT, et également avec l'École Polytechnique Fédérale de Lausanne, et le laboratoire joint NTU (Singapour)-Rice (US).</p> <a name="eztoc492980_3" id="eztoc492980_3" class="anchor"></a><h3>Pourquoi collaborer en particulier avec la Chine sur ces sujets ?</h3><p> La tradition d'Inria est d'essayer de s'associer avec les principaux acteurs académiques et industriels d'un domaine. Dans le domaine des architectures et de la compilation, les équipes Inria coopèrent avec de nombreuses universités américaines et européennes, ainsi qu'avec des grands groupes industriels (Intel, ARM, STMicroelectronics,...). L'ICT est non seulement l'institut académique le plus en pointe en Chine dans le domaine de l'architecture et de la compilation, mais il a également créé la société Loongson Technologies que beaucoup considèrent comme un futur acteur majeur dans le domaine des architectures de calcul.<br /> La position de l'ICT/Loongson en tant qu'acteur académique et industriel émergent dans le domaine est un atout à double titre&nbsp;: ils sont plus ouverts à la fois à des collaborations externes, ainsi qu’à des approches nouvelles (comme l’introduction d’accélérateurs) que des acteurs plus établis. Il y a donc une réelle opportunité, aujourd’hui, pour établir une relation privilégiée avec ce qui deviendra sans doute un acteur majeur du domaine dans les années qui viennent.</p> Mireille Régnier : "Participer à la connaissance du génome humain grâce à l’informatique me fascinait" http://www.inria.fr/centre/saclay/actualites/mireille-regnier-participer-a-la-connaissance-du-genome-humain Mon, 26 Mar 2012 09:38:01 GMT ]]> <p>Pour la première Semaine des mathématiques, du 12 au 18 mars, la thématique choisie est « Femmes et maths ». L’occasion pour nous de mettre en avant trois chercheuses responsables d’une équipe dans le centre de Saclay, trois profils et parcours différents mais où chacune vient nous parler de son choix de travailler dans les sciences et dans la recherche. Cette semaine, rencontre avec Mireille Régnier, responsable de l’équipe-projet Amib.</p> <p><strong>Les maths ont toujours été un jeu pour moi</strong>. Je me souviens qu’en CP j’ai remporté le concours de calcul mental, j’aimais beaucoup ce genre d’exercices. En 4<sup>e</sup> , j’occupais mes cours de maths à tenter de démontrer le théorème de Fermat, c’est-à-dire trouver les valeurs entières de x<sup>n</sup> &nbsp;+ y<sup>n</sup> &nbsp;= z<sup>n</sup> . Je ne me souviens même plus où j’avais découvert ça, dans une de mes nombreuses lectures sans doute, mais ça m’avait semblé intéressant parce que ça faisait appel aux entiers, et que j’aimais beaucoup travailler avec les entiers. J’aimais bien compter, jouer avec les chiffres, contourner les contraintes pour arriver à une solution… Ça m’amusait ce côté ludique, tu essaies quelque chose, tu vois ce qui se passe, et tu réajustes pour arriver à ton but.</p> <p>Au collège, je n’étais pas intéressée que par les maths ; au contraire, <strong>j’avais une vraie passion pour l’histoire</strong>&nbsp;par exemple, mais je ne m’imaginais pas en faire un métier. Au moment de l’orientation en 3<sup>e</sup> , mon professeur de maths avait même dit à mes parents que j’étais une littéraire ! J’ai tout de même choisi les mathématiques pour le lycée, et comme j’étais dans une école de filles où les enseignants ne poussaient pas particulièrement vers les sciences, c’était un choix original de nous orienter dans cette voie-là avec mes quatre sœurs.</p> <p>Au niveau de mon orientation, je pense que j’ai eu de la chance d’être dans un environnement familial exceptionnel. Ma mère avait passé son bac et fait des études supérieures, ce qui était rare à sa génération. Lors de l’introduction des maths modernes dans les programmes, qui provoquait des débats passionnés, elle a, au sein du conseil d'administration, organisé des cours de mise à jour des parents pour aider les enfants le soir sur ces nouveaux programmes. Mon père tenait à ce que ses filles fassent les meilleures études possibles. Même s’ils étaient tous deux de formation littéraire classique, <strong>mes parents étaient convaincus que l'avenir était dans les sciences</strong>.</p> <p>En bref, j’aimais les maths, j’ai fait des maths, il faut faire ce qu’on aime dans la vie ! J’ai suivi un parcours assez classique, une prépa, puis l’École normale supérieure (ENS), où j’ai fait une licence de physique avant de revenir aux mathématiques. Ce qui était intéressant à l’ENS, c’était la mixité disciplinaire, avec des étudiants de russe, d’histoire, de lettres ; on se croisait à la cafète, ça permettait d’échanger, je me suis fait d’excellentes amies dans d’autres domaines.</p> <p>Ensuite, j’ai passé l’agrégation de maths, et j’ai fait un stage de russe du ministère des affaires étrangères en URSS, parce que j’aimais cette langue que j’étudiais depuis la 4e et que c’était très dur d’avoir un visa sans une invitation administrative. J’y ai rencontré deux personnes importantes : tout d’abord mon mari qui était dans le même stage, et Bernard Lang, Iria <em>(ndlr : avant que l’institut ne devienne national)</em>, depuis spécialiste des logiciels libres, qui <strong>m’a convaincue sans difficulté dans l’avion du retour de faire un DEA (ancien master) en informatique</strong>. Il a ensuite passé beaucoup de temps pour m’aider à choisir le bon DEA, à la faculté d’Orsay, et à débuguer mes programmes par téléphone. J’étais alors l’unique utilisatrice de la machine à cartes de l’ENS, et j’aimais bien aussi venir à Polytechnique pour utiliser l’éditeur de texte, qui à l’époque (!) était d’une grande nouveauté ! Je suis passée naturellement des mathématiques à l’informatique. En effet j’ai un grand plaisir à résoudre des problèmes, et à voir une belle solution. Mais en informatique, si tu as un problème, tu veux une solution effective ; c’est-à-dire que tu ne te contentes pas de dire qu’il y a une solution, tu la construis aussi, et j’aime beaucoup voir la construction d’une solution.</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p> Nous avons énormément de problématiques à explorer<br /> où l’informatique est essentielle à l’avancée de la biologie.</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p>Dans mon DEA, j’ai eu deux professeurs qui ont déterminé la suite de ma carrière. Ayant trouvé merveilleux le cours d’algorithmique de Jean Vuillemin, j’ai cherché une thèse en algorithmique. Et comme j’avais eu la chance de rencontrer Philippe Flajolet, grand maître de l’informatique et de la combinatoire, j’ai fait ma thèse chez lui. C’était important de le rencontrer à ce moment-là où beaucoup de choses se mettaient en place. J’ai été recrutée à l’Iria par la suite, avant même d’avoir soutenu ma thèse. Au niveau thématique, la détermination de ma spécialité a été une suite de rencontres et de circonstances particulières. J’ai participé à une conférence où on m’a interpellée sur un problème de combinatoire et d’algorithmique des mots, et je me suis donc plongée dans le sujet. Puis en 1987, <strong>François Mitterrand a demandé au président de l’Iria, Alain Bensoussan, un rapport entre l’informatique et la biologie, et j’ai été nommée parmi les rédacteurs de ce rapport</strong>. Le lien (ténu) avec mon domaine était que les mots sont une séquence de lettres tout comme le génome (en simplifiant...). C’était une rude tâche de comprendre si vite ces problématiques, même si nous avons été très bien reçus dans les labos de bio. Ce rapport a été l’occasion de découvrir tout un pan d’applications de ma recherche, de problèmes à résoudre alors que le séquençage du génome humain était à son début. J’ai donc continué dans cette voie.</p> <p>De mon point de vue, ce qui était dominant, ce n’était pas de parler de santé, de médecine, c’était la connaissance du génome humain qui fascinait. On en parlait dans les journaux, c’était vraiment enthousiasmant d’être dans un projet comme celui-ci. Côté informatique, il y avait de très jolis problèmes de combinatoire, sur les séquences tout d’abord, et maintenant sur les structures. Et puis en 2001 le séquençage s’est achevé plus vite que prévu initialement, mais <strong>ça avait ouvert la porte à plein d’autres domaines fascinants, les biotechnologies, les puces à ADN…</strong>&nbsp;Le développement à la fois des technologies et des applications potentielles a amené à une explosion de nouveaux problèmes, comme la régulation des gènes, la prédiction de structures, leurs interactions, la biologie des systèmes, les contraintes sur l’annotation avec l’afflux des données... Nous avons donc encore énormément de problématiques à explorer où l’informatique est essentielle à l’avancée de la biologie.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc477676_1" id="eztoc477676_1" class="anchor"></a><h3>Thématique : Biologie et informatique</h3><p>L'équipe Amib étudie la biologie structurale, plus précisément les molécules d'ARN, les protéines et leurs interactions. Les processus cellulaires, fonction de ces interactions, sont étudiés en biologie des systèmes. L'algorithmique se base sur des méthodes formelles, des propriétés stochastiques et de la combinatoire. L'annotation, l'organisation des données expérimentales et l'extraction de connaissances pertinentes de grandes bases de données forment le troisième axe de recherche, et de développement logiciel.</p> </div> </div> Catherine Bonnet : "À 17 ans, je n’envisageais pas de ne pas faire des maths à temps plein" http://www.inria.fr/centre/saclay/actualites/catherine-bonnet-je-n-envisageais-pas-de-ne-pas-faire-des-maths-a-temps-plein Mon, 12 Mar 2012 10:19:25 GMT ]]> <p>Pour la première Semaine des mathématiques, du 12 au 18 mars, la thématique choisie est &quot;Femmes et maths&quot;. L’occasion pour nous de mettre en avant trois chercheuses responsables d’une équipe dans le centre de Saclay, trois profils et parcours différents mais où chacune vient nous parler de son choix de travailler dans les sciences et dans la recherche. Cette semaine, rencontre avec Catherine Bonnet, responsable de l’équipe Disco.</p> <p>J’ai eu le goût des maths dès le début, au collège/lycée c’est ce que je préférais. <strong>J’aimais les choses carrées</strong>, quand il y avait une problématique de départ et que l’on arrivait à une réponse claire et indiscutable. À 17 ans, je n’envisageais pas de ne pas faire des maths à temps plein. C’était une passion, mais après tu te questionnes sur ce que tu peux vraiment faire comme métier, ce qui va te permettre tout simplement de vivre ! À l’époque je ne savais pas que l’on pouvait faire de la recherche en mathématiques, donc je pensais à prof de maths…</p> <p>Dans mon parcours à la fac, j’ai commencé par une licence de mathématiques pures, puis enchaîné avec un master de mathématiques appliquées parce que je voulais me rapprocher d’un domaine avec des problèmes à résoudre tout en commençant à envisager le métier d’ingénieur. Dans la lignée, j’ai fait une thèse sur un sujet appliqué en aéronautique, sur la réduction du modèle mathématique du rotor de l’hélicoptère Dauphin. C’était de l’ingénierie de haut niveau, mais toutes les techniques existaient déjà, je raffinais la théorie sur un exemple particulier, mais sans certitude que ça pourrait s’appliquer à un autre exemple. Ce n’était pas universel mais une résolution particulière. <strong>Moi, ce qui m’intéressait, c’était la théorie qui permettrait de résoudre n’importe quel cas,</strong>&nbsp;je ressentais le besoin de développer de nouvelles méthodes, de faire de la recherche académique. Je me suis donc réorientée vers une autre thèse. Je m’étais intéressée à un cas particulier de réduction de modèle en dimension finie (passer de 15 équations à 7 équations pour décrire un système), j’ouvrais le problème pour passer en dimension infinie (un vecteur défini par une infinité de points). Après un rapide poste d’enseignement des maths à l’université, j’ai réalisé deux post-docs qui ont vraiment marqué mon parcours.</p> <p>Dans mon premier post-doc Marie Curie en Angleterre, j’ai travaillé avec un &quot;vrai&quot; matheux pur. Il était rigoureux, avec cet élan pour la recherche vraiment gratuite, <strong>ce goût, cette curiosité, cet enthousiasme quand tu résous un truc</strong>. Ça ne reste que des petites choses, mais collaborer avec quelqu’un comme ça, à ce moment-là quand tu viens juste de passer ta thèse, c’est travailler avec quelqu’un qui est comme toi dans le plaisir de progresser, de comprendre mieux, qui n’est pas dans l’inquiétude de publier rapidement un article dont il n’est pas pleinement satisfait. C’était quelqu’un capable de ressortir un bout de papier sur le quai d’une gare en attendant le train et de te dire « J’ai repensé à ton problème de l’autre fois… ».</p> <p>Le deuxième post-doc, je l’ai réalisé au centre de Rocquencourt, auprès de Michel Sorine. Après ces maths pures, ça m’a permis de ne pas rester enfermée dans une potentielle auto-alimentation où tu t’intéresses à 1000 petits problèmes de mathématiques dans un domaine où ils ne se poseront peut-être jamais, mais de me rattacher à quelque chose. Je n’avais pas fait d’automatique jusque-là, donc Michel Sorine a dû m’apprendre tout ce qui me manquait en contrôle des systèmes. <strong>Il m’a remise dans un contexte, me rappelant qu’on fait tout ce travail pour contrôler des systèmes et qu’à la fin ça doit tourner.</strong>&nbsp;À ce moment-là de mon parcours, même si j’avais déjà le goût pour résoudre des problèmes concrets, c’était une étape marquante de travailler avec une telle personnalité.</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p> Je pense que pour faire des avancées qui auront un impact,<br /> il faut savoir sortir du monde des maths<br /> et communiquer avec d’autres domaines.</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p>Juste après, j’ai été embauchée chez Inria dans le même projet. Dans ce poste, <strong>il était possible de pousser les techniques théoriques à fond, avec en même temps des exemples concrets</strong>&nbsp;malgré tout. J’ai toujours aimé les techniques mathématiques pour faire des choses universelles, utilisables par tout le monde, cet empilement des connaissances où n’importe qui peut utiliser le résultat à la fin. Mais pour moi ce n’est pas contradictoire d’aimer aussi résoudre des problèmes. Le tout est de le faire de façon &quot;propre&quot;, c’est-à-dire que si le problème est trop difficile au départ et que l’on fait une approximation pour le résoudre, si l’on n’est pas capable de mesurer l’approximation pour donner une réponse précise, cela ne m’intéresse pas.</p> <p>Dans mon domaine du contrôle, je ne veux pas faire des maths pour faire des maths, sans lien réel avec des choses applicables. Ça paraît simple, mais pourtant on est vite pris dans ce jeu avec les maths, où quand tu résous un problème tu es tentée de vouloir résoudre un autre problème très proche où tu changes juste un peu les hypothèses, et ainsi de suite… Il ne faut pas tourner dans sa bulle, rester dans ces problèmes qui s’auto-alimentent. Il est possible de faire beaucoup de choses sans sortir du monde des maths, mais je pense que pour pouvoir faire des avancées qui auront un impact à un moment donné, il faut savoir sortir de ce monde-là et communiquer avec d’autres domaines. Le clivage pur/appliqué n’a pas grand sens dans l’absolu car au final, par rapport aux collègues, <strong>tu es toujours l’appliqué de quelqu’un ou le théorique de quelqu’un d’autre</strong>. Ce qui est excitant dans notre équipe c’est la rencontre de techniques très différentes et très complémentaires au service d’une même problématique.</p> <p>Peu de temps après avoir été recrutée chez Inria, vers 96-97, j’ai rencontré l’association Femmes et maths. C’était grâce au forum des jeunes mathématiciennes, organisé à l’époque tous les ans, où j’étais allée simplement parce que ma meilleure amie était venue exposer son projet parmi d’autres doctorantes. Après les séances techniques de recherche, il y avait des séances d’ouverture, de discussion, sur les femmes et les sciences, leur place dans l’histoire, dans la société. Et du coup, je l’ai vécu comme un espace de discussion où on partageait une vision conceptuelle de la place des femmes. Il y avait ce mélange d’expériences, <strong>on sentait quelque chose de bouillonnant, d’actif, dans un état de recherche de pourquoi, comment on en était arrivé là</strong>. Ce n’était pas seulement dans un côté militant, on savait qu’il y avait tout à faire, et qu’il fallait s’engager pour accueillir chaque année de nouvelles femmes chercheuses. Les fondatrices avaient créé l’association en 87, à la mise en place de la mixité des Écoles normales supérieures (ENS), où on était passé d’une promotion entière de jeunes mathématiciennes à seulement quelques filles intégrées dans ces promotions mixtes. On ne comprenait pas pourquoi tout d’un coup il n’y avait quasiment plus de filles dans ces grandes écoles. Aujourd’hui il faut vraiment que les chercheuses se mobilisent pour faire vivre l’association, car les sollicitations se multiplient, mais on manque de bras pour faire fonctionner tout ça. Dans le même temps, cela devient difficile d’ajouter un engagement de ce type dans les carrières que l’on nous impose maintenant. Pourtant on sait que les actions comme ces forums de rencontres entre doctorantes et chercheuses confirmées ou les journées « Filles et maths, une équation lumineuse » organisées avec Animath pour les collégiennes et les lycéennes ont toujours des retombées très positives.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc470064_1" id="eztoc470064_1" class="anchor"></a><h3>Thématique : Contrôle de systèmes interconnectés dans des environnements complexes</h3><p>&nbsp;Un système est un ensemble d’éléments qui est soumis à une entrée, c’est-à-dire une commande, et qui fournit une sortie, autrement dit un résultat. Pour que le système produise la réponse désirée, il faut pouvoir le contrôler, et donc trouver la bonne formule mathématique. Dans l’équipe Disco, nous travaillons sur des environnements complexes, comme la perte de connexion, la perte d’informations ou encore prendre en compte le facteur humain dans les boucles de décision. Ce type d’outil mathématique permet d’aider par exemple dans le traitement de la leucémie myéloïde aiguë, où le système est alors le patient et le contrôle est le médicament. Grâce à notre apport en mathématiques, nous pouvons voir que si l’on donne tel ou tel médicament, on obtiendra la sortie désirée, c’est-à-dire que la population de cellules revienne à un niveau normal.</p> </div> </div> Un nouvel algorithme pour augmenter la sécurité des échanges cryptographiques http://www.inria.fr/centre/saclay/actualites/un-nouvel-algorithme-pour-augmenter-la-securite-des-echanges-cryptographiques Fri, 9 Mar 2012 11:13:24 GMT ]]> <p>En décembre dernier à Séoul, l'article <em>&quot;Counting points on genus 2 curves with real multiplication&quot;</em>&nbsp;de Pierrick Gaudry (LORIA/équipe-projet Caramel), David Kohel (Institut de Mathématiques de Luminy) et Benjamin Smith (équipe Grace, anciennement Tanc) a remporté (conjointement) le prix du meilleur article à la conférence AsiaCrypt 2011, l'une des trois conférences internationales les plus importantes en cryptologie.</p> <p><em>&quot;Counting points on genus 2 curves with real multiplication&quot;</em>&nbsp;exposait une réelle avancée dans le domaine de la cryptographie. La <strong>nécessité de chiffrer des informations</strong>&nbsp;pour les transmettre de façon sécurisée est de plus en plus présente dans le monde numérique, pour établir les communications sécurisées, prouver nos identités en ligne, ou encore signer des documents numériques. Pour cela, la méthode le plus souvent employée est un <strong>cryptosystème à clé publique</strong>, à l’opposé de clé privée&nbsp; où les deux personnes qui souhaitent échanger des informations doivent également échanger leurs clés privés. Dans le cas d'un cryptosystème à clé publique, chaque instance comme par exemple chaque signature numérique, se base sur un exemple de problème mathématique très difficile, et la sécurité du système dépend entièrement de la difficulté à résoudre ce problème. Pour s’assurer de la difficulté de ces problèmes, des algorithmes de <em>&quot;point counting&quot;</em>&nbsp;ou comptage de points permettent de vérifier la sécurité du futur cryptosystème.</p> <p>L'état de l'art en cryptographie à clé publique était basé, jusqu’à maintenant, sur des problèmes avec des courbes elliptiques. Google par exemple les a employées pour ses pages web sécurisées.&nbsp; Récemment, <strong>les chercheurs se sont penchés sur les courbes de genre 2 comme une version améliorée, un successeur des courbes elliptiques</strong>. Mais alors que les courbes de genre 2 ont de très belles propriétés théoriques, il y avait un obstacle important à leur utilisation dans la pratique : dans de nombreux cas (notamment le cas du corps premier), leurs algorithmes de comptage de points sont tout simplement beaucoup trop lents.&nbsp; Pour comparaison, il est possible de compter le nombre de points sur une courbe elliptique cryptographique en quelques secondes ; quand jusqu'à maintenant, le calcul équivalent en genre 2 requérait plusieurs jours, ce qui empêchait leur utilisation ainsi que les expériences.</p> <p>Dans ce papier, les chercheurs ont présenté un nouvel algorithme pour une classe commode des courbes de genre 2, qui offre une amélioration radicale de la performance pour le comptage de points.&nbsp; En effet, le nouvel algorithme fonctionne tellement bien qu’il a pulvérisé le record mondial pour le comptage des points en genre 2 (dans le cas du corps premier). <strong>Grâce à cette avancée en sécurité informatique, il est désormais possible de facilement construire des courbes de genre 2 appropriées pour les cryptosystèmes contemporains.</strong></p> Le projet NiConnect, pour comprendre notre cerveau même au repos http://www.inria.fr/centre/saclay/actualites/le-projet-niconnect-pour-comprendre-notre-cerveau-meme-au-repos Tue, 6 Mar 2012 11:17:07 GMT ]]> <p>NiConnect est un projet Investissements d’avenir accepté il y a seulement quelques semaines. Rencontre avec son jeune porteur de projet, Gaël Varoquaux de l’équipe-projet Parietal, qui nous explique les objectifs de ce travail de recherche en bio-informatique.</p> <a name="eztoc467499_1" id="eztoc467499_1" class="anchor"></a><h3>Peux-tu nous présenter le domaine d’expertise dans lequel intervient NiConnect ?</h3><p>Ce projet intervient sur la problématique des neurosciences et du médical. Notre outil de base est donc l’IRM standard pour regarder travailler le cerveau. Notre première étape est de recréer un « film » avec les différents instantanés du cerveau fournis par l’IRM en imagerie fonctionnelle. C’est-à-dire que nous voyons la consommation d’oxygène dans chaque partie du cerveau, et que nous pouvons ainsi déterminer les zones activées qui consomment plus, ainsi que la durée de l’activation de telle ou telle zone, son intensité… Beaucoup d’expériences en sciences cognitives sont basées sur un stimulus (penser à une action précise, à un objet…) et l’analyse des réactions du cerveau du sujet face à cela. Il est ainsi possible de déterminer une structure de fonctionnement du cerveau.</p> <p><strong>La spécificité de NiConnect est d’analyser le cerveau au repos, son &quot;activité de fond&quot;</strong>&nbsp;comme le nomme Andreas Kleinschmidt, chercheur à l’Inserm et qui fait partie du projet. En l’absence de stimuli, il y a toujours une structure qui gère le cerveau, on ne passe pas en mode veille avec un néant cérébral, heureusement ! Mais il y a encore eu peu d’études sur les types d’activation de zones qui correspondent à l’exécution d’activités normalement. <strong>Notre rôle est donc de proposer des outils informatiques et statistiques pour extraire des structures de repos, et ainsi analyser de façon quantitative leur variabilité</strong>. C’est un important travail de mathématiques appliquées, et le projet NiConnect est un aboutissement de plusieurs années de travail sur le sujet.</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p> Travailler sur le cerveau au repos nous permet d’aider<br /> des personnes qui auraient sinon difficilement accès à l’IRM.</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p>On peut se demander pourquoi s’intéresser à l’analyse du fonctionnement du cerveau au repos, d’autant que comme les sujets ne reçoivent pas d’instructions, ils peuvent penser à beaucoup de choses et que les analyses sont encore plus difficiles. Mais nos analyses sont ainsi possibles sur des personnes sédatées, comme par exemple un patient atteint de la maladie de Parkinson qui aurait du mal à contrôler ses mouvements et ne pourrait pas passer d’IRM. Notre but est de servir des personnes qui auraient difficilement accès à ce type d’analyse. À plus long terme, nous espérons&nbsp; étendre nos travaux à des personnes inconscientes, et ainsi envisager d'aider&nbsp; au pronostic de sortie de coma par exemple.</p> <a name="eztoc467499_2" id="eztoc467499_2" class="anchor"></a><h3>Dans le détail, quels sont les différents axes de recherche de NiConnect ?</h3><p>Le projet est organisé autour de plusieurs volets. Tout d’abord, nous devons <strong>produire un logiciel d’analyse des images d’IRM pour les chercheurs cliniques</strong>. Il s’agit avant tout d’une consolidation de ce qui est disponible en recherche fondamentale, de créer un outil solide rassemblant cette connaissance. Cela va passer par le recrutement de trois ingénieurs échelonnés sur quatre ans. Par la suite, après avoir capitalisé sur l’existant, nous souhaitons développer de nouveaux modèles et algorithmes pour modéliser l’état de repos. Pour cette partie, nous travaillons avec le Centre Analyse et Traitement d’Images (CATI) au CEA qui sert de centre de traitement de données du Plan Alzheimer, ainsi qu’avec une petite société d’informatique scientifique, Logilab.</p> <p>Dans un deuxième volet, nous allons <strong>analyser automatiquement une importante banque de données d’images cérébrales standard pour étalonner nos modèles</strong>. Plus précisément, nous voulons analyser automatiquement les images en collaboration avec le laboratoire d’imagerie fonctionnelle de l’Inserm à la Pitié-Salpêtrière, et en détecter les anomalies, mais uniquement celles dues à des pathologies. Sur une prise de vue, nous devons être capable de distinguer le réel problème&nbsp; neurologique du scanner qui dysfonctionne.&nbsp; En corrigeant l’algorithme qui réagit mal sur le 2e cas, le logiciel permettra peu à peu aux praticiens de n’être alertés que sur les vrais problèmes.</p> <div class="object-right"> <p class="illustration" style="width:266px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/saclay/actualites-images/saclay_cerveau_regions_volume_260x195/468294-1-fre-FR/saclay_cerveau_regions_volume_260x195_xml_small.jpg" width="260" height="195" alt="" title="" /> </span> <span class="legende"> Régions cérébrales et leurs interactions apprises à partir d'IRM de repos, © Inria </span> </p></div> <p>Enfin, le dernier axe est notre <strong>participation à une étude clinique en cours sur la maladie de Parkinson</strong>, qui est menée à l’hôpital Henri Mondor avec le neurochirurgien Stéphane Palfi. Il s’agit d’un test pour un nouveau traitement de la maladie, qui a été validé sur quelques patients. Nous en sommes aujourd’hui à une étape plus importante, avec un test sur une vingtaine de patients. Il y a énormément de mesures de toutes sortes, avec entre autres de l’imagerie cérébrale. Les données sont très bruitées, c’est-à-dire qu’elles sont difficiles à analyser avec beaucoup de parasites, ce qui constitue un vrai problème statistique. Notre but est dans ce cas d’apporter les éléments les plus fiables aux médecins afin qu’ils puissent prendre les bonnes décisions.</p> <p>Le premier axe nous sert donc à créer l’outil, le deuxième volet à le calibrer et enfin le troisième nous donne une validation grandeur nature. <strong>Il s’agit donc d’un projet très complet</strong>, où les différents volets se succèdent, mais avec tout de même des périodes de recoupement pour permettre une rétroaction, pour apporter des corrections en revenant sur le point précédent. C’est très important car on fait se parler des personnes avec des cultures très différentes, et il y a un vrai besoin de se comprendre pour aboutir à un résultat qui marche. Un autre point fondamental est que tous les partenaires se connaissaient d’avance : nous sommes tous en région parisienne, nous pouvons ainsi nous voir souvent pour avancer ensemble.</p> <a name="eztoc467499_3" id="eztoc467499_3" class="anchor"></a><h3>Être porteur d’un tel projet alors que tu viens d’être recruté comme chargé de recherche, c’est assez rare non ?</h3><p> Oui, j’en suis encore stupéfait ! J’ai eu un parcours assez particulier, puisque je viens au départ de la physique, mon premier post-doc à Florence concernait la physique quantique ! Puis j’ai voulu m’attaquer à des problèmes plus ouverts, faire un travail sur des systèmes complexes comme le cerveau. J’étais dans une période de réflexion sur mon orientation, donc je suis parti travailler aux États-Unis dans une société privée de logiciel scientifique, avec justement des applications dans les neurosciences. À mon retour, j’ai contacté l’équipe Parietal pour faire un nouveau post-doc, puis un 3e pour parfaire ma maîtrise du domaine, toujours à Neurospin mais dans une équipe de l’Inserm. Et enfin me voilà embauché dans l’équipe de Bertrand Thirion.<br /> <strong>Ce parcours tortueux m’a apporté des compétences particulières</strong>, notamment en modélisation en physique et dans l’expérimentation des problèmes réels.</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p> Le fait que je sois le plus jeune ne m’interdit pas d’être le porteur<br /> du projet, car mon parcours m’a permis d’être la bonne personne<br /> pour coordonner NiConnect.</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p><strong>Mais je reste tout de même épaté, car j’ai été recruté seulement en octobre 2011, et la deadline pour déposer le projet était au début de novembre !</strong>&nbsp;On avait commencé à travailler dessus avant bien évidemment, mais c’est tout de même me donner des responsabilités très rapidement. Le fait que je sois le plus jeune ne m’interdit pas d’être le porteur du projet, car c’est vraiment mon domaine de compétences. Ça ne veut pas dire qu’il n’y a pas de personnes plus seniors, qui font partie du projet, mais c’est mon parcours particulier qui m’a permis d’être la bonne personne pour coordonner ce projet.</p> <p>Nous savons que nous avons été sélectionné car nous répondons à une problématique importante et que nous avions monté un partenariat fort. Mais rien n’était gagné, car le projet est assez atypique, puisque normalement la recherche traditionnelle en statistique et algorithmique consiste généralement à développer des algorithmes et des modèles, et que là nous allons plus loin. Dans ce projet, on dit qu’il faut aller au-delà pour avoir un impact, c’est-à-dire aller sur le terrain, faire un réel effort de génie logiciel pour que ça tourne sur de grandes masses de données. Et du coup l’acceptation de ce projet nous fait vraiment plaisir car <strong>cela signifie que l’on donne des moyens pour consolider et mettre en application sur de vraies données</strong>. On en est encore au tout début, le projet n’a été validé qu’il y a quelques semaines, l’équipe va pleinement se mettre en place quand nous aurons recruté les ingénieurs et les post-docs dont nous avons besoin.</p> Rendre les données publiques compréhensibles par le citoyen http://www.inria.fr/centre/saclay/actualites/rendre-les-donnees-publiques-comprehensibles-par-le-citoyen Wed, 29 Feb 2012 16:29:00 GMT ]]> <p>Le géant américain Google a décerné 3 Google Research Award 2011 à des Français. Jean-Daniel Fekete, responsable de l’équipe Aviz et spécialiste de la visualisation de grands volumes de données, figure parmi eux avec un projet au cœur de la problématique de l’ouverture des données publiques.</p> <a name="eztoc464097_1" id="eztoc464097_1" class="anchor"></a><h3>Qu’est-ce que ce prix représente pour vous ?</h3><p><strong>Jean-Daniel Fekete</strong>&nbsp;: Le Google Research Award est un peu particulier dans la mesure où il est destiné à <strong>financer une recherche qui intéresse Google</strong>&nbsp;et qu’il est décerné sur évaluation d’un projet. Le projet proposé par mon équipe a trait à <strong>la visualisation de grands volumes de données et à l’évaluation de ces techniques</strong>, un sujet qui intéresse Google dans le cadre de sa démarche de données ouvertes : Google Public Data. Ce service propose toutes sortes de données que l’on peut télécharger ainsi que des systèmes de visualisation pour les explorer de façon plus commode. Nous avons par conséquent beaucoup de centres d’intérêt en commun et nous avons déjà échangé sur ce type de sujets. Le prix formalise en quelque sorte une collaboration et l’intérêt que porte Google pour les travaux de l’équipe.</p> <a name="eztoc464097_2" id="eztoc464097_2" class="anchor"></a><h3>Pouvez-vous précisez l’ambition de votre projet ?</h3><p> <strong>J.-D.F.</strong>&nbsp;: Nous nous sommes aperçus que les internautes qui visitent les sites très riches en données y passent paradoxalement très peu de temps. La question est de savoir <strong>comment faire en sorte qu’ils passent assez de temps sur le site pour comprendre les données</strong>. C’est un enjeu très important à l’heure où la mise à disposition des données publiques doit permettre au citoyen de se faire une opinion, par exemple sur la répartition du budget national. Dans ce projet, nous faisons l’hypothèse que pour que ces données soient réellement accessibles, c’est-à-dire compréhensibles, il ne suffit pas d’y donner accès. Il faut aussi <strong>les présenter de telle manière que le citoyen puisse se les approprier</strong>, c’est-à-dire comprendre les données, les comparer à des alternatives, etc. <br /> C’est très intéressant au niveau scientifique car jusqu’à présent les systèmes de visualisation s’adressaient à des personnes qui avaient des questions professionnelles extrêmement précises, en science ou en économie par exemple. L’internaute qui visite ces sites n’a pas nécessairement de question précise au départ. Il s’agit donc de trouver de bonnes manières de présenter les&nbsp; données et de trouver des méthodes d’accroche qui les incitent à rester sur le site.<br /> Google est très intéressé par une généralisation de cette approche qui permettrait d’utiliser le site développé comme canevas pour d’autres applications spécialisées.</p> <a name="eztoc464097_3" id="eztoc464097_3" class="anchor"></a><h3>Quelles applications visez-vous ?</h3><p><strong>J.-D.F.</strong>&nbsp;: Nous travaillons sur des données qui intéressent le citoyen. <strong>Notre première application portera sur les élections présidentielles de 2012</strong>. Nous traiterons ensuite du budget de la nation, puis de la pollution, etc. La démarche consiste à créer un site qui présente les données de la façon la plus accessible et attrayante possible avec le concours de Jérémie Boy, étudiant en design et arts graphiques qui commence une thèse sur ce projet. Ce site nous permet ensuite de tester différents types de techniques dites d’engagement en étudiant leur impact sur l’utilisation du site.</p> <a name="eztoc464097_4" id="eztoc464097_4" class="anchor"></a><h3>Quels types d’informations offrez-vous pour les élections ? </h3><p><strong>J.-D.F.</strong>&nbsp;: Nous partons du fait que <strong>les gens ont besoin d’informations contextualisées</strong>. Par exemple, à partir d’enquêtes, nous identifions le type de questions que se posent les Français à propos des élections. L’une d’elles est de connaître le parcours des candidats, ce qui nous a poussé à travailler sur des profils de vie. Mais <strong>nous proposons aussi une démarche active</strong>. Par exemple, l’internaute peut indiquer les points qui lui paraissent essentiels, comme la sécurité sociale ou le chômage, afin d’obtenir les positions des différents candidats sur ces questions ou savoir quel candidat est le plus proche de ses convictions personnelles. Le site elections2012.aviz.fr sera accessible dès fin février.</p> Brigitte Rozoy : "En fac, j’ai découvert avec bonheur que les maths n’étaient pas que de l’assimilation, mais aussi de la réflexion" http://www.inria.fr/centre/saclay/actualites/brigitte-rozoy-les-maths-ne-sont-pas-que-de-l-assimilation Fri, 24 Feb 2012 17:45:56 GMT ]]> <p>Pour la première Semaine des mathématiques, du 12 au 18 mars, la thématique choisie est «&nbsp;Femmes et maths&nbsp;». L’occasion pour nous de mettre en avant trois chercheuses responsables d’une équipe dans le centre de Saclay, trois profils et parcours différents mais où chacune vient nous parler de son choix de travailler dans les sciences et dans la recherche. Cette semaine, rencontre avec Brigitte Rozoy, responsable de l’équipe-projet Grand-Large.</p> <p>J’étais une bonne élève au lycée, et mes parents n’auraient pas compris que je fasse autre chose que des sciences ! J’étais plutôt douée en maths, je trouvais cela amusant mais pas très intéressant, je préférais la bio ou la physique. Mais comme je n’avais pas de bonnes notes en biologie, et que j’étais nulle en TP de physique-chimie, <strong>j’ai choisi les maths, un peu par échec donc</strong>. C’était compliqué aussi parce qu’il y avait un imaginaire familial fort : un oncle brillant mathématicien était mort jeune, et c’était dur d’oser faire des maths avec cet héritage. Un de mes frères, d’un an plus jeune que moi, s’est orienté vers les maths lui aussi, mais également par une voie détournée.</p> <p>Après le lycée, grosse surprise, <strong>les maths sont devenues passionnantes alors que je ne m'y attendais pas vraiment !</strong>&nbsp;J'y trouvais de vraies problématiques, par exemple la continuité ou la question de l'existence des nombres réels non rationnels. On n’était plus dans une phase de calculs et d'automatismes, mais vraiment de concepts et de pensées. J’ai donc fait ma licence, ma maîtrise, puis mon agrégation, car ça me permettait d’être payée pour faire mes études si je passais dix ans dans l’enseignement par la suite. Après, j’ai été embauchée comme&nbsp; assistante et je me suis rapidement engagée dans un institut de recherche sur l’enseignement des mathématiques (IREM), dont j'ai été la directrice. À l’époque, avec l’introduction des mathématiques dites modernes dans les programmes du secondaire, il y avait un vrai problème sociologique de formation des enseignants. J’ai passé un peu moins de dix ans à travailler à ces questions avec des enseignants du secondaire et du supérieur, c’était très enrichissant.</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p> L’informatique en tant que science<br /> est l’aventure intellectuelle du siècle.</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p><strong>Dans les années 80 j’ai fait une nouvelle découverte à travers la logique, l’informatique, et je me suis vraiment prise de passion pour ce domaine.</strong>&nbsp;Je suis très contente d’avoir bifurqué car pour moi l’informatique en tant que science est vraiment l’aventure intellectuelle du siècle. Comme disait Gilles Dowek, l’humanité a connu plusieurs sauts, plusieurs révolutions : la parole, l’écriture, l’imprimerie et l’informatique. Ces quatre chocs de civilisation sont tous aussi importants pour l’évolution de l'humanité et modifient en profondeur son devenir de façon irréversible et fondamentale.</p> <p>Alors enseignante-chercheuse en Avignon, puis à Caen, j'ai pris le train de l'informatique et du développement&nbsp; significatif de son enseignement et de sa recherche dans les universités. <strong>Il y avait plein de choses à découvrir,&nbsp; de la place et de l'enthousiasme.</strong>&nbsp;J’ai beaucoup travaillé, appris des tas de choses, trouvé mon sujet de recherche et fait une thèse d'état. J’avais du coup 10 ans de retard par rapport aux autres, mais aussi beaucoup de collègues curieux et passionnants, de la chance, et j'ai obtenu un poste de professeure à Paris Sud.</p> <p> <strong>Je sais que j’ai eu une trajectoire pas droite, pas standard, mais je suis très contente d’avoir fait ces choix-là</strong>, d’avoir pu explorer différents domaines nouveaux et intrigants, tant sur le plan personnel que sur celui des concepts scientifiques. Ça n’a fait que renforcer mon attachement à l'enseignement, à la recherche et aux universités.<br /> En outre, j’ai eu la chance d’avoir des opportunités très positives. En effet, je suis beaucoup intervenue dans l’administration de la recherche, que ce soit dans les universités à tous les niveaux, mais aussi au ministère de l’enseignement supérieur et de la recherche. Ça donnait une autre façon de voir le panorama du fonctionnement des universités, de la recherche, avec une vision globale, stratégique, à un niveau national et international.</p> <p>Aujourd’hui proche de la retraite, je suis actuellement responsable d’une équipe Inria par intérim. En effet, Franck Cappello a créé l’équipe Grand-Large dans laquelle j’ai travaillé, puis il est parti aux États-Unis pour la mise en place du Inria-Illinois Petascale Computing Joint Lab à Urbana-Champaign. Comme le projet qui va bientôt prendre, je l’espère, la suite de Grand-Large n’était pas encore mûr, j’ai accepté de gérer la transition, en attendant que le projet de Laura Grigori se mette en place. <strong>Pour moi mon rôle est plus maintenant celui de passeure.</strong>&nbsp;J’essaie de permettre à la génération montante de bénéficier d'opportunités aussi riches et enthousiasmantes que celles que j'ai rencontrées. </p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc463005_1" id="eztoc463005_1" class="anchor"></a><h3>Thématique de recherche : les grands systèmes répartis et le calcul haute-performance</h3><p>Je me suis d’abord intéressée à la théorie des langages formels, puis aux <strong>aspects mathématiques du parallélisme et de la répartition</strong>. Les ordinateurs ont longtemps été séquentiels, c’est-à-dire qu’un seul fonctionne à la fois. Mais maintenant on sait les mettre en réseau, ils peuvent travailler « en parallèle ». Pour cela, il faut régler le trafic et les communications, pour éviter que le système ne se bloque. Dans les années 90, il y a eu un déclic important car derrière tout ça il y avait l’arrivée d’internet, de la communication à l’échelle du monde ! Puis dans les années 2000 sont apparus les très très grands réseaux, et la création de l’équipe Grand-Large pour approfondir ces sujets. Il s’agit de <strong>créer des systèmes pour un nombre important de machines qui travaillent ensemble</strong>, comme par exemple le projet Grid’5000 qui visait à faire collaborer 5000 machines sur tout le territoire français. Cela pose des questions compliquées, en particulier pour la résistance aux pannes et le calcul scientifique. Enfin, depuis 2010 nous travaillons avec Laura Grigori, Joffroy Beauquier et toute l’équipe sur les domaines du High Parallel Computing (HPC) et des grands systèmes distribués.</p> </div> </div> Grégoire Allaire, lauréat de la fondation EADS http://www.inria.fr/centre/saclay/actualites/gregoire-allaire-laureat-de-la-fondation-eads Thu, 16 Feb 2012 14:56:57 GMT ]]> <p>Grégoire Allaire, chercheur dans l'équipe Défi hébergée au Centre de Mathématiques Appliquées (CMAP) à l'École Polytechnqiue, a reçu, le 22 novembre 2011, le prix de la Fondation EADS (science et ingénierie).</p> <p>Créé en 2007 par la Fondation EADS, ce prix annuel est destiné à récompenser des chercheurs pour leurs travaux dans le domaine des sciences de l'information et de leurs applications aux domaines de l'aérospatial. Il distingue l'originalité, la qualité et l'importance de leurs recherches conduites dans un laboratoire français, entretenant avec l'industrie une coopération particulièrement fructueuse et/ou ayant eu une contribution majeure sur des sujets qui ont un impact applicatif remarquable.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc439499_1" id="eztoc439499_1" class="anchor"></a><h3>Grégoire Allaire, professeur à l'École Polytechnique (Palaiseau)</h3><p>Il a effectué des travaux sur l'optimisation de forme par des méthodes soit d'homogénéisation, en lien avec les matériaux composites, soit de lignes de niveau, permettant de varier la géométrie et la topologie des formes. Ses travaux sur l'optimisation topologique et l'algorithmique associée lui ont permis, avec son équipe, de mettre au point des méthodes numériques pour calculer les formes d'une structure, les plus robustes pour une quantité de matière donnée. Ses algorithmes sont utilisés quotidiennement dans l'industrie. </p> </div> </div> La vérification de programmes en compétition http://www.inria.fr/centre/saclay/actualites/la-verification-de-programmes-en-competition Wed, 1 Feb 2012 14:49:19 GMT ]]> <p>Six équipes sur les 29 en lice sont arrivées en tête de la compétition sur la preuve de programme associée à la conférence VSTTE 2012 (Verified Software : Theories, Tool and Experiments) qui se déroulait les 28 et 29 janvier à Philadelphie. Retour sur la compétition et ses enjeux avec deux de ses organisateurs, Jean-Christophe Filliâtre et Andrei Paskevich, membres du LRI et de l’équipe Proval.</p> <a name="eztoc434662_1" id="eztoc434662_1" class="anchor"></a><h3>Vous avez organisé une compétition sur la vérification de programme. Ces Challenge sont-ils une nouveauté dans le paysage de la recherche ? </h3> <div class="object-left"> <p class="illustration" style="width:156px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/saclay/actualites-images/saclay_jean_christophe_filliatre/434650-1-fre-FR/saclay_jean_christophe_filliatre_medium.jpg" width="150" height="200" alt="" title="" /> </span> <span class="legende"> Jean-Christophe Filliâtre </span> </p></div> <p><strong>Jean-Christophe Filliâtre</strong>&nbsp;: Dans le domaine très particulier de la preuve de programme, l’organisation de ce type de compétition est récente. La première s’est déroulée en 2010 et celle que nous venons d’organiser avec Aaron Stump de l’université de l’Iowa à l’occasion du congrès VSTTE 2012 est la troisième. En revanche ce type de compétition académique se déroule depuis de nombreuses années dans d’autres domaines. Par exemple, cela fait 15 ans qu’elles existent en démonstration automatique.</p> <a name="eztoc434662_2" id="eztoc434662_2" class="anchor"></a><h3>Quel est l’objectif de ces compétitions?</h3><p> <strong>J.-C.F.</strong>&nbsp;: Ces compétitions sont destinées à faire avancer les théories et les outils que les chercheurs développent. En faisant travailler des gens sur des problèmes identiques et bien décrits, on offre une base solide pour comparer des approches et des outils qui peuvent être radicalement différents. Ces problèmes servent aussi par la suite de référence pour évaluer plus facilement les performances d’un système. <br /> Par ailleurs la compétition offre aussi une visibilité aux outils les plus performants. Par exemple, cette année les lauréats ont été invités à présenter leurs outils à la conférence à la suite de l’annonce des résultats, et à montrer comment ils ont transcrit les énoncés de nos problèmes en programmes et spécifications formelles. Nous voulons inciter de cette manière les chercheurs à lire les solutions des finalistes et à s’intéresser à des outils qu’ils ne connaissent pas forcément.</p> <a name="eztoc434662_3" id="eztoc434662_3" class="anchor"></a><h3>En quoi consistait cette compétition ?</h3> <div class="object-right"> <p class="illustration" style="width:156px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/saclay/actualites-images/saclay_andrei_paskevich/434646-1-fre-FR/saclay_andrei_paskevich_medium.jpg" width="150" height="200" alt="" title="" /> </span> <span class="legende"> Andrei Paskevich </span> </p></div> <p><strong>Andrei Paskevich</strong>&nbsp;: Nous avons essayé, à travers les 5 problèmes proposés, de couvrir des aspects variés de programmes que l’on peut vouloir vérifier dans la vie pratique : des problèmes concernant les structures de données, la manipulation symbolique (logique combinatoire) ou des algorithmes classiques telle que la recherche du chemin le plus court dans un graphe. Il ne s’agissait pas, comme cela se fait dans la plupart des compétitions de programmation qui existent depuis longtemps et sont très populaires, d’inventer un algorithme. Dans nos problèmes, les algorithmes existent déjà et peuvent même être assez simples et très classiques. L’enjeu se situe dans le fait d’être capable de démontrer de façon formelle que les algorithmes sont corrects, que les programmes s’exécutent sans erreurs et qu’ils calculent bien ce qu’ils sont supposés calculer, c’est-à-dire qu’ils correspondent aux attentes de celui qui les utilise. Et cela peut être très compliqué !</p> <a name="eztoc434662_4" id="eztoc434662_4" class="anchor"></a><h3>Pouvez-vous commenter les résultats ?</h3><p><strong>A.P.</strong>&nbsp;: Il y avait beaucoup de solutions excellentes et nous avons décidé de retenir 6 finalistes. Les deux médailles d’or ont été décernées au système ACL2, développé à l’université du Texas, et au système KIV, développé à l’université d’Augsburg. Un point intéressant est que les solutions proposées reposent sur des approches et des outils très différents les uns des autres. Un autre point à souligner est que certains des outils qui se sont révélés très performants ne sont pas récents. ACL2, par exemple, est utilisé depuis plus de 20 ans et est connu dans le domaine des preuves&nbsp; mathématiques, des preuves de programmes ou encore des preuves de circuits électroniques. Savoir que cet outil s’est montré très convaincant pour résoudre les nouveaux problèmes soumis lors de la compétition peut, par exemple, pousser un jeune chercheur qui débute dans le domaine à s’intéresser à cet outil et aux techniques qui lui sont associées. Il faut également signaler qu’il y a aussi des systèmes très récents, de moins de deux ans, qui donnent des résultats excellents, comme Dafny par exemple, développé chez Microsoft Research.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc434662_4_1" id="eztoc434662_4_1" class="anchor"></a><h4>Les lauréats de la compétition</h4><p>Les 29 équipes candidates&nbsp; — ce qui est une très bonne participation — avaient 48h pour donner leur solution aux 5 problèmes proposés par les organisateurs. 6 finalistes ont été sélectionnés pour recevoir leur médailles :</p> <p><strong>Médailles d'or :</strong></p> <ul> <li>Système : ACL2 (University of Texas at Austin, USA) <ul> <li>Participants : University of Texas, USA / Centaur Technology, USA</li> </ul> </li> <li>Système : KIV (Institut für Informatik, Augsburg University, DE) <ul> <li>Participants : Institut für Informatik, Augsburg University, DE</li> </ul> </li> </ul> <p><strong>Médailles d'argent :</strong></p> <ul> <li>Système : PVS (Stanford Research Institute, USA) <ul> <li>Participants : Stanford Research Institute, USA</li> </ul> </li> <li>Système : Dafny (Microsoft Research, USA) <ul> <li>Participants : Microsoft Research, USA / ETH Zurich, CH</li> </ul> </li> </ul> <p><strong>Médailles de bronze :</strong></p> <ul> <li>Système : VCC (Microsoft Research, USA) <ul> <li>Participants : Microsoft Research, USA</li> </ul> </li> <li>Système : Dafny (Microsoft Research, USA) <ul> <li>Participants : Carnegie Mellon University, USA / ETH Zurich, CH</li> </ul> </li> </ul> </div> </div> Serge Abiteboul reçoit le titre "d'ACM Fellow" http://www.inria.fr/centre/saclay/actualites/serge-abiteboul-recoit-le-titre-d-acm-fellow Wed, 11 Jan 2012 22:42:38 GMT ]]> <p>Le nom de Serge Abiteboul, responsable du projet Webdam, financé par le Conseil européen de la recherche (ERC) figure désormais dans la liste des &quot;Fellows&quot; de la célèbre association internationale ACM (Association for Computing Machinery). &nbsp;</p> <p>L’ACM (Association for Computing Machinery), qui œuvre au niveau international pour la reconnaissance des sciences informatiques, vient de publier la liste de ses 46 nouveaux &quot;fellows&quot;. Ces 46 personnes sont ainsi remarquées pour leurs contributions à l’informatique, qui sont à l’origine de connaissances fondamentales dans ce domaine et de nombreuses avancées technologiques dans l’industrie, le commerce, la santé, les loisirs et l’éducation. Issues des universités, entreprises et laboratoires de recherche les plus importants au monde, elles sont récompensées pour avoir aidé à faire avancer l'innovation, et permis de maintenir la compétitivité à l’ère numérique. &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;</p> <p>Serge Abiteboul, depuis 2008 à la tête du projet Webdam (constituée dans le cadre d'une bourse ERC), est l'un des 46 membres ACM nouvellement reconnus comme &quot;ACM fellows&quot;. Ce sont ses travaux sur la théorie et la pratique des bases de données qui sont ainsi à l'honneur. Comme l'a déclaré Alain Chesnais, président de l'ACM, Serge Abiteboul fait&nbsp;partie de « <em>ces&nbsp;femmes et ces hommes, intellectuels et praticiens éminents dans le domaine de l'informatique et de l’ingénierie, qui modifient la façon dont le monde vit et fonctionne</em>&nbsp;». De ceux «&nbsp;<em>qui ont su maîtriser les outils informatiques pour relever les importants défis auxquels sont confrontés les populations du monde entier et ont créé des solutions qui améliorent notre société dans le domaine de la santé, de la communication, de la cybersécurité, de la robotique, du commerce, de l'industrie et des loisirs</em>&nbsp;».</p> <p>La plupart des nouveaux &quot;fellows&quot; sont issus des grandes universités d'Amérique du Nord. Parmi les universités hors de l’Amérique du Nord, le centre Inria Saclay - Île-de-France est, grâce à Serge Abiteboul, cité entre l'Université&nbsp;Aarhus&nbsp;(Danemark), l’Université hébraïque de Jérusalem,&nbsp;l’Université de Technologie de Tokyo&nbsp;et l’Université nationale de Singapour.&nbsp;</p> Dale Miller : « Faire que la preuve soit universelle » http://www.inria.fr/centre/saclay/actualites/dale-miller-faire-que-la-preuve-soit-universelle Tue, 6 Dec 2011 12:49:07 GMT ]]> <p>Bénéficiaire d’une bourse ERC Advanced Grant destinée aux chercheurs confirmés, Dale Miller s’engage sur le difficile chemin de la preuve. Son objectif&nbsp;: dans ce domaine très abstrait mais qui a un impact certain sur le monde réel, standardiser les systèmes de preuve et leur délivrer des certificats afin d’améliorer la confiance que l’on peut avoir en eux.</p> <p>Dale Miller en est convaincu&nbsp;: l’obtention du financement ERC va les aider lui et Parsifal, son équipe-projet, à avancer de façon significative sur le long chemin de la preuve. Et cette avancée bénéficiera à tout le monde&nbsp;! Cette preuve est un peu le Graal des chercheurs en sciences informatiques et mathématiques. Comment prouver qu’un logiciel ou un circuit électronique fait bien ce qui est attendu de lui et qu’il le fait dans les conditions et conformément aux spécifications qui ont présidé à sa création&nbsp;? Pour prouver la validité d’un programme de plusieurs millions de lignes de code, il faut parfois concevoir un nouveau programme, composé lui de plusieurs centaines de milliers de lignes de code…</p> <p>Le sujet est loin d’être trivial. Les systèmes numériques se multiplient et pas seulement dans les domaines des loisirs ou du divertissement, domaines dans lesquels l’utilisateur peut relancer lui-même son système en cas d’erreur ou se passer d’une fonction si elle est affectée par un bogue. Aujourd’hui, des codes et des programmes pilotent, contrôlent, automatisent de nombreuses tâches qui ont un impact sur nos vies quotidiennes et qui ne tolèrent aucun dysfonctionnement. Le<strong>&nbsp;lancement d’une fusée</strong>&nbsp;qui va larguer un satellite de communications supposé fonctionner de façon autonome pendant une quinzaine d’années doit être fiabilisé à 100%. De même, le <strong>monitoring de la température d’une couveuse</strong>&nbsp;ou du rythme cardiaque d’un patient qui vient d’être opéré du cœur ne supporte aucune défaillance. Sans parler des avions de ligne, des systèmes de transactions bancaires, des télécommunications, etc. A cela s’ajoute la question de la sécurité, c’est-à-dire comment protéger tous ces objets numériques des virus et des attaques malveillantes.</p> <p>Dale Miller travaille sur ces sujets depuis longtemps. Après un Ph.D. en mathématiques à l’université de Carnegie Mellon, il est professeur et chercheur en informatique. D’abord aux Etats-Unis, puis en Europe où sa matière, la logique computationnelle, bénéficie d’un grand intérêt des milieux de la recherche. Edimbourg, Glasgow, Gênes, Pise, Sienne l’attirent tout particulièrement. Mais c’est en France qu’il trouve son centre de gravité. Cet Américain marié à une Italienne, s’installe en région parisienne en 2002 lorsqu’il devient directeur de recherche au centre Inria de Saclay et professeur à l’Ecole Polytechnique. Son français n’est pas à la hauteur de son investissement dans la recherche hexagonale, «&nbsp;<em>il faudrait que je quitte le labo si je voulais vraiment parler français&nbsp;!&nbsp;</em>», affirme-t-il. C’est vrai qu’il est quotidiennement entouré d'une équipe cosmopolite : un Allemand, un Américain, un Indonésien, des Néerlandais, Italiens... et des Français. Et que la langue de travail dans la recherche reste l’anglais&nbsp;!</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>L’idée est de créer une place de marché où il sera possible d’échanger et de partager les systèmes de preuve élaborés ici ou là.</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p>Il invoque la Tour de Babel, non pour parler du multilinguisme de son environnement, mais bien pour décrire la situation en matière de preuve. «&nbsp;<em>Il n’existe aucun standard dans ce domaine. Chaque fois qu’il faut prouver qu’un système fonctionne, il faut un budget et un étudiant pour développer un vérificateur des preuves de propriétés du système. Et encore, ce vérificateur est conçu ad hoc et il ne fonctionne que pour un seul système. Parfois, il ne marche même pas pour la version suivante du système&nbsp;!&nbsp;</em>». Le contre-exemple le plus explicite est celui des fichiers texte&nbsp;: «&nbsp;<em>depuis que quelqu’un a inventé le langage html, les fichiers peuvent être lus par n’importe quel navigateur. C’est ce à quoi nous voulons parvenir dans le domaine de la preuve.</em>».</p> <p>Son idée&nbsp;: faire de la «&nbsp;chimie informatique&nbsp;», c’est-à-dire utiliser les atomes d’inférences existants pour élaborer des molécules d’inférences. Autrement dit, proposer des modules de systèmes de preuves certifiés pour pouvoir composer un système arbitraire… «&nbsp;<em>L’idée est de créer une place de marché où il sera possible d’échanger et de partager les systèmes de preuve élaborés ici ou là</em>&nbsp;». Pour parvenir à cela, Dale Miller envisage de délivrer des «&nbsp;certificats de preuve&nbsp;», c’est l’objet du projet ProofCert qui lui a valu la bourse ERC. «&nbsp;<em>En fait, ce sujet est très abstrait, mais il a un vrai impact sur le monde réel et sur notre vie...</em>&nbsp;», conclut-il.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc424219_1" id="eztoc424219_1" class="anchor"></a><h3>ProofCert, certifier la preuve&nbsp;!</h3><p>Pendant trois années, Dale Miller a peaufiné le projet ProofCert dans différents colloques et auprès d’agences de financement avant de se voir attribuer la bourse ERC Advanced Grant, soit 2,2 millions d’euros pour 5 ans à compter de janvier 2012. Concrètement cela va se traduire par le recrutement de doctorants, de post-doctorants et d'invitations de nombreux chercheurs du domaine.</p> <p>Très schématiquement, l’objectif de ProofCert est de standardiser les systèmes de preuve, de les certifier, de les répertorier dans une bibliothèque et de les mettre à disposition sur une place de marché. «&nbsp;<em>L’idée est d’instaurer une confiance dans les systèmes de preuve existants afin que les gens puissent échanger et partager leurs travaux dans ces domaines&nbsp;</em>», explique Dale Miller, «&nbsp;<em>un peu comme dans le domaine des virus et des antivirus, qui est aujourd’hui très dynamique et très coopératif</em>&nbsp;».</p> </div> </div> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc424219_1_0_0_0_0_1" id="eztoc424219_1_0_0_0_0_1" class="anchor"></a><h6><strong>Lauréats 2011</strong></h6><p>Dans la catégorie &quot;Jeunes chercheurs&quot;,&nbsp;<strong>Remi Gribonval</strong>&nbsp;(Metiss, Rennes),&nbsp;<strong>Andreas Enge</strong>&nbsp;(Lfant, Bordeaux),&nbsp;<strong>Xavier Rival</strong>&nbsp;(Abstraction, Rocquencourt),&nbsp;<strong>Erwan Faou&nbsp;</strong>(Ipso, Rennes)&nbsp;ont reçu une bourse qui leur permettra de constituer une équipe. Dans la catégorie &quot;chercheurs confirmés&quot;, ce sont les projets de&nbsp;<strong>Marie-Paule Cani </strong>(Evasion, Grenoble),&nbsp;<strong>Nicholas Ayache </strong>(Asclepios, Sophia Antipolis)<strong>&nbsp;</strong>et <strong>Dale Miller </strong>(Parsifal, Saclay), qui ont été retenus par l'ERC.</p> </div> </div> Inauguration du Pôle Commun de Recherche en Informatique http://www.inria.fr/centre/saclay/actualites/inauguration-du-pole-commun-de-recherche-en-informatique Thu, 1 Dec 2011 10:31:42 GMT ]]> <p>Au cœur du quartier du Moulon sur le plateau de Saclay, le Pôle commun de recherche en informatique (PCRI) a été inauguré, mercredi 9 novembre 2011, en présence de Laurent Wauquiez, Ministre de l’Enseignement supérieur et de la Recherche. Au sein de ce nouveau bâtiment d’environ 6000 m<sup>2</sup> &nbsp;sont rassemblées la quasi-totalité des équipes du Laboratoire de recherche en informatique, LRI, unité mixte de recherche Université Paris-Sud / CNRS, et plusieurs équipes-projets du centre Inria Saclay – Ile-de-France. Les thèmes de recherche abordés par ces chercheurs et enseignants-chercheurs du PCRI couvrent un large spectre de l’informatique, des aspects fondamentaux aux applications.</p> <p>Au cours de l’inauguration ont pris la parole&nbsp;:</p> <ul> <li><strong>Marie-Claude Gaudel</strong>, Professeur émérite à l’Université Paris-Sud, responsable du projet de création du PCRI,</li> <li><strong>Guy Couarraze</strong>, Président de l’Université Paris-Sud,</li> <li><strong>Michel Cosnard</strong>, Président-Directeur Général d’Inria,</li> <li><strong>Jérôme Guedj</strong>, Président du Conseil général de l’Essonne,</li> <li><strong>Isabelle This Saint Jean</strong>, Vice-Présidente en charge de l’enseignement supérieur et de la recherche au Conseil régional Ile-de-France,</li> <li><strong>Laurent Wauquiez</strong>, Ministre de l’Enseignement supérieur et de la Recherche.</li> </ul> Best paper à la conférence GECCO http://www.inria.fr/centre/saclay/actualites/best-paper-a-la-conference-gecco Mon, 10 Oct 2011 14:23:42 GMT ]]> <p>La conférence GECCO (<em>Genetic and Evolutionary Computation Conference</em>) est la conférence annuelle la plus importante sur les algorithmes évolutionnaires. L'article <em>&quot;Local-Meta-Model CMA-ES for Partially Separable Functions&quot;</em>, de Zyed Bouzarkouna (IFP et équipe-projet Tao), Anne Auger (équipe-projet Tao) et Didier Yu Ding (IFP) a obtenu le prix du meilleur article dans la catégorie Stratégies d’évolution/Programmation évolutionnaire de la conférence GECCO.</p> <p>En optimisation numérique dans le contexte “boîte noire”, les algorithmes d'optimisation stochastiques se trouvent confrontés à la “malediction de la dimension”, terme traduisant le fait que le volume de l'espace de recherche croît de manière exponentielle avec la dimension. Par conséquent, les problèmes résolus ont rarement plus de quelques centaines de variables. Si le problème d'optimisation est partiellement séparable, il est possible d'exploiter cette structure de séparabilité partielle pour restreindre le volume dans lequel chercher et résoudre des problèmes de plus grandes dimensions. Cet article est le premier à proposer une manière efficace d'exploiter la séparabilité partielle d'un problème d'optimisation dans le cadre de l'algorithme CMA-ES couplé avec des méta-modèles. La méthode proposée ouvre la voie à d'autres recherches dans cette direction.</p> Retrouvez-nous pour la Fête de la Science ! http://www.inria.fr/centre/saclay/actualites/retrouvez-nous-pour-la-fete-de-la-science Mon, 3 Oct 2011 14:49:41 GMT ]]> <p>Du 14 au 16 octobre 2011, jouez avec les sciences accompagnés de vos enfants sur le plateau de Saclay. Retrouvez les deux ateliers du centre Inria Saclay - Île-de-France dans le village des sciences organisé par Île-de-Science.</p> <a name="eztoc409452_1" id="eztoc409452_1" class="anchor"></a><h3>Construisons les ARN</h3><p> Chaque cellule de notre corps comporte notre ADN, porteur de nos gènes. Pour transmettre des messages à travers le corps, l’ADN a besoin de sa copie : l’ARN. Cet ARN est écrit avec 4 lettres qui fonctionnent 2 par 2 : le A avec le U, et le C avec G.<br /> Dans cette animation, nous jouerons à plier et déplier ces ARN en utilisant le moins d’énergie possible. Vous serez confrontés à l’ordinateur… Saurez-vous faire aussi bien que la machine ?</p> <a name="eztoc409452_2" id="eztoc409452_2" class="anchor"></a><h3>Mémoire vive</h3><p>En jouant en équipe, vous pourrez ainsi vous mesurer à vos camarades, vous apprendrez les secrets d'internet, des astuces mathématiques et ce que cache la recherche en informatique.</p> SADCO, l’optimisation à dimension européenne http://www.inria.fr/centre/saclay/actualites/sadco-optimisation-a-dimension-europeenne Mon, 5 Sep 2011 10:15:18 GMT ]]> <p>À l’occasion de la première école d’été du projet européen SADCO, rencontre avec sa coordinatrice, Hasnaa Zidani, de l’équipe-projet Commands, qui développe ce projet sur le contrôle optimal et nous explique son envie de former les jeunes chercheurs grâce à ce programme.</p> <a name="eztoc396797_1" id="eztoc396797_1" class="anchor"></a><h3>Pourquoi avoir choisi de faire ce type de projet européen ?</h3><p> <strong>Hasnaa Zidani</strong>&nbsp;: En premier lieu, nous voulions mettre au centre du projet la formation par la recherche pour les doctorants et les post-doctorants. Dans le vaste ensemble du 7e PCRD (programme-cadre de recherche et développement européen), nous nous sommes orientés vers les projets Marie Curie, et plus particulièrement un ITN, qui signifie réseau de formation initiale (initial training network). L’idée est donc de développer la carrière des jeunes chercheurs à travers un projet de recherche collaboratif porté par plusieurs partenaires européens. <br /> Concrètement, le projet a&nbsp; débuté officiellement au 1er janvier 2011, et se déroule sur 4 ans, réunissant 11 partenaires, dont 3 issus du monde industriel. Le projet a reçu un financement important pour former 25 doctorants et post-doctorants. Pour chacun de ces jeunes chercheurs, il est défini un programme de recherche et de formation&nbsp; personnalisé dans sa structure de rattachement. La particularité de notre projet, c’est qu’il y a obligatoirement une période de 6 mois chez un autre partenaire du projet. Ainsi, au-delà des relations professionnelles que l’on peut avoir au quotidien avec ses collègues des autres structures, ou même lors d’une visite d’équipe, ici les étudiants seront dès le départ intégrés dans des projets collaboratifs. Cela permet de véritables échanges et offre une expérience très riche humainement et scientifiquement. <br /> Ensuite, au-delà de l’aspect formation, il y a bien entendu la recherche ! Les partenaires impliqués dans ce projet ont des expertises variées et complémentaires : production, industrie militaire…Toute cette expertise sera mise au service d'une formation doctorale et post-doctorale.</p> <a name="eztoc396797_2" id="eztoc396797_2" class="anchor"></a><h3>Justement, quel est le thème de recherche de SADCO ?</h3><p><strong>H. Z.</strong>&nbsp;: Dans le projet SADCO (Sensitivity Analysis for Deterministic Controller Design), nous nous consacrons à l’optimisation, et plus précisément aux systèmes de contrôle optimal. C’est-à-dire que nous tentons de déterminer des règles, des stratégies de contrôle de systèmes complexes et dynamiques (qui évoluent dans le temps et l’espace). Le but est ainsi d’optimiser certaines mesures pour obtenir une meilleure performance. Le contrôle optimal est un outil mathématique qui s’applique dans beaucoup de domaines : industrie aérospatiale avec l’optimisation de la trajectoire des fusées, automobile avec la minimisation des impacts des accidents, télécommunications avec la position optimale d’un satellite, ou encore énergie avec la gestion intelligente des ressources.</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>Le contrôle optimal peut servir à la fois dans l’industrie aérospatiale, l’automobile ou encore la gestion des ressources en énergie.</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p> Nous travaillons pour optimiser des systèmes, voire les faire évoluer, mais toujours sur des systèmes dynamiques, qui sont très complexes à gérer : quand vous devez amener une navette sur orbite, il y a énormément de paramètres à prendre en compte à chaque seconde. Mais plus proche de nous, cet outil peut s’appliquer à votre voiture hybride, pour déterminer quand le moteur thermique ou électrique doit être utilisé afin de mieux gérer l'énergie disponible dans le véhicule.<br /> L'optimisation des systèmes dynamiques est un domaine de recherche très actif depuis plusieurs décennies. L'intérêt théorique et applicatif de ce domaine ne cesse de croître. En effet, la technologie actuelle est à la recherche de systèmes robustes de plus en plus complexes et de plus en plus performants.</p> <a name="eztoc396797_3" id="eztoc396797_3" class="anchor"></a><h3>Quel est le but d’un événement comme l’école d’été dans ce type de projet ?</h3> <div class="object-right"> <p class="illustration" style="width:266px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/saclay/actualites-images/saclay-collision-aeronautique-260x195/396781-1-fre-FR/saclay-collision-aeronautique-260x195_vignette.jpg" width="260" height="195" alt="" title="" /> </span> <span class="legende"> Graphe représentant différentes zones de risque de collision dans le contrôle aérien </span> </p></div> <p> <strong>H. Z.</strong>&nbsp;: Les différents partenaires sont liés par des projets de recherche collaboratifs et également par des activités de formation communes. En mars 2011, a eu lieu par exemple notre 1er kick-off, avec un premier jour consacré à un workshop industriel organisé par Astrium sur des applications dans l’aérospatial, et les deux jours suivants où nous étions réellement dans le lancement du projet et la réunion de tous les partenaires avec plus d’une centaine d’inscrits. Le mélange théorie et pratique a été particulièrement riche et intéressant. En particulier, la présentation des programmes de recherche des plus grands acteurs industriels en Europe offre aux jeunes étudiants recrutés une motivation importante d'intégrer&nbsp; des projets ambitieux, et une vision des futurs challenges industriels ainsi que les outils mathématiques nécessaires à développer pour parvenir à réaliser ces défis. Au niveau des équipes, l’engagement était évident.<br /> En ce qui concerne l’école d’été, le but est toujours l’échange et le renforcement des collaborations. Pour cela, il y aura bien entendu des cours sur certains aspects du contrôle optimal et de son analyse mathématiques, et des présentations de chercheurs reconnus du domaine. Mais les jeunes chercheurs auront également l’opportunité de présenter leur travail pour ainsi échanger avec leurs collègues. Notre objectif : que chacun reparte avec de nouvelles idées. Et nous saurons que les échanges ont été fructueux si, comme la dernière fois, quand tout est finalement rangé, les chercheurs continuent à échanger équations et schémas autour d’un tableau !</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc396797_3_0_1" id="eztoc396797_3_0_1" class="anchor"></a><h5><strong>Astos, partenaire industriel de SADCO</strong></h5> <div class="object-left"> <p class="illustration" style="width:116px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/saclay/actualites-images/saclay-sven-110x83/397630-2-fre-FR/saclay-sven-110x83_vignette_resume.jpg" width="110" height="83" alt="Sven Weikert" title="Sven Weikert" /> </span> <span class="legende"> Sven Weikert, Ing. Dipl. Responsable du développement d'Astos et du site de Stuttgart </span> </p></div> <p>Astos Solutions est spécialisé dans l’analyse de mission et dans les problèmes de contrôle dans l’industrie aérospatiale. La société opère également dans les domaines clés de la sécurité et de l’analyse des risques, des drones et des solutions destinées aux centres de surveillance spatiale SSA (Situational Awareness Centers). ASTOS, notre logiciel d’optimisation, de simulation et d’analyse, est exploité par l’Agence Spatiale Européenne.</p> <p> Notre domaine de simulation et d’analyse est étroitement lié aux formulations de problèmes mathématiques et aux méthodes numériques. L’industrie aérospatiale a recours à la programmation non linéaire depuis plusieurs dizaines d'années. Toutefois, de nombreux problèmes nécessitent des solutions mathématiques avancées. Les ingénieurs bénéficient donc de l’aide de mathématiciens spécialisés dotés d’une formation principalement technique. Depuis plusieurs années, Astos Solutions collabore avec le Prof. Bueskens, de l’Université de Brême, et avec Matthias Gerdts (de l’Université de la Bundeswehr à Munich). Etant donné le secteur dans lequel nous opérons, il est crucial que nous entretenions de telles relations avec la communauté mathématique. Le projet SADCO constitue à cet égard la plateforme idéale et nous permet en outre d’établir de nouveaux contacts et de rencontrer des partenaires potentiels pour des projets industriels et liés à l’Agence Spatiale Européenne. SADCO permet également aux jeunes experts mathématiciens d'appréhender les problèmes d'ingénierie courants. Ces problèmes diffèrent parfois de ceux que les mathématiciens ont l’habitude de rencontrer.<br /> &nbsp;Ainsi, nous voyons également le projet SADCO comme une plateforme nous permettant de contribuer à la formation des jeunes professionnels.</p> </div> </div> Apporter des réponses pour des échanges plus sûrs http://www.inria.fr/centre/saclay/actualites/apporter-des-reponses-pour-des-echanges-plus-surs Fri, 2 Sep 2011 09:58:59 GMT ]]> <p>Vérifier des protocoles cryptographiques, présents dans le commerce en ligne ou les distributeurs de billets, mais aussi mettre en place des outils de détection d’intrusion dans un système informatique, et ainsi alerter si une suite d’actions semblent malveillantes, tels sont les objectifs de l’équipe-projet Secsi (commune avec le LSV, le CNRS, et l’ENS Cachan). À l’occasion de la soutenance de l’habilitation à diriger des recherches (HDR) de trois de ses membres, focus sur leurs travaux de recherche.</p> <a name="eztoc396691_1" id="eztoc396691_1" class="anchor"></a><h3>Stéphanie Delaune : « Dans les outils de protection de l’anonymat, tout est à construire »</h3> <div class="object-right"> <p class="illustration" style="width:156px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/saclay/recherche-images/saclay-stephanie-delaune-195x260/395335-1-fre-FR/saclay-stephanie-delaune-195x260_medium.jpg" width="150" height="200" alt="© Inria / Photo Kaksonen" title="© Inria / Photo Kaksonen" /> </span> </p></div> <p> Notre identité, et les informations nous concernant, se retrouvent sur de nombreux supports, et sont pour cela protéger par des protocoles cryptographiques. Commerce en ligne, carte bancaire… nous pensons connaître les situations où les échanges cryptés nous protègent. Pourtant, <strong>de nouvelles failles sont découvertes régulièrement, et demandent d’élargir notre recherche</strong>. Qui imaginerait par exemple que la personne assise à côté de vous à l’aéroport puisse connaître votre identité grâce à la puce de votre passeport ? L’électronique est de plus en plus présent, et induit des échanges d’informations qu’il nous faut protéger. Les voitures de demain qui communiqueront entre elles, sur les bouchons et distances de sécurité, ne devront pas livrer à des personnes malveillantes votre adresse ou vos habitudes de conduite. Ces nouvelles applications posent de nouvelles problématiques.<br /> Jusqu'à maintenant, je m'étais beaucoup consacrée aux problèmes de confidentialité et d'authentification dans des applications comme celles présentes dans le commerce en ligne ou les distributeurs de billets. Mais aujourd’hui, notre identité numérique se démultiplie. Or les techniques mathématiques de vérification ne peuvent pas s’appliquer telles quelles de la confidentialité à la protection de l’anonymat : il faut adapter, tout est à construire. Le respect de la vie privée demandera de plus en plus de protection.<br /> <em>Et pour la suite ?</em>&nbsp;: Responsable de l’ANR VIP (Vérification de propriétés d'indistinguabilité) qui démarre en janvier 2012.</p> <a name="eztoc396691_2" id="eztoc396691_2" class="anchor"></a><h3>Steve Kremer : « Les mathématiques nous permettent de rapprocher notre protocole du modèle réel »</h3><p> Les protocoles de sécurité sont censés apporter confidentialité, authentification et anonymat. Ils sont utilisés dans des domaines de plus en plus divers, comme récemment dans le domaine du vote électronique. En Europe en 2011, les votes pour les élections parlementaires de Suisse et d’Estonie, ainsi que les élections municipales et régionales en Norvège, ont pu se faire par internet.<br /> </p> <div class="object-left"> <p class="illustration" style="width:156px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/saclay/recherche-images/saclay-steve-kremer-195x260/395339-1-fre-FR/saclay-steve-kremer-195x260_medium.jpg" width="150" height="200" alt="© Inria / Photo Kaksonen" title="© Inria / Photo Kaksonen" /> </span> </p></div> <p> <strong>Notre travail est de formaliser et d’analyser de façon automatique des protocoles de sécurité</strong>. C’est-à-dire que nous devons modéliser le protocole, l’écrire en langage mathématique, formel, puis décrire exactement ce qu’on veut dire par ses différentes propriétés. Sur l’exemple du vote électronique, la notion d’anonymat semble assez claire au premier abord. Mais si le vote est unanime, on saura qui a voté quoi… Il faut donc être très précis pour couvrir toutes les situations. Nous veillons à ce qu’un attaquant ne puisse pas avoir des informations sur les votes, mais également qu’un votant ne puisse pas divulguer son vote : l’anonymat ne peut pas être « cassé », même si on le souhaite.<br /> Plus récemment, je me suis concentré sur la correction calculatoire de nos modèles. Comme je viens de l’expliquer, nous commençons par modéliser le protocole pour ensuite le vérifier, mais pour cela on s’éloigne du programme réellement exécuté. L’attaquant est par exemple idéalisé, puisque l’on définit les actions qu’il peut exécuter. Il reste donc toujours un risque que l’on rate des attaques qui seraient en dehors du modèle. Avec les cryptographes, la description du protocole va être plus précise, et l’attaquant pourra par exemple deviner des secrets, ou exécuter des algorithmes arbitraires. Les preuves pourront ainsi être plus fortes, dans un modèle plus précis qui comprendra plus d’attaques a priori.<br /> <em>Et pour la suite ?</em>&nbsp;: Intégration au 1er septembre 2011 de l’équipe-projet Cassis au centre Nancy - Grand-Est .</p> <a name="eztoc396691_3" id="eztoc396691_3" class="anchor"></a><h3>Graham Steel : « Nous essayons de définir un nouveau standard de sécurité pour les cartes à puces »</h3> <div class="object-right"> <p class="illustration" style="width:156px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/saclay/recherche-images/saclay-graham-steel-195x260/395347-1-fre-FR/saclay-graham-steel-195x260_medium.jpg" width="150" height="200" alt="© Inria / Photo Kaksonen" title="© Inria / Photo Kaksonen" /> </span> </p></div> <p> Toutes les cartes à puces utilisent une interface de programmation particulière appelée API. Le système est construit pour que la clé cryptographique ne sorte jamais de la carte : elle peut crypter et décrypter, mais tout se fait en interne. L’API correspond donc à l’ensemble des commandes d’exécution qui peuvent être envoyées à la carte à puces.<br /> Depuis 26 ans, l’API le plus utilisé est le PKCS 11, qui est appliqué notamment dans les banques. Depuis 2003, il a été prouvé, d’abord manuellement puis en 2008 grâce à la vérification avec un model checker, que des attaques sur ce modèle étaient possibles. Mais <strong>corriger les failles de sécurité n’est pas si simple quand on sait que l’implémentation de ce modèle standard peut être très variable, et que chaque situation peut donc impliquer des attaques différentes</strong>… En effet, il est très difficile de réaliser une configuration sûre à partir de PKCS 11.<br /> Nous avons donc commencé par suggérer des changements dans les modèles pour supprimer petit à petit des types d’attaques particuliers. Nous souhaitions affiner le modèle. Mais du coup, nous avons commencé à concevoir un nouveau standard avec un niveau de sécurité beaucoup plus fort, et qui offre moins de variations dans l’implémentation pour limiter les risques. En effet, on n’essaie pas seulement de casser des protocoles, mais aussi de construire de nouvelles solutions. Nous espérons ainsi proposer bientôt un modèle plus facile à utiliser.</p> "Test of time award" pour Dale Miller http://www.inria.fr/centre/saclay/actualites/test-of-time-award-pour-dale-miller Tue, 30 Aug 2011 12:11:42 GMT ]]> <p>Dale Miller, responsable de l’équipe-projet Parsifal, a reçu lors de la conférence LICS 2011 qui s’est tenue au mois de juin à Toronto le <em>test of time award</em>&nbsp;pour un papier publié en 1991.</p> <p>Le <em>test of time award</em>&nbsp;remis lors de la conférence LICS récompense les papiers qui ont eu une influence et un impact pendant les deux décennies qui ont suivi sa publication. Ainsi, Dale Miller a été récompensé pour son papier <a href="http://www.lix.polytechnique.fr/Labo/Dale.Miller/papers/ic94.pdf" target="_self"><em>Logic Programming in a Fragment of Intuitionistic Linear Logic</em></a>&nbsp;écrit en 1991 avec Josh Hodas, son étudiant à l’époque.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc395182_0_1" id="eztoc395182_0_1" class="anchor"></a><h4><em>Logic Programming in a Fragment of Intuitionistic Linear Logic :</em></h4><p>Il s'agit de l'une des premières explorations de la programmation logique en tant que recherche de preuve dans la logique linéaire de Girard. L'article a radicalement changé la façon de percevoir la programmation logique, en suivant les changements apportés par la logique linéaire à la perception de la logique en général. Contrairement aux bases intuitionnistes que l'on donne traditionnellement à la programmation logique, ce fondement nouveau a permis la définition de modèles déclaratifs à états (par exemple pour modéliser des mises à jour de bases de données) et à ressources (par exemple pour les modèles linguistiques).</p> </div> </div> L’ANR DESCARWIN remporte la 7e compétition internationale de planification http://www.inria.fr/centre/saclay/actualites/anr-descarwin-laureat-ipc-2011 Wed, 24 Aug 2011 16:55:47 GMT ]]> <p>Le planificateur DAE<sub>X</sub> &nbsp;développé dans le cadre de l’ANR DESCARWIN, a remporté le 1<sup>er</sup> &nbsp;prix de la 7<sup>e</sup> &nbsp;compétition internationale de planification (IPC), session satisfaction déterministe temporelle.</p> <p>Cette <strong>compétition internationale</strong>&nbsp;est organisée tous les deux ans dans le cadre du congrès international de planification et d’ordonnancement (<em>International Conference on Automated Planning and Scheduling</em>&nbsp;(<strong>ICAPS</strong>)). Les objectifs de la compétition sont de fournir un forum pour une comparaison empirique des systèmes de planification, d’apporter de nouveaux défis à la communauté en testant les limites des systèmes de planification actuels, de proposer de nouveaux axes de recherche, et enfin de fournir une base de problèmes de référence ainsi qu’un formalisme de représentation pour faciliter la comparaison et l’évaluation des systèmes de planification.</p> <p> <em><strong>Divide and Evolve</strong></em><strong>&nbsp;(DAE), mariage de Descartes et Darwin, est un système de planification qui optimiser une stratégie &quot;Diviser pour régner&quot; à l'aide d'un algorithme évolutionnaire.</strong>&nbsp;Les principaux composants de DAEx sont : un principe de décomposition séquentiel dans l'espace des états, un algorithme évolutionnaire contrôlant le processus de décomposition, et un planificateur embarqué X utilisé pour résoudre en séquence les sous-problèmes successifs issus de la décomposition proposée par l'algorithme évolutionnaire. La version qui a été soumise à la compétition est DAE<sub>YAHSP</sub> , l’instanciation de DAE<sub>X</sub> &nbsp;avec le planificateur heuristique YAHSP. Le mariage de DAE et de YAHSP aboutit à une séparation claire des rôles : après quelques tentatives, YAHSP renvoie rapidement une solution tandis que DAE applique sa stratégie d’optimisation par évolutions successives.<br /> Le planificateur DAE<sub>X</sub> &nbsp;est développé dans le cadre du projet ANR DESCARWIN qui regroupe Thales Research &amp; Technology (Pierre Savéant et Johann Dréo), Inria Saclay – Île-de-France (Marc Schoenauer, équipe-projet Tao),&nbsp; et l’ONERA (Vincent Vidal).</p> Médaille d'argent du CNRS pour Jean Goubault-Larrecq http://www.inria.fr/centre/saclay/actualites/jean-goubault-larrecq-medaille-d-argent-du-cnrs Tue, 26 Jul 2011 11:25:28 GMT ]]> <p> Jean Goubault-Larrecq, responsable de l’équipe projet Secsi, vient de recevoir la Médaille d’argent du CNRS 2011, pour l’Institut des sciences informatiques et de leurs interactions (INS2I).<br /> La Médaille d'argent du CNRS distingue un chercheur pour l'originalité, la qualité et l'importance de ses travaux, reconnus sur le plan national et international.</p> <a name="eztoc384291_1" id="eztoc384291_1" class="anchor"></a><h3>Parcours</h3><p> Les premières recherches de Jean Goubault-Larrecq ont porté sur des questions de démonstration automatique de théorèmes, de spécification et de vérification formelle de logiciels, et de sémantique des langages de programmation.<br /> Il a été notamment, en 1994, l’un des premiers à montrer que les BDDs (binary decision diagrams), dont le succès était grandissant en vérification de circuits, pouvaient servir aussi de base à un démonstrateur de théorèmes efficace en logique du premier ordre.Ingénieur de recherches chez <strong>Bull S.A.</strong>&nbsp;jusqu’en 1996, il a ensuite opéré un détour comme chercheur invité pour six mois à l’université de Karlsruhe, où il a proposé un nouvel algorithme de preuve en logique du temps linéaire, avec le professeur Peter H. Schmitt.</p> <p> De retour en France, il a intégré une structure de transfert de technologie entre Bull S.A. et Inria, le GIE Dyade, où il s’est intéressé à la sécurité des protocoles cryptographiques.<br /> En 2000, il devient professeur à l’<strong>ENS Cachan</strong>, et y fonde, avec Hubert Comon-Lundh plus particulièrement, une activité de recherche en sécurité informatique. Celle-ci prend corps à la <strong>création en 2002 de l’équipe-projet Secsi</strong>&nbsp;(sécurité des systèmes d’information), dont il est le responsable scientifique.</p> <p> Secsi est un succès, une équipe regorgeant de talents, largement reconnue au plan international. Pour sa part, il y a poussé l’étude de la forme de détection d’intrusions mentionnée plus haut, ce qui a abouti, avec Julien Olivain, à la création du logiciel <strong>Orchids</strong>.&nbsp; Celui-ci a des capacités de détection uniques encore aujourd’hui, par corrélations temporelles complexes entre événements système ou réseau.<br /> Il y a aussi poussé les techniques de vérification de protocoles cryptographiques dans de nouvelles directions : intégration de théories équationnelles, analyse statique de code C utilisant des primitives cryptographiques pour assurer des propriétés de confidentialité, ou bien génération automatique de preuves de sécurité formelles (et non plus d’une simple réponse sûr/non sûr).<br /> Une confluence de besoins l’a alors mené à tenter de comprendre comment l’on pouvait modéliser la sémantique de langages ou de systèmes qui opèrent non seulement des choix non déterministes mais aussi probabilistes.&nbsp; Ceci l’a mené à proposer deux modèles satisfaisants en 2007, l’un fondé sur une relecture de la notion de capacité, due à Choquet, et l’autre sur une notion que Walley, en mathématiques financières, appelle les prévisions.&nbsp; Les deux sont des formes de “probabilités non-additives”.&nbsp; Il en a développé une grande partie de la théorie, par une approche de théorie des domaines, et plus largement, d’un point de vue topologique. Ce sont ces travaux qui ont assuré sa réputation internationale aujourd’hui.</p> Guider le médecin durant la chirurgie du cancer http://www.inria.fr/centre/saclay/actualites/guider-le-medecin-durant-la-chirurgie-du-cancer Tue, 19 Apr 2011 16:25:54 GMT ]]> <p>Le projet ADOC, dans lequel est impliquée l’équipe Galen, vise à développer un appareil permettant de fournir une aide au diagnostic pendant le déroulement de l’intervention dans la chirurgie du cancer. Le projet est &nbsp;labellisé par le pôle compétitivité Medicen et financé par le Conseil Régional Île-de-France (en ce qui concerne l’Inria).</p> <p>Ce programme de recherche translationnelle, c’est-à-dire qui fait le lien entre recherche fondamentale et recherche clinique, réunit de nombreux partenaires publics (Inria, Institut Curie, Hôpital Tenon) comme privés (LLtech, Wizarbox), chacun apportant les connaissances pointues de son domaine.</p> <p> Pour assister le chirurgien, un imageur va être développé permettant la réalisation d’images numériques des tissus. Ces images devront permettre d’indiquer, après validation par le pathologiste, si le chirurgien a retiré tous les éléments nuisibles, ou s’il doit poursuivre son intervention afin de bien enlever toutes les zones cancéreuses.<em>&nbsp;</em><br /> <em>&nbsp;</em>La société LLtech a développé des appareils d’imagerie cellulaire permettant la réalisation de biopsies optiques. Ces appareils d’imagerie tissulaire et cellulaire fournissent des images morphologiques en profondeur dans les tissus avec une précision dimensionnelle record de 1 micron (1 millième de millimètre) &nbsp;dans les trois dimensions, de manière non invasive et non destructive. L’obtention actuelle d’images cellulaires au format normalisé DICOM en autorise un traitement informatique complet.</p> <p>Le but du projet est d’en extraire, en temps réel, les informations structurelles significatives pour une aide au diagnostic et de les présenter au praticien de la façon la plus ergonomique possible.</p> <p>Les caractéristiques novatrices des images produites (résolution, imagerie en profondeur des tissus, système non-invasif) associées à l’introduction d’intelligence dans leur présentation permettent d’envisager un diagnostic amélioré. Cette étude permettra de franchir l’étape préclinique nécessaire au démarrage ultérieur d’études cliniques de validation du système comme dispositif de diagnostic.</p> Formal Models and Techniques for Analyzing Security Protocols http://www.inria.fr/centre/saclay/actualites/formal-models-and-techniques-for-analyzing-security-protocols Fri, 15 Apr 2011 11:47:02 GMT ]]> <p>Parution du livre &quot;Formal Models and Techniques for Analyzing Security Protocols / Cryptology and Information Security Series (Vol.5)&quot;, co-écrit par Steve Kremer (équipe-projet Secsi) et Véronique Cortier (équipe-projet Cassis).</p> <p> Les protocoles de sécurité sont des programmes distribués, omniprésents dans notre quotidien : banque en ligne, commerce électronique, ou encore téléphonie mobile. Leur but est de garder nos transactions et données personnelles confidentielles. Comme ces protocoles s'exécutent sur des réseaux publics et non sûrs, tels qu'Internet, leur conception est particulièrement délicate.<br /> Cet ouvrage dresse un état de l'art du domaine de l'analyse formelle des protocoles de sécurité à travers dix chapitres, écrits par des experts internationaux.</p> Best paper award pour trois chercheurs de Proval http://www.inria.fr/centre/saclay/actualites/best-paper-award-pour-trois-chercheurs-de-proval Fri, 8 Apr 2011 11:34:30 GMT ]]> <p>Mohamed Iguernelala, Evelyne Contejean et Sylvain Conchon de l'équipe-projet Proval ont reçu le prix EATC (European Association for Theoretical Computer Science) du meilleur papier ETAPs 2011 (European Joint Conferences on Theory and Practice of Software).</p> <p>Leur papier, <a href="http://www.springerlink.com/content/97145w7g4436t47m/" target="_blank">&quot;Canonized Rewriting and Ground AC-Completion Modulo Shostak Theories&quot;,</a>&nbsp;a été soumis pour la conférence <a href="http://www.etaps.org/tacas-2011" target="_blank">TACAS 2011</a>&nbsp;(Tools and Algorithms for the Construction and Analysis of Systems).</p> Le cloud computing au service de la recherche en neuro-imagerie http://www.inria.fr/centre/saclay/actualites/cloud-computing-au-service-de-la-recherche-en-neuro-imagerie Fri, 12 Nov 2010 17:12:41 GMT ]]> <p>L'équipe Parietal participe au projet Azure Brain, en collaboration avec Microsoft, et le laboratoire de recherche commun Inria-Microsoft Research, pour analyser de grandes masses de données de neuro-imagerie grâce au cloud computing. Bertrand Thirion, le responsable de l'équipe, nous explique l'intérêt de ce projet novateur.</p> <p>Il est essentiel de comprendre la variabilité du cerveau dans une population d'individus, pour mieux apprécier les différences normales mais surtout pour bien diagnostiquer certaines maladies qui atteignent le système nerveux central. Une grande partie de la variabilité est déjà présente à la naissance, et elle est probablement liée à notre code génétique. Il est donc particulièrement important de savoir comparer les gènes d'un individu et les caractéristiques de son cerveau telles que celles observées en IRM fonctionnelle ou anatomique.</p> <p>Ces dernières années, de nombreux travaux ont été entrepris pour comparer d'une part les informations génétiques avec les données comportementales ou la présence d'un maladie psychiatrique ou neuro-dégénérative, et d'autre part pour confronter les images du cerveau avec ce type d'information. Il paraît désormais important de mettre en rapport directement les données génétiques avec les images du cerveau, car celles-ci représentent une caractéristique intermédiaire, qui permettrait de mieux relier les différences observées entre génétique et comportement.</p> <p>Néanmoins, la comparaison des données de neuroimagerie et des données de génétique pose d'importants problèmes pour l'analyse statistique. En effet, on ne sait pas a priori quels gènes doivent être en correspondance avec tel signal, dans telle région du cerveau. Dans cette approche, il peut être utile de tester systématiquement les liens existants entre variables génétiques et&nbsp; variables de neuroimagerie.</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>L'utilisation de <em>cloud computing </em>pour ces calculs est un outil précieux, car elle rend possible l'expérimentation à large échelle sur des bases de données gigantesques.</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p>Mais le problème statistique se retrouve alors limité par la puissance des ordinateurs, car on dispose d'un million de variables dans chaque domaine... Il faut tester la signification de chaque lien possible, en garantissant qu'on ne fera pas de fausse détection, ce qui demande des ressources en calcul considérables. En revanche, le problème est aisément parallélisable, car il s'agit de répéter une même séquence élémentaire de calculs avec des données différentes.</p> <p>L'utilisation de <em>cloud computing </em>pour ces calculs est un outil précieux, car elle rend possible l'expérimentation à large échelle sur des bases de données gigantesques. En utilisant les <em>cloud computing</em>, nous espérons faciliter la découverte d'interactions entre certains gènes et certaines différences du fonctionnement ou la forme du cerveau.</p> Nikos Paragios : une vie dédiée à la vision artificielle et à ses applications pour la médecine http://www.inria.fr/centre/saclay/actualites/nikos-paragios-une-vie-dediee-a-la-vision-artificielle-et-a-ses-applications-pour-la-medecine Thu, 4 Nov 2010 14:26:01 GMT ]]> <p>Cette année,&nbsp;huit des lauréats ERC sont responsables ou membres d'équipes-projets Inria. Nikos Paragios, professeur à l'Ecole Centrale de Paris, a été&nbsp;sélectionné dans la catégorie jeune chercheur. D’un montant d'environ 1 500 000 euros, cette bourse permettra à ce scientifique de renforcer l’équipe GALEN et de conduire un projet de recherche ambitieux sur cinq ans sur la vision artificielle appliquée au domaine médical. Rencontre avec le chercheur.</p> <p>Après un bref passage à Rennes, Nikos Paragios, natif d’une petite île de la mer Egée a pu renouer avec ses racines méditerranéennes. &nbsp;Entre 1996 et 1999, il effectue sa thèse au centre Inria de Sophia-Antipolis sur la vision artificielle avant de travailler au centre de recherche de Siemens à Princeton (USA) tout en enseignant à l’Université de New York, et l’Université d’Etat de New Jersey. A l’issue de 5 ans de recherche et après le dépôt d’une trentaine de brevets autour de l’imagerie médicale, la nostalgie du Vieux continent l’a emporté. Il enseigne à l’Ecole des Ponts et Chaussées, puis devient professeur à l’Ecole Centrale de Paris et, depuis 2008, dirige l’équipe <a href="/domaines/stic-pour-les-sciences-de-la-vie-et-de-l-environnement/images-modeles-et-algorithmes-pour-la-medecine-et-les-neurosciences/galen" target="_self">GALEN</a>,&nbsp;une équipe mixte entre le centre Inria de Saclay Ile-de-France et l’Ecole Centrale dont les travaux portent sur la modélisation d’organes à travers l’extraction, la représentation et la compréhension du contenu des images médicales.&nbsp;Un fil rouge dans sa carrière : la vision artificielle appliquée au domaine médical, des travaux qui lui ont permis de remporter une bourse ERC dans la catégorie « jeunes chercheurs » pour consolider son équipe.</p> <p>L’impact sociétal de ses recherches est primordial pour&nbsp;Nikos Paragios&nbsp;: « <em>si elles aboutissent cela peut faire une différence énorme sur la vie de tous les jours » </em>déclare-t-il à propos de ses travaux consistant à reproduire la vision humaine. Cette dernière est une fonction qui accapare une grande partie du cerveau, un pari énorme donc pour le chercheur lorsqu’on sait que l’ordinateur le plus puissant arrive à peine à reproduire un infime partie des capacités visuelles humaines.<em>&nbsp;« C’est très faible, une fraction minime par rapport aux capacités d’un enfant de 5 ans</em>&nbsp;». S’il a choisi de se consacrer à cette discipline c’est aussi pour sa transversalité : « <em>elle touche aux mathématiques appliquées, à la médecine, la biologie, l’informatique... Nous essayons de créer une approche théorique unificatrice et sa plateforme logicielle capable de reproduire des systèmes intelligents proches des systèmes biologiques. Ceci afin d’aider les médecins à faire des diagnostics précoces à partir du traitement automatique des données issues de l’imagerie médicale (scanners, IRM, …)</em>&nbsp;».</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>A la place des yeux du médecin, des ordinateurs l'assisteront... Ce qui permettra de voir l'évolution d'une tumeur dans le temps ou de repérer une maladie précoce</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p>Ses recherches se situent dans un contexte où les développements technologiques récents ont donné naissance à une nouvelle génération de scanners ainsi qu’à de nouvelles modalités d’acquisition qui permettent la visualisation in vivo des structures anatomiques des systèmes biologiques de manière non invasive. Les données issues de ces outils d’imagerie médicale ne peuvent pas être interprétées à l’œil nu. Pour le moment. Grâce à DIOCLES, l’outil logiciel proposé par Nikos Paragios, « <em>A la place des yeux du médecin, des ordinateurs l'assisteront en exploitant les données des scanners, des IRMs, etc</em>. » explique-t-il. «<em>&nbsp;Ce qui permettra de voir, par exemple, l'évolution d'une tumeur dans le temps ou de repérer une maladie précoce</em>&nbsp;». Mais, au lieu de créer pour chaque maladie une approche différente comme il en existe aujourd’hui (pour l’infarctus du cœur par exemple), le chercheur se focalise sur une plateforme générique permettant, en se basant sur le traitement de n’importe quelle image, de décliner le plus grand nombre de maladies possibles.&nbsp;</p> <p>Pour l’équipe <a href="/domaines/stic-pour-les-sciences-de-la-vie-et-de-l-environnement/images-modeles-et-algorithmes-pour-la-medecine-et-les-neurosciences/galen" target="_self">GALEN</a>, il s’agit d’utiliser des méthodes d’optimisation discrète et des modèles statistiques afin d’identifier des cas normaux et des cas pathologiques et de les comparer à celles d’un patient déterminé tout en essayant de donner des réponses adaptées à des multitudes de variations : est-ce une personne âgée ? quels sont ses antécédents médicaux ?, etc...</p> <p>La modélisation des effets du vieillissement à long terme et leur compréhension est d’une grande importance pour de nombreux organes et maladies qui ne présentent pas d’indicateurs pré-cliniques comme les maladies neurologiques du cerveau, les maladies musculaires et certaines formes de cancer. Ces recherches se font, notamment, en collaboration avec des établissements hospitaliers (CHU Henri Mondor de Créteil, Pitié Salpêtrière) qui fournissent à l’équipe les données nécessaires et les connaissances liées aux types de maladie étudiées. « <em>C’est un échange permanent, très enrichissa</em>nt », remarque le chercheur qui se félicite de bénéficier de cette bourse dans le cadre de la collaboration entre l’Ecole Centrale de Paris et l’Inria, une cohabitation entre des ingénieurs capables d’aborder les grands défis du XXIe siècle et l’excellence scientifique avec un appui à la recherche sans faille.</p> <p>Il avait déjà choisi l’institut pour « son exceptionnelle renommée internationale et son label de qualité » afin de poursuivre ses études à sa sortie de l’Université de Crète. L’ERC va lui permettre de recruter « <em>des jeunes professeurs ou maîtres de conférence en mathématiques appliquées et en informatique pour m’aider à renforcer les axes théoriques nécessaires à la réalisation de cette plateforme</em>&nbsp;». Un objectif qui n’inquiète pas Nikos Paragios : « <em>c’est un domaine assez ouvert, en pleine expansion ; beaucoup de chercheurs travaillent déjà en France et dans le monde sur ce sujet qui offre des perspectives d’évolution de carrière intéressantes. Et il est toujours plus facile de motiver des candidats sur une recherche de pointe à risque et à caractère sociétal</em>… ».&nbsp;</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc58874_0_0_0_1" id="eztoc58874_0_0_0_1" class="anchor"></a><h6>Lauréats 2010</h6><p>Dans la catégorie &quot;Jeunes chercheurs&quot;, Axel Hutt (Cortex, Nancy), Paola Goatin (Opale, Sophia Antipolis), Pierre Alliez (Geometrica, Sophia Antipolis), Kartikeyan Bhargavan (Moscova, Rocquencourt), Véronique Cortier (Cassis, Nancy), Nikos Paragios (Galen, Saclay) ont reçu une bourse qui leur permettra de constituer une équipe. Dans la catégorie &quot;Chercheurs confirmés&quot;, Jean Ponce (Willow, Rocquencourt) et André Seznec (Alf, Rennes) sont lauréats et ont choisi l'Inria pour poursuivre leurs travaux.</p> </div> </div> Des petits robots pour réaliser de grandes choses http://www.inria.fr/centre/saclay/actualites/petits-robots-pour-realiser-de-grandes-choses Wed, 27 Oct 2010 16:30:55 GMT ]]> <p>Projet réalisé sur 5 ans, SYMBRION (<em>Symbiotic Evolutionary Robot Organisms</em>) vient de passer le jalon du milieu de parcours. Douze partenaires européens sont impliqués dans ce projet de robotique collaborative.</p> <p> Le but de cette coopération (entre robots) est d’arriver à ce que des petits robots autonomes réussissent à s’assembler et à fonctionner comme un organisme lui-même autonome. Les applications de la réussite d’un tel projet peuvent être très diverses&nbsp;: explorer par exemple un&nbsp;terrain inconnu et dangereux ou repérer les survivants dans un tremblement de terre. Les robots pourraient ainsi former par exemple un serpent pour passer par un couloir étroit, puis s’éclater pour couvrir plus d’espace de recherche, se transformer en araignée pour franchir des obstacles, etc.<br /> &nbsp;<br /> &nbsp;Les robots sont programmés par évolution. Attention, seuls les programmes qui contrôlent les robots vont réellement «&nbsp;se reproduire&nbsp;». En particulier, les robots ne vont pas se multiplier&nbsp;! Par contre, les programmes les plus performants pour la tâche à accomplir vont se propager de robot en robot, comme si au final ils partageaient chacun un bout de cerveau.</p> <p> &nbsp;Quelques expériences de ce type ont déjà été réalisées, mais uniquement hors-ligne, c'est-à-dire que la phase d'évolution a lieu sous contrôle, et que seuls les meilleurs programme résultant de l´évolution sont ensuite implantés sur les vrais robots et les contrôlent pendant la tâche. <br /> &nbsp;Le défi scientifique de ce projet est de réaliser la même procédure, mais en ligne. Les robots ne sont pas arrêtés et doivent pouvoir s’améliorer par évolution sans aide extérieure&nbsp;: nous sommes bien là dans le domaine de l’intelligence artificielle.</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>Ce projet d'intelligence artificielle permettra à terme d'explorer des terrains dangereux et de repérer des survivants dans un tremblement de terre.</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p>L’équipe-projet Tao intervient sur deux points&nbsp;dans ce projet collaboratif :</p> <ul> <li>La définition des critères d’évolution. Les programmes doivent s’évaluer pour propager les meilleurs, mais sur quels critères se baser&nbsp;? L’idée est&nbsp; d'essayer de donner aux robots des &quot;instincts&quot; tels que la curiosité et l’esprit de découverte.</li> <li>Comment implanter cette évolution darwinienne dans les robots&nbsp;? Les algorithmes d'évolution artificielle existants ne peuvent pas être utilisés tels quels, et doivent être adaptés à l'environnement particulier.</li> </ul> <p>La difficulté consistera ensuite à gérer la relation entre ces deux points. Après avoir défini les critères d’évolution, il est important que le critère soit optimisé pour prendre en compte les nouvelles caractéristiques des meilleurs programmes à chaque nouvelle implémentation. Enfin, les robots sont <em>in fine</em>&nbsp;destinés à accomplir une tâche précise, et il s'agit de voir comment guider l'évolution sans restreindre le champs des possibles en ayant une idée trop précise de la manière de réaliser la tâche demandée.</p> <div class="object-center"> <p class="illustration" style="width:606px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/saclay2/actualites-images/saclay-robotssymbrionobstacle-600x450/57589-1-fre-FR/saclay-robotssymbrionobstacle-600x450_xml_medium.jpg" width="600" height="450" alt="© SYMBRION" title="© SYMBRION" /> </span> <span class="legende"> Cette image est une illustration du concept d'intelligence artificielle développé par le projet SYMBRION, mais n'est pas représentative d'une expérimentation réelle </span> </p></div> <p> L’équipe-projet Tao travaille donc sur une partie immatérielle de ce projet de robotique, tandis que d'autres partenaires définissent et construisent les vrais robots. Mais la conception et la construction de nouveaux types de robots demande du temps – et en attendant leur disponibilité, il faut pour l'instant travailler uniquement dans l’abstrait sans pouvoir tester les résultats sur de vrais robots – le test ultime en robotique, évidemment.<br /> &nbsp;La complexité du problème vient en effet que les algorithmes doivent fonctionner sur de «&nbsp;vrais&nbsp;» robots, et pas seulement sur les simulateurs utilisés lors de leur conception. Ce fossé (<em>reality gap)</em>, dû par exemple au fait que, dans un simulateur, les roues du robot ne patinent jamais, et autres avatars de la vraie vie, pose la question sur laquelle les roboticiens s'étripent depuis des dizaines d'années&nbsp;: comment faire de la robotique sans robot&nbsp;? Mais ce défi est passionnant.</p> Laurent Romary et Patrice Lopez, premiers à CLEF-IP 2010 http://www.inria.fr/centre/saclay/actualites/laurent-romary-et-patrice-lopez-premiers-a-clef-ip-2010 Wed, 27 Oct 2010 15:50:52 GMT ]]> <p>Pour la deuxième année consécutive, Laurent Romary et Patrice Lopez ont remporté la compétition de recherche d’informations CLEF-IP.</p> <p>PATATRAS (PATent and Article Tracking, Retrieval and AnalysiS), leur système de recherche, ne les a donc pas fait chuter, mais leur a permis de se positionner très loin devant les autres équipes de recherche participantes.</p> <p>Créé en 2009 par l’Information Retrieval Facility (Vienne, Autriche), CLEF-IP est l’une des compétitions organisées dans le cadre de la conférence <a href="http://clef2010.org/" target="_blank">CLEF</a>&nbsp;(Conference on Multilingual and Multimodal Information Access Evaluation). Cette compétition est consacrée à l’évaluation de techniques d’indexation et de recherche d’informations à grande échelle dans des collections multilingues de documents brevets. L’objectif est d’automatiser les recherches d’antériorité effectuées par les examinateurs de brevet, en vue de refuser, révoquer ou restreindre un brevet.</p> <p> La base documentaire CLEF-IP 2010 contient environ 2,6 millions de documents correspondant à l’ensemble des demandes de brevets auprès de l’<a href="http://www.epo.org/" target="_blank">Office Européen des Brevets</a>&nbsp;jusqu’en 2002 et recouvrant trois langues (anglais, français et allemand). La recherche d’antériorité portait sur un jeu de 2 000 documents.<br /> Premiers cette année sur un total de 9 participants, Laurent Romary et Patrice Lopez avaient déjà obtenu un résultat similaire l’an dernier à cette même compétition, parmi 14 participants.<br /> <em>« Nos points forts, </em>souligne Laurent Romary<em>, sont tout d’abord un bon usage des connaissances terminologiques (grâce à notre plateforme de données terminologiques GRISP - http://hal.inria.fr/inria-00490312/fr/) et la capacité à extraire les informations bibliographiques dans un document. Nous nous sommes aussi appuyés sur la combinaison de multiples techniques d’apprentissage automatique pour capturer et systématiser les stratégies de recherche manuelle des examinateurs de brevet, qui sont eux-mêmes des experts dans leur domaine technique. »</em></p> <div class="object-center"> <p class="illustration" style="width:606px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/saclay2/actualites-images/saclay-illustrationsystemeclef2010-600/57524-1-fre-FR/saclay-illustrationsystemeclef2010-600_xml_medium.jpg" width="600" height="395" alt="" title="" /> </span> </p></div> <p>Au delà de l’exploitation de l’information brevet, ce type de recherche a pour finalité d’aider les ingénieurs et les chercheurs à faire face au déluge d’informations scientifiques et techniques. L’un des enjeux de l’eScience est d’automatiser les techniques de fouilles de textes et de données d’expérimentation à un niveau permettant de suggérer automatiquement des nouvelles hypothèses scientifiques pertinentes et des approches techniques potentiellement innovantes.</p> Trois récompenses à l'ACM GECCO 2010 http://www.inria.fr/centre/saclay/actualites/trois-recompenses-a-l-acm-gecco-2010 Thu, 7 Oct 2010 18:33:05 GMT ]]> <p>Dans les équipes-projets Tao et Regularity</p> <ul> <li><a href="http://www.sigevo.org/gecco-2010/papers.html#BPAwinners" target="_blank">Best Paper Award</a>&nbsp;dans la catégorie <em>Evolution Strategies and Evolutionary Programming</em>&nbsp;pour Nikolaus Hansen (Tao) et Dirk V. Arnold avec <a href="http://hal.inria.fr/hal-00503250/en/" target="_blank"><em>&quot;Active Covariance Matrix Adaptation for the (1+1)-CMA-ES&quot;</em></a>.</li> <li><a href="http://www.sigevo.org/gecco-2010/papers.html#BPAwinners" target="_blank">Best Paper Award</a>&nbsp;dans la catégorie <em>Genetic Programming</em>&nbsp;pour Jacques Lévy-Véhel (Regularity), Leonardo Trujillo, Pierrick Legrand avec <a href="http://regularity.saclay.inria.fr/publications/publis-2010/Gecco2010.pdf" target="_blank"><em>&quot;</em><em>The Estimation of H</em><em>ö</em></a><em><a href="http://regularity.saclay.inria.fr/publications/publis-2010/Gecco2010.pdf" target="_blank">lderian Regularity using Genetic Programming&quot;</a>.</em></li> <li><a href="http://www.sigevo.org/gecco-2010/competitions.html#humieswinners" target="_blank">Médaille d'argent</a>&nbsp;aux <a href="http://www.genetic-programming.org/hc2010/cfe2010.html" target="_blank">Humies Awards</a>&nbsp;pour Marc Schoenauer et Jacques Bibai (Tao), Pierre Savéant et Vincent Vidal avec <a href="http://hal.inria.fr/docs/00/45/62/92/PDF/icaps10.pdf" target="_blank"><em>&quot;An Evolutionary Metaheuristic for Domain-Independent Satisficing Planning&quot;</em></a>.</li> </ul> Lancement d'un important projet franco-japonais sur le calcul haute performance http://www.inria.fr/centre/saclay/actualites/projet-franco-japonais-calcul-haute-performance Thu, 7 Oct 2010 17:56:38 GMT ]]> <p>L’ANR-JST FP3C (Framework and Programming for Post Petascale Computing), coordonné en France par l’équipe-projet Grand-Large, souhaite relever les défis du calcul haute performance. Cette collaboration exceptionnelle entre la France et le Japon fait partie des 4 projets retenus parmi de très nombreux projets soumis pour cet appel.</p> <p><em>&quot;Les supercalculateurs actuels réalisent en un jour une tâche qu’un ordinateur de bureau mettrait 150 ans à accomplir. Leur puissance, traduite en opérations par seconde (flops), double presque chaque année – elle est, en 2010, de l’ordre de 2 10 15 flops (ou 2 pétaflops). De nombreux domaines scientifiques et techniques, comme l’aéronautique, l’astrophysique, les matériaux, la chimie quantique, la santé, l’environnement, ou encore la fusion nucléaire, sont aujourd’hui dépendants des capacités de calcul intensif.&quot;</em></p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>Les supercalculateurs constituent donc un outil stratégique de compétitivité pour les États et les entreprises.</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p>L’<strong>ANR-JST FP3C</strong>&nbsp;(Framework and Programming for Post Petascale Computing), coordonné en France par Serge Petiton de l’équipe-projet Grand-Large, souhaite relever le défi de ce domaine essentiel du calcul haute performance. Cette collaboration exceptionnelle entre la France et le Japon fait partie des 4 projets retenus parmi de très nombreux projets soumis pour cet appel. Il vise à contribuer à établir des technologies logicielles, des langages et des modèles de programmation informatique pour explorer des performances informatiques extrêmes au-delà de l’échelle du petaflop, en direction de l'informatique exascale.</p> <p>La France et le Japon prévoient d'accueillir certains de ces systèmes d'ici la fin du projet FP3C, avec des machines aux capacités de calcul exceptionnelle. C’est pour ouvrir ce projet ambitieux que se tiendra les 6 et 7 septembre 2010 une <strong>réunion des différents partenaires</strong>&nbsp;dans les locaux de l’Inria Saclay – Île-de-France. La première journée sera introduite par une intervention de Michel Cosnard, président-directeur général de l’Inria.</p> Nozha Boujemaa, directrice du centre Inria Saclay - Île-de-France http://www.inria.fr/centre/saclay/actualites/nomination-nozha-boujemaa Fri, 10 Sep 2010 15:33:56 GMT ]]> <p> Nozha Boujemaa succède à Antoine Petit et Michel Bidoit à la direction du centre de recherche Inria Saclay - Île-de-France.<br /> Elle travaillera au développement du centre, en visant, sur le plateau de Saclay, à la consolidation d’un campus de recherche et d’innovation à dimension internationale.</p> <p> Titulaire d'une HDR en informatique et directrice de recherche Inria, Nozha Boujemaa dirige depuis 2000 les travaux de l'équipe projet Imedia. Spécialiste en indexation et recherche interactive d'information par le contenu visuel, elle a contribué à l'émergence de moteurs de recherche multimédia de nouvelle génération. Elle est membre fondateur d' ACM (International Conference on Multimedia Retrieval) et de son comité de pilotage.<br /> Elle a assuré la coordination scientifique de plusieurs projets européens et mené de nombreuses missions d'expertise scientifique auprès d’institutions françaises, européennes et américaines. Elle a été membre de la commission d'évaluation Inria (2004-2008) et membre de l'équipe de direction du centre Inria Paris - Rocquencourt.</p> SemEval-2010 : compétition remportée par des chercheurs Inria http://www.inria.fr/centre/saclay/actualites/semeval-2010 Mon, 6 Sep 2010 17:41:39 GMT ]]> <p>Laurent Romary et Patrice Lopez ont été classés 1er sur 19 participants dans le cadre de la compétition SemEval-2010, pour la tâche « Extraction automatique de mots-clés dans des articles scientifiques ». Ils ont présenté leurs résultats au cours du workshop SemEval-2010 qui a eu lieu à Uppsala en Suède, le 16 juillet dernier.</p> <p class=" text-justify"> SemEval (auparavant <a href="http://www.senseval.org/" target="_blank">Senseval</a>) a pour objectif d’évaluer les systèmes d’analyse sémantique de textes. SemEval-2010 est la 5e édition de ce workshop qui rassemble un nombre toujours croissant de participants et de langues sous la forme de différentes tâches compétitives. Le but de la tâche concernée est d’extraire automatiquement les mots-clés d’articles scientifiques et de les classer selon leur pertinence, au sens où les auteurs ou les lecteurs pourraient les juger. L’extraction automatique de termes techniques et la qualité de l’identification des sujets principaux d’un article scientifique constituent un enjeu important dans un grand nombre d’applications et de domaines. On peut citer les bibliothèques numériques, la recherche d’informations ou bien le résumé automatique de documents. <br /> Laurent Romary et Patrice Lopez ont utilisé une approche basée sur des techniques d’apprentissage automatique exploitant différents critères de distribution de termes, ainsi qu’une analyse de la structure des documents rencontrée dans les publications scientifiques. Ils se sont en outre appuyés sur la plateforme de données terminologiques <a href="http://hal.inria.fr/inria-00490312/fr" target="_blank">GRISP </a>qu’ils ont spécifiquement conçue pour les domaines techniques et scientifiques. L’exercice était basé sur un corpus d’environ 300 articles scientifiques fournis par ACM.</p>