http://www.inria.fr/actualite/actualites-inria/(view_mode)/rss fr Les actualités d'Inria Retrouvez toutes les actualités notre Institut Mon, 03 Dec 2012 01:25:09 +0100 Francis Maes en visite dans l'équipe Tao http://www.inria.fr/centre/saclay/actualites/francis-maes-en-visite-dans-l-equipe-tao <p>Francis Maes, de l'Université de Leuwen, est en visite pour un mois, du 20 novembre au 20 décembre 2012 dans l'équipe Tao.</p> Excellent paper award pour l'équipe Tao pour le papier "Strategic Choices: Small Budgets and Simple Regret" http://www.inria.fr/centre/saclay/actualites/excellent-paper-award-pour-l-equipe-tao-pour-le-papier-strategic-choices-small-budgets-and-simple-regret <p>Excellent paper award à la conférence en Technologies et Applications en Intelligence Artificielle TAAI 2012 pour le papier &quot;Strategic Choices: Small Budgets and Simple Regret&quot; d'Olivier Teytaud (équipe Tao), Chen-Wei Chou, Ping-Chiang Chou, Chang-Shing Lee, David Lupien St-Pierre, Mei-Hui Wang, Li-Wen Wu et Shi-Jim Yen.</p> Partenariat Sémanticpédia : retour en images http://www.inria.fr/actualite/actualites-inria/partenariat-semanticpedia ]]> <p>Le 19 novembre dernier, Inria, le ministère de la Culture et de la Communication et la fondation Wikimedia France ont signé une convention autour de la plateforme SemanticPedia. Cet événement inaugure le premier projet de cette plateforme qu’est le chapitre français de DBpédia.</p> <div id="amiando1" class="amiando"> <p><iframe align="center" src="http://www.flickr.com/slideShow/index.gne?group_id=&user_id=89843271@N08&set_id=72157632072180127&tags=Inria,Semanticpedia" frameBorder="0" width="600" height="400" scrolling="no"></iframe><br/><small>Created with <a href="http://www.admarket.se" title="Admarket.se">Admarket's</a> <a href="http://flickrslidr.com" title="flickrSLiDR">flickrSLiDR</a>.</small></p> </div> <script type="text/javascript"> resize_amiando('amiando1', '590'); </script> <br class="clear" /> Nozha Boujemaa, chevalier de l'Ordre National du Mérite http://www.inria.fr/centre/saclay/actualites/nozha-boujemaa-chevalier-de-l-ordre-national-du-merite Mon, 26 Nov 2012 17:52:08 GMT ]]> <p>Nozha Boujemaa, directrice du centre Inria Saclay - Île-de-France, a été distinguée au grade de chevalier de l'Ordre National du Mérite, selon le décret PREX1238852D du 14 novembre 2012.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc585372_0_0_1" id="eztoc585372_0_0_1" class="anchor"></a><h5>L'ordre National du Mérite</h5><p> L’Ordre National du Mérite est un ordre français qui a été institué le 3 décembre 1963 par le général de Gaulle. Il récompense les mérites distingués, militaires (d'active et de réserve) ou civils, rendus à la nation française. Il remplace d'anciens ordres ministériels et coloniaux.<br /> Il comprend trois grades : chevalier, officier et commandeur, et deux dignités : grand officier et grand-croix.<br /> La nomination dans l'Ordre National du Mérite peut se faire par proposition ministérielle ainsi que par la procédure d'initiative citoyenne.</p> </div> </div> L'émergence de la réalité augmentée, à la frontière du réel et du virtuel http://www.inria.fr/centre/grenoble/actualites/l-emergence-de-la-realite-augmentee-a-la-frontiere-du-reel-et-du-virtuel Sun, 25 Nov 2012 19:08:02 GMT ]]> <p>La simulation interactive d’environnements réels ou imaginaires se développe depuis les années 1980. D’abord l’apanage des jeux vidéo, elle est désormais utilisée dans des simulateurs de toutes sortes (camion, super-tanker, train, avion), les visites de sites virtuels (musées, sites archéologiques) ou pour soigner (phobies, troubles de l’équilibre, etc.). Outre les progrès en matière d’images de synthèse, indispensables pour ces applications, c’est la miniaturisation qui a révolutionné les usages.</p> <p><strong>Témoignages de Jean-Dominique Gascuel et Jacques Lemordant</strong>, respectivement spécialistes de synthèse d’images pour la réalité virtuelle (équipe <a href="/domaines/perception-cognition-interaction/interaction-et-visualisation/maverick" target="_blank">Maverick</a>) et des technologies web et de la création de contenus pour la réalité augmentée (équipe <a href="/domaines/perception-cognition-interaction/representation-et-traitement-des-donnees-et-des-connaissances/tyrex" target="_blank">Tyrex</a>).</p> <br class="clear" /> <div class="object-right"> <p class="illustration" style="width:206px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/corps/salle-prv-grenoble/584978-1-fre-FR/salle-prv-grenoble_medium.jpg" width="200" height="137" alt="Projection immersive, Inria à Grenoble en 1999" title="Projection immersive, Inria à Grenoble en 1999" /> </span> <span class="legende"> Immersion 3D avec lunettes stéréo actives et calculateur graphique haute performance - <cite>© Inria / Photo R. Lamoureux </cite> </span> </p></div> <p>En 1999, le centre Inria de Grenoble était un des premiers en France à s’équiper d’une salle de réalité virtuelle (un investissement de 1,5 million d’euros) dans laquelle les chercheurs inventaient le futur avec gants tactiles, bras à retour d’efforts et lunettes stéréoscopiques. </p> <p>Dix ans plus tard, on pouvait équiper un PC d’une carte graphique et atteindre une puissance de calcul qui permettait à tout un chacun d’interagir dans ces environnements, à moindre coût. </p> <br class="clear" /> <a name="eztoc584783_1" id="eztoc584783_1" class="anchor"></a><h3>De la réalité virtuelle à la réalité augmentée</h3><p>Parallèlement, à partir de 1990, les objets synthétiques 3D tentaient de s’intégrer au monde réel donnant naissance à ce qu’on appelle la réalité augmentée. </p> <p>Cette fois, on est dans notre environnement mais grâce à des images ou des sons de synthèse, on l’enrichit en temps réel, on y superpose des informations et des éléments virtuels. Par exemple, des informations peuvent être affichées sur l’écran d’un téléphone mobile, superposées à l’image fournie par sa caméra. Autre exemple : la loupe magique d’un chirurgien qui superpose des informations médicales sur l'image d'un organe pendant une opération.</p> <p>En fait, la technologie a fait un véritable bond en avant et les applications en situation de mobilité se sont multiplié grâce aux téléphones mobiles dont les chercheurs ont détourné les incroyables équipements. L’iPhone, en 2007, a créé la surprise en proposant un écran tactile ouvrant la voie à des applications graphique et audio. Puis, dès 2010, des gyroscopes (capteurs de mouvements angulaires) produits par ST Micro ont été intégrés permettant de connaître en 3D la position et les mouvements du mobile. </p> <p> Et aujourd’hui, tous les capteurs (magnétomètres, gyroscopes, accéléromètres, capteur de pression, caméra, micro, GPS) qui équipent les téléphones haut de gamme donnent une multitude d’informations sur l’environnement. <br /> On peut déterminer précisément dans quel contexte urbain on se trouve et y ajouter des éléments virtuels ou des données du web, géolocalisées, sonores ou visuelles, sur la ville, ses habitants, ses monuments, son passé, des directions de navigation... On peut par exemple remplacer un bâtiment pour imaginer une nouvelle construction en situation, donner des précisions sur un lieu, aider des déficients visuels à se déplacer en ville, etc. </p> <p>N’oublions pas néanmoins que ces progrès n’auraient pas été possibles sans les nombreux travaux menés depuis les années 1990 autour du web et des technologies XML, qu’utilise par exemple la cartographie OpenStreetMap, un des exemples phare du mouvement open data (données publiques ou privées, libres d’accès). Et l’avenir de la réalité augmentée passe par des outils de création du contenu web, nécessaires à toute application.</p> <div class="highlight_box"> <div class="highlight_content"> <p><strong>La réalité augmentée audio pour aider les malvoyants</strong></p> <p>En exploitant les technologies du web et celles des téléphones mobiles, les chercheurs de l’équipe Tyrex d’Inria Grenoble ont développé une <a href="/centre/grenoble/actualites/guider-les-malvoyants-avec-la-realite-augmentee-audio" target="_blank">application mobile de réalité augmentée audio</a>&nbsp;pour guider les malvoyants lors de parcours dans des bâtiments. </p> <p>Des expérimentations ont été réalisées à Grenoble et à Osaka cette année. </p> <div class="object-right"> <p class="illustration" style="width:206px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/chapo/demo-wam-chapo/409327-1-fre-FR/demo-wam-chapo_medium.jpg" width="200" height="150" alt="Démonstration de l'équipe WAM à la Gare de Grenoble" title="Démonstration de l'équipe WAM à la Gare de Grenoble" /> </span> </p></div> <p>L’application développée initialement dans le cadre d’un projet du pôle de compétitivité <a href="http://www.minalogic.com/" target="_blank">Minalogic</a>&nbsp;est maintenant financée par l’Union européenne. Elle utilise un système de localisation de la personne en temps réel, avec une précision de l’ordre du pas, grâce aux différents capteurs d’un smartphone et à une cartographie <a href="http://openstreetmap.fr/" target="_blank">OpenStreetMap</a>&nbsp;embarquée. Le système s’adapte au rythme de la marche, recale la position et corrige l’orientation à l’aide de la carte. </p> <p>A la clé, des messages de guidage en temps réel sous forme vocale et audio sans couper l’utilisateur de l’environnement sonore réel. <a href="http://www.youtube.com/watch?v=h2b8yfCauZ8" target="_blank">Démonstration en vidéo</a>.</p> </div> </div> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc584783_1_1" id="eztoc584783_1_1" class="anchor"></a><h4><strong>ET DANS 20 ANS ?</strong></h4><p><strong>Jacques Lemordantt</strong>, enseignant-chercheur à l'université Joseph Fourier, Grenoble / équipe de recherche Inria <a href="/domaines/perception-cognition-interaction/representation-et-traitement-des-donnees-et-des-connaissances/tyrex" target="_blank">Tyrex</a></p> <div class="object-left"> <p class="illustration" style="width:73px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/actualites/innovation/images-corps/jacques-lemordant-portrait/355257-2-fre-FR/jacques-lemordant-portrait_small.jpg" width="67" height="100" alt="Jacques Lemordant" title="Jacques Lemordant" /> </span> </p></div> <p>« La réalité augmentée est un marché très prometteur qui attise les convoitises de grands groupes comme Google, Apple, Sony et de jeunes pousses comme Wikitude, Layar, Metaio qui développent des navigateurs de type réalité augmentée pour téléphones mobiles.</p> <p>La navigation piétonne notamment dans les centres commerciaux est l’enjeu le plus important en raison des recettes publicitaires que cela pourrait générer : la connaissance de la proximité de tel ou tel magasin ou produit devient une information essentielle. Outre ces applications marketing, d’ici 5 ans, on peut espérer que la navigation en ville aussi bien en extérieur qu’en intérieur (gares, hôpitaux, aéroports) aura beaucoup progressé, intégrant par exemple la détection d’obstacles. </p> <p>Quelles que soient les applications, les deux principales difficultés à surmonter dans les années à venir concernent d’une part la localisation précise des objets, d’autre part, la création de contenu, notamment l’intégration fine de modèles synthétiques 3D et d’éclairages complexes. »</p> </div> </div> La preuve mathématique par informatique ! http://www.inria.fr/centre/saclay/actualites/la-preuve-mathematique-par-informatique Wed, 21 Nov 2012 16:37:07 GMT ]]> <p>Une démonstration formelle complète, certifiée par le logiciel Coq, a été annoncée en septembre par Georges Gonthier et son équipe du laboratoire commun Inria Microsoft Research.</p> <p>Ces travaux rendent artificielle l’opposition entre informatique et mathématiques, le dénominateur commun étant la logique. Parmi les &quot;compagnons de route&quot; de Georges Gonthier, deux jeunes chercheurs se réjouissent d’avoir participé à l’aventure et &quot;grandi&quot; avec le projet Mathematical Components (MathComp). Témoignages…</p> <a name="eztoc583510_1" id="eztoc583510_1" class="anchor"></a><h3>Vous sentez-vous privilégié(e) d’avoir contribué au succès des derniers travaux de Georges Gonthier ?</h3> <div class="object-right"> <p class="illustration" style="width:266px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/saclay/actualites-images/saclay_assia_mahboubi_260x195/583523-1-fre-FR/saclay_assia_mahboubi_260x195_xml_small.jpg" width="260" height="195" alt="" title="" /> </span> <span class="legende"> <cite>© Inria / Photo Kaksonen</cite> </span> </p></div> <p> <strong>Assia Mahboubi, chargée de recherche chez Inria depuis 2007 et membre de l'équipe MathComp depuis 2006.</strong><br /> Georges Gonthier jouissait déjà d'une grande notoriété avant le succès de ce projet autour de la preuve formelle du théorème de Feit-Thompson. Ses contributions dans le domaine de l'informatique sont multiples, mais sa vérification du théorème des 4 couleurs, en collaboration avec Benjamin Werner (Inria) a jeté un coup de projecteur sur notre thématique.</p> <br class="clear" /> <div class="object-left"> <p class="illustration" style="width:266px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/saclay/actualites-images/saclay_enrico_tassi_260x195/583527-1-fre-FR/saclay_enrico_tassi_260x195_xml_small.jpg" width="260" height="195" alt="" title="" /> </span> <span class="legende"> <cite>© Photo Bernard Lachaud</cite> </span> </p></div> <p> <strong>Enrico Tassi,&nbsp; chargé de recherche chez Inria depuis septembre 2012 après un post-doc sur le projet (terminé fin 2011). A travaillé sur le projet dans le cadre de son doctorat à Bologne (Italie) pendant 6 mois (fin 2006/début 2007).</strong><br /> L’idée de faire des maths avec un ordinateur, et avec pour but de vérifier la preuve, m’a beaucoup plu. L’étude et le développement d’outils comme Coq ont effectivement été au cœur de mes études en master et thèse. Le laboratoire commun Inria-Microsoft Research venait d’être créé et c’était une excellente opportunité pour venir travailler avec les meilleurs experts du domaine.</p> <br class="clear" /> <a name="eztoc583510_2" id="eztoc583510_2" class="anchor"></a><h3>Que représente pour vous ce domaine de recherche et quel est le fond de votre motivation ?</h3><p><strong>Assia Mahboubi</strong>&nbsp;: Il s'agit d'une activité assez transverse qui questionne la notion philosophique de vérité mathématique aussi bien qu'elle peut apporter des réponses aux besoins modernes de sécurité informatique. Il est extrêmement difficile d'avoir une confiance absolue dans la preuve d'un théorème. Nous essayons de transcrire les énoncés mathématiques et leur démonstration dans le langage très simple et parfaitement codifié qu'est la logique, pour qu'un ordinateur puisse nous aider à les vérifier. Cette recherche a de multiples aspects, et pose de nombreuses questions : qu'est-ce qu'une preuve mathématique? Qu'est-ce qu'un programme ? Qu'est-ce que la logique ?</p> <p><strong>Enrico Tassi</strong>&nbsp;: Quand un argument est-il valide? Ce problème a été étudié pendant des centaines d’années, depuis les philosophes comme Aristote aux mathématiciens tels Hilbert et Gödel. Notre recherche essaie de répondre positivement aux questions suivantes : les ordinateurs peuvent-ils assister l’homme à formuler des arguments complexes et originaux sans induire d’erreur ?&nbsp; Peuvent-ils aider les scientifiques face à la complexité croissante des théories mathématiques qu’ils développent ?</p> <a name="eztoc583510_3" id="eztoc583510_3" class="anchor"></a><h3>Comment vous projetez-vous à la lumière du projet aujourd’hui abouti ?</h3><p><strong>Assia Mahboubi</strong>&nbsp;: L’idée de s'aider d'un ordinateur pour faire des preuves n'est pas nouvelle : c'est un domaine d’investigation chez Inria depuis plusieurs décennies. La nouveauté avec ce succès c'est que l'approche passe à l'échelle pour de « grosses preuves » et de « grands théorèmes ». De nombreux domaines utilisant des programmes informatiques&nbsp; critiques (aéronautique, cryptographie...) bénéficient déjà des applications de ce domaine de recherche. Mais maintenant, nous pensons qu'il peut aussi intéresser un spectre plus large de scientifiques, incluant des mathématiciens n'utilisant jusqu'à présent que papier et tableau noir.</p> <p><strong>Enrico Tassi</strong>&nbsp;: Le projet terminé montre qu’on pouvait vérifier des théories mathématiques complexes avec un ordinateur. Mais le travail n'est pas fini car il faut encore rendre cette technologie utilisable par tous les scientifiques, et pas seulement par les experts de preuve formelle comme nous.</p> "Notre diagramme de travail ressemblait à un plan de guerre napoléonienne !" http://www.inria.fr/centre/saclay/actualites/notre-diagramme-de-travail-ressemblait-a-un-plan-de-guerre-napoleonienne-! Wed, 21 Nov 2012 16:30:55 GMT ]]> <p>Six années se sont écoulées entre le début du projet et la fin de la preuve du théorème de Feit et Thompson réalisée le 20 septembre 2012. Récit d’une aventure moderne.</p> <p>Entretien avec Georges Gonthier, laboratoire commun Microsoft Research-Inria.</p> <a name="eztoc583490_1" id="eztoc583490_1" class="anchor"></a><h3>Quel était l’objectif du projet ?</h3><p> Il s’agissait de traduire le sens de l’énoncé mathématique sous une forme compréhensible pour l’ordinateur afin que ce dernier puisse déterminer si la démonstration est correcte et complète. La démonstration est en fait le but ultime qui permet de tester tous les développements réalisés en amont et nécessaires pour la réaliser. En effet, cette démonstration s’appuie sur de nombreux domaines mathématiques : l'algèbre linéaire, la géométrie, la théorie des nombres, la théorie de Galois, des corps finis, etc. Il fallait développer les bibliothèques de mathématiques nécessaires pour réaliser toutes les étapes de la démonstration.<br /> Nous avons ainsi passé les 3 premières années à codifier les mathématiques plus simples, puis une année à réaliser une première moitié de la démonstration qui reposait sur ces types de mathématiques. Une autre année a été nécessaire pour développer les outils pour une autre branche des mathématiques, puis une dernière année pour la 2<sup>e</sup> &nbsp;partie de la démonstration.</p> <a name="eztoc583490_2" id="eztoc583490_2" class="anchor"></a><h3>Comment a été organisé le travail sur ces 6 années ?</h3><p>Une dizaine de chercheurs et de post-doctorants ont contribué à ce travail à des degrés différents et pendant des périodes de temps différentes. En tant que coordinateur j’étais à temps complet sur le problème. Le travail était nécessairement réparti du fait de la dispersion géographique des participants à Cambridge, Inria Saclay et Inria Sophia Antipolis. Mais plusieurs chercheurs pouvaient travailler sur le même problème sur un site donné. Pour le dernier bout de preuve le 20 septembre, tout le monde a mis la main à la pâte !</p> <a name="eztoc583490_3" id="eztoc583490_3" class="anchor"></a><h3>Aviez-vous prévu que ce travail prenne autant d’années ?</h3><p>J’avais déjà acquis une expérience avec la démonstration du théorème des quatre couleurs. Je savais que la mise en place des fondements est longue avant de voir ensuite effectivement le travail avancer : il faut comprendre comment construire les bibliothèques avant de les réaliser et, but ultime, de les tester par cette preuve. J’avais prévu que l’ensemble prendrait 5 à 6 ans. Donc pas de surprise de ce côté ! Pour mes collègues en revanche c’était différent. Lorsque j’ai griffonné il y a 6 ans un diagramme représentant toutes les parties à développer et leurs interconnexions, mon auditoire a conclu au plan d’une guerre napoléonienne ! Le 20 septembre j’ai reçu une photo de moi accoutré d’un bicorne !</p> <a name="eztoc583490_4" id="eztoc583490_4" class="anchor"></a><h3>Avez-vous eu des surprises au cours de ce travail ?</h3><p> Nous avons eu quelques bonnes surprises, notamment sur la manière d’écrire les bibliothèques afin d’être en mesure de les assembler de manière flexible. C’était un problème de fond que nous avons abordé en nous appuyant sur le même principe que pour réaliser les composants logiciels facilement connectables entre eux : en ajoutant une partie de code stipulant comment se combiner avec d’autres logiciels. Et là, j’ai découvert que l’on pouvait utiliser le même mécanisme que pour l’interprétation des annotations mathématiques et que Coq disposait des outils nécessaires.<br /> Nous avons également identifié quelques erreurs de transcription sans conséquences dans la démonstration grâce au programme.</p> <a name="eztoc583490_5" id="eztoc583490_5" class="anchor"></a><h3>Quel est l’impact de ce travail ?</h3><p>Le fait que l’on arrive à faire par ordinateur un problème réputé difficile montre qu’il y a des progrès réalisés dans la qualité des outils et des techniques mis en œuvre dans ce travail de codification des mathématiques. C’est un peu tôt pour juger de l’impact de cette démonstration. Mais nos résultats ont été rendus disponibles au fur et à mesure de leur élaboration et les bibliothèques développées ont déjà été reprises : aujourd’hui un nombre important de publications utilisent Coq et notre bibliothèque. Il nous faut maintenant mettre l’accent sur la diffusion de nos résultats qui a été un peu mise de côté durant ces années.</p> <a name="eztoc583490_6" id="eztoc583490_6" class="anchor"></a><h3>Et y a-t-il une suite prévue pour ces travaux ?</h3><p>Nous devons aujourd’hui tirer les leçons de l’expérience réalisée pour préparer des outils pour la suite et prendre le temps de la réflexion. La notoriété aidant, nous avons déjà reçu des suggestions de problèmes. La suite naturelle serait le théorème de classification complet mais c’est une entreprise qui dépasse de loin les moyens humains du labo commun. Il faudrait y associer les labos de mathématique du monde entier ! J’ai aussi quelques idées de mon côté mais rien n’est encore décidé.</p> S’immerger dans les mondes virtuels devient accessible au grand public http://www.inria.fr/centre/grenoble/actualites/s-immerger-dans-les-mondes-virtuels-devient-accessible-au-grand-public Wed, 21 Nov 2012 16:13:21 GMT ]]> <p>Au cours des 20 dernières années, le domaine de la réalité virtuelle a connu des progrès spectaculaires : immersion plus forte avec des capacités d’interaction plus variées et performantes. Aujourd’hui, les applications industrielles de ces recherches sont nombreuses dans le prototypage virtuel ou bien dans la simulation pour la formation. Ces technologies commencent également à pénétrer le secteur grand public avec, par exemple, l’offre de casques de réalité virtuelle permettant une immersion totale dans les univers virtuels des jeux.</p> <p><strong>Témoignage de Sabine Coquillart</strong>, directeur de recherche, équipe <a href="/domaines/perception-cognition-interaction/vision-perception-et-interpretation-multimedia/prima" target="_blank">Prima</a></p> <p>Les premiers périphériques de réalité virtuelle sont apparus dans les années 1980 avec les casques de réalité virtuelle et dans les années 1990 avec les dispositifs basés sur des projections en salle sur grand écran. Ces dispositifs étaient très chers et les casques, par exemple, étaient difficiles d’utilisation, avec de multiples câbles les reliant à un ordinateur. </p> <p> Même si ces équipements restent encore assez lourds aujourd’hui, les technologies sont relativement matures et de nombreuses applications industrielles ont vu le jour ces dix dernières années, notamment pour le prototypage industriel ou la simulation pour la formation à des gestes spécialisés. <br /> Aujourd’hui, grâce aux progrès réalisés dans la miniaturisation (capteurs, écrans OLED, processeurs, etc), certaines de ces technologies sont intégrées dans des produits plus accessibles au grand public, comme la Kinect, la télévision 3D ou les casques de visualisation pour les jeux vidéo. </p> <p>Les progrès réalisés dans les interfaces avec les mondes virtuels ont également permis d’élargir les modes d’interaction utilisés par le grand public : interfaces gestuelles, mais aussi, dans un futur proche, des technologies de retour d’effort et de perception tactilo-kinestésiques (haptiques), par exemple pour simuler la texture d’un tissu dans un magasin virtuel. </p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>Mieux toucher et saisir dans le monde virtuel</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p>Une difficulté particulière réside dans le fait d’intégrer, de façon performante et intuitive, la visualisation immersive et la possibilité d’agir physiquement dans ce monde grâce à des interfaces tactiles à retour d’effort. L’équipe <a href="/domaines/perception-cognition-interaction/interaction-et-visualisation/i3d" target="_blank">I3D</a>, que je dirigeais au début des années 2000, a notamment contribué à coupler ces deux domaines. </p> <p>En 2003 nous avons développé une technologie intégrant, pour la première fois, une interface à retour haptique filaire à un système de visualisation immersif à deux plans perpendiculaires, le plan de travail virtuel ou workbench. Le workbench a été l’une des toutes premières configurations de réalité virtuelle disponible en France avec le mur immersif d'Inria à Rennes. Ce système a été rapidement adopté par certains industriels comme PSA Peugeot Citroën. </p> <div class="highlight_box"> <div class="highlight_content"> <p><strong>Tester des procédures sur des prototypes virtuels</strong></p> <p>Il y a une dizaine d’années, étudier la faisabilité de la pose d’un joint d’étanchéité sur une portière de voiture nécessitait de réaliser l’opération sur une maquette. </p> <div class="object-right"> <p class="illustration" style="width:206px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/corps/simulation-haptique-sur-carosserie/584772-1-fre-FR/simulation-haptique-sur-carosserie_medium.jpg" width="200" height="150" alt="Réalité virtuelle avec retour haptique" title="Réalité virtuelle avec retour haptique" /> </span> <span class="legende"> Simulation de dépose de cordons d'étanchéité sur carrosserie avec outil et retour haptique (2004) - <cite>© Inria / Photo J. Wallace </cite> </span> </p></div> <p>Les industriels utilisent aujourd’hui le prototypage virtuel qui permet de réduire très fortement le coût de ces tests et le temps qui leur est dévolu. Pour certaines opérations comme la pose de joints, il est cependant essentiel d’avoir un retour d’effort suffisamment précis pour bien « sentir » la portière virtuelle sous la pression du pistolet à mastic. </p> <p>C’est ainsi que PSA Peugeot Citroën a adopté le Stiring haptic workbench, développé par l’équipe Inria I3D, qui intégrait pour la première fois un retour haptique performant dans une configuration de visualisation immersive. Suite à une collaboration entre l’équipe I3D et l’industriel, une application à la pose de joints d’étanchéité a été transférée chez PSA Peugeot Citroën en 2006. </p> <p>Les travaux sur les retours haptiques sont également essentiels dans beaucoup d’autres domaines, comme la formation à l’acte chirurgical pour lequel il faut reproduire la consistance et la résistance des organes sous le scalpel.</p> </div> </div> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc583288_0_1" id="eztoc583288_0_1" class="anchor"></a><h4><strong>ET DANS 20 ANS ?</strong></h4><p><strong>Sabine Coquillart</strong>, directeur de recherche, équipe <a href="/domaines/perception-cognition-interaction/vision-perception-et-interpretation-multimedia/prima" target="_blank">Prima</a></p> <div class="object-left"> <p class="illustration" style="width:81px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/corps/portrait-sabine-coquillart/584768-1-fre-FR/portrait-sabine-coquillart_small.jpg" width="75" height="100" alt="Sabine Coquillart" title="Sabine Coquillart" /> </span> <span class="legende"> <cite>© Inria / Photo J. Wallace </cite> </span> </p></div> <p>&nbsp;« On sait aujourd’hui donner la sensation de la pression exercée sur un objet. En revanche, on ne sait pas encore faire « sentir » une forme avec précision ou procurer les sensations associées au fait de saisir une bouteille et de la déplacer. Un autre aspect sur lequel il reste également beaucoup de développements à faire concerne la possibilité, pour des personnes situées dans des environnements virtuels différents, d’agir simultanément sur un prototype par exemple. »</p> </div> </div> Un grand succès pour la preuve informatique http://www.inria.fr/centre/saclay/actualites/un-grand-succes-pour-la-preuve-informatique Wed, 21 Nov 2012 16:00:50 GMT ]]> <p>6 ans après la démonstration par ordinateur du théorème des quatre couleurs, Georges Gonthier et son équipe réussissent la démonstration, autrement plus complexe, du théorème de Feit et Thompson, un théorème central pour la théorie des groupes et leur classification. Grand pas pour les mathématiques, qui s’appuient de plus en plus sur la preuve par ordinateur, c’est surtout une réussite pour l’informatique qui montre là sa capacité à déployer des outils et des techniques de qualité pour codifier les mathématiques.</p> <p>Après la validation du théorème des quatre couleurs par le logiciel de certification Coq en 2005, c’est au tour du théorème de Feit et Thompson de passer dans la moulinette de la preuve informatique. La difficulté était cependant incomparable car, si le théorème des quatre couleurs n’utilise que des mathématiques combinatoires élémentaires, le théorème de Feit et Thompson s’appuie sur des mathématiques embrassant, grosso modo, le programme jusqu’à la licence ! Il est également plus long, avec ses 250 pages de démonstration, et les enjeux autrement importants, avec des applications dans de nombreux domaines scientifiques modernes, de la mécanique quantique à la cryptographie, en passant par la cristallographie.</p> <p>Réussir à faire la preuve que cette démonstration est correcte et complète est donc une entreprise de taille que Georges Gonthier et son équipe, Laurence Rideau, <a href="/centre/saclay/actualites/la-preuve-mathematique-par-informatique" target="_self">Assia Mahboubi</a>, <a href="/centre/saclay/actualites/la-preuve-mathematique-par-informatique" target="_self">Enrico Tassi</a>&nbsp;et bien d'autres, ont mis 6 ans à achever. Il s’agit en effet de faire &quot;comprendre&quot; la démonstration à l’ordinateur et pour cela il est nécessaire de lui &quot;enseigner&quot; toutes les mathématiques dont il aura besoin : théorèmes, démonstrations, etc., mais aussi la manière de s’en servir, une compétence qui transparaît uniquement dans les notations présentes dans la partie des livres de cours consacrée aux exercices. La principale difficulté résidait dans la codification de cette partie opérationnelle. Les chercheurs ont été aidés en cela par leur formation d’informaticiens rompus à l’utilisation de langages permettant de décrire les procédés utilisés, et grâce aux règles cachées que les chercheurs ont identifiées derrières les notations mathématiques. Une ligne de mathématique peut ainsi correspondre à un contenu implicite de 2 pages !</p> <p>Au final : une bibliothèque informatique de mathématiques imposante et un enrichissement de la boîte à outils Coq et de son environnement. Les chercheurs ont ainsi développé un langage au-dessus de Coq qui permet de décrire des démonstrations compliquées. La preuve a également permis de tester les capacités du logiciel de certification. Il faut 1h40 pour compiler les 170 000 lignes de la démonstration.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc583268_1" id="eztoc583268_1" class="anchor"></a><h3>Le théorème qui a fondé l’algèbre moderne</h3><p> Le théorème de Feit et Thompson est la pierre angulaire de la théorie des groupes moderne, et donc de la classification des groupes simples, qui est elle-même la pierre angulaire de l’algèbre moderne. La théorie des groupes étudie les opérations réversibles, ce qui devient vite compliqué lorsque le nombre de dimensions augmente. Elle trouve des applications dans des domaines très variés dont la plus ancienne historiquement est la cristallographie : la théorie des groupes permet d’interpréter les interférences provoquées par l’illumination d’un cristal par les rayons X afin d’en déduire la structure du cristal. Dans le domaine grand public, la théorie des groupes est à l’origine de casse-tête comme le rubik’s cube pour lequel chaque manipulation est réversible. <br /> &nbsp;Les recherches mathématiques sur les groupes se sont développées au milieu du 20<sup>e</sup> &nbsp;siècle lorsque l’on s’est aperçu qu’ils étaient très utiles. Les mathématiciens ont voulu étudier leurs propriétés en utilisant une méthode consistant à factoriser les groupes, c’est-à-dire à les décomposer en facteurs de groupes élémentaires (dits simples) à la manière des entiers décomposés en facteurs de nombres premiers (30=2*3*5). Cette méthode permet de restreindre l’analyse des propriétés à celle des groupes simples, qui peut se faire systématiquement grâce à une classification énumérant toutes les formes possibles de groupes simples (3 types génériques et 26 exceptions). En 1955 Brauer avait montré que l’on pouvait classifier un groupe en étudiant ses involutions, mais cette technique ne fonctionne pas pour les groupes d’ordre impair. C’est là qu’intervient le travail de Feit et Thompson qui, en démontrant que tous les groupes impairs sont résolubles, a ouvert la voie à l’étude des groupes pairs. Ils ont également fourni des méthodes totalement nouvelles et sont à l’origine d’un changement de perspective dans les mathématiques. La publication du théorème en 1963 prenait en effet la forme d’un article comptant 250 pages, ce qui était inédit à une époque où les démonstrations mathématiques élégantes les plus longues ne dépassaient pas 20 pages. De quoi alimenter des doutes sur le sérieux du travail ! La classification des groupes simples d’ordre pair, qui s’est poursuivie jusqu’en 2003, fait pour sa part 10 000 pages… </p> </div> </div> Une nouvelle politique de transfert de la recherche publique pour la compétitivité des entreprises http://www.inria.fr/innovation/actualites/une-nouvelle-politique-nationale-de-transfert Mon, 19 Nov 2012 13:56:22 GMT ]]> <p>Geneviève Fioraso, ministre de l’Enseignement supérieur et de la Recherche, conjointement avec Arnaud Montebourg, Ministre du redressement productif et Fleur Pellerin, ministre déléguée aux PME, à l’innovation et à l’économie numérique, ont présenté le 7 novembre dernier une nouvelle politique de transfert pour la recherche.</p> <p>Partant du constat que la recherche publique française, au meilleur niveau mondial dans de nombreux domaine, ne génère pas assez d’emplois industriels, et que la France prend du retard face aux pays développés et émergents en terme d’innovation, la ministre a présenté 15 mesures pour augmenter l’impact économique de cette recherche.</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>Une nouvelle politique de transfert de la recherche publique comme levier de croissance et de compétitivité pour les entreprises.</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p>Suite notamment au rapport Gallois, «&nbsp;la recherche et l’innovation sont au cœur du débat sur la compétitivité et des priorités réaffirmées par le gouvernement. <strong>Dans ce contexte, le transfert est un levier majeur de croissance et de compétitivité, un enjeu fort pour notre politique industrielle, pour le maintien et la création de nos emplois.</strong>&nbsp;Pour l’améliorer l’impact économique des travaux de recherche, «&nbsp;il est urgent d’agir sur l’ensemble des modalités de transfert de la recherche vers les entreprises : transfert des personnes (mobilité des chercheurs et en premier lieu des doctorants), transfert et partage des connaissances par les partenariats de R&amp;D entre recherche publique et entreprises, et enfin transfert des technologies, en particulier vers les PME/ETI ou par la création d’entreprises.&nbsp;» Aujourd’hui seules 700 à 800 entreprises françaises, à même d’intégrer les technologies issues de la recherche publique, seraient concernées contre 10 000 en Allemagne.</p> <p>Les 15 mesures proposées se rassemblent autour d’objectifs précis&nbsp;:</p> <ul> <li>accompagner les acteurs de la recherche publique dans leur démarche de transfert</li> <li>diffuser la culture du transfert et de l’innovation au sein de la recherche publique</li> <li>définir un nouvea cadre de gestion de la propriété intellectuelle pour la recherche publique</li> <li>soutenir le trasnfert à destination des PME/ETI innovantes</li> <li>soutenir le transfert par la création d’entreprises</li> <li>renforcer la recherche sur l’économie de l’innovation en support à la politique publique</li> </ul> Internet du futur : performances et respect de la vie privée http://www.inria.fr/centre/grenoble/actualites/internet-du-futur-performances-et-respect-de-la-vie-privee Sat, 17 Nov 2012 22:34:48 GMT ]]> <p>Les internautes sont de plus en plus courtisés par un e-commerce fleurissant. S’ils bénéficient déjà, pour certains, de la télévision en <em>streaming</em>&nbsp;sur des terminaux mobiles comme les <em>Smartphones</em>, ils sont aussi activement profilés à des fins publicitaires. Impossible aujourd’hui de penser l’Internet et les terminaux mobiles sans se préoccuper de leur fiabilité, de leur sécurité et de la préservation de la vie privée.</p> <a name="eztoc582203_1" id="eztoc582203_1" class="anchor"></a><h3>Avec le développement de l’e-commerce sont nées les préoccupations sur les atteintes à la vie privée sur le Web</h3><p><strong>Témoignage de Claude Castelluccia</strong>, responsable de l’équipe Privatics</p> <p>L’essor de l’économie sur Internet a bouleversé le domaine de la protection de la vie privée. </p> <div class="object-right"> <p class="illustration" style="width:185px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/corps/dogs-and-internet/582599-1-fre-FR/dogs-and-internet_medium.jpg" width="179" height="200" alt="&quot;On the Internet, nobody knows you're a dog&quot;" title="&quot;On the Internet, nobody knows you're a dog&quot;" /> </span> <span class="legende"> Source : Wikipedia - <cite>The New Yorker - Peter Steiner</cite> </span> </p></div> <p>Il y a 20 ans, on utilisait de façon anonyme Internet, ce qu’avait croqué un dessinateur satirique, Peter Steiner, dans le <em>New Yorker</em>, par un chien discutant avec un autre devant un ordinateur «&nbsp;<a href="http://en.wikipedia.org/wiki/On_the_Internet,_nobody_knows_you%27re_a_dog" target="_blank"><em>Ce qui est bien avec Internet, c’est que personne ne sait que nous sommes des chiens&nbsp;</em></a>».&nbsp;</p> <p>Aujourd’hui, c’est loin d’être le cas. Grâce à des systèmes de graphes et de recoupements de bases de données, des entreprises comme <em>Google</em>&nbsp;ou <em>FaceBook</em>, savent énormément de choses sur les internautes&nbsp;: leur âge, leur sexe, leur adresse, sur quels sites et à quels endroits réels (par géo-localisation) ils sont allés, avec quelles personnes ils ont eu des contacts, etc. Ces données sont vendues aux publicitaires&nbsp;; elles sont, soit disant, le prix payé à leur insu par les internautes pour obtenir des services gratuits.</p> <p>Depuis 5 à 6 ans, les chercheurs s’intéressent à ces questions, à la fois pour mieux comprendre comment fonctionnent ces systèmes d’extorsion de données privées et pour trouver des algorithmes d’anonymisation présentant de fortes garanties de sécurité, par exemple en ajoutant du bruit de fond dans les grandes bases de données. C’est un domaine émergent et difficile car il est éminemment pluridisciplinaire, nécessitant des compétences en réseaux, sécurité et cryptographie mais aussi en sciences juridiques et sociales, et avec de fortes implications politiques.</p> <p>L’équipe Privatics est la première dédiée à ce thème dans l’institut, à la fois pour alarmer en cas de dérive et pour proposer des solutions. Par exemple, afin de mieux gérer la production et la distribution d’électricité, EDF veut installer des compteurs intelligents qui relèvent la consommation électrique des ménages toutes les 5 minutes. De quoi tout connaître sur votre vie quotidienne ! Quand vous êtes là, quand vous vous levez ou prenez une douche, etc. Pourtant, même si cela est un peu plus compliqué à mettre en œuvre, le suivi de la consommation à l’échelle d’un quartier est suffisante. Nous avons par ailleurs élaboré avec la <a href="http://www.cnil.fr/" target="_blank">Cnil</a>&nbsp;une plateforme de test permettant de surveiller les applications sur <em>Smartphone</em>&nbsp;car nous nous sommes aperçus que beaucoup d’entre elles récupèrent des données personnelles, comme la liste des contacts. L’objectif est de développer des logiciels capables de prévenir l’utilisateur de qui cherche à obtenir quelles données et de lui donner la possibilité d’autoriser ou non ce transfert.</p> <a name="eztoc582203_2" id="eztoc582203_2" class="anchor"></a><h3>Internet&nbsp;: de l’échange point à point à la diffusion large échelle<strong>&nbsp;</strong></h3><p><strong>Témoignage de Vincent Roca</strong>, membre de l’équipe Privatics</p> <p>Si aujourd’hui, dans certains pays, on peut recevoir la télévision en <em>streaming,</em>&nbsp;ainsi que des guides de programmes et divers contenus multimédias sur un <em>Smartphone</em>, c’est grâce à des règles particulières de transmission définies par un protocole mis au point au cours de ces dix dernières années. Un tel système est indispensable car les réseaux ne sont pas parfaits&nbsp;: il y a des pertes d’information lors des transmissions. </p> <p>Jusqu’au début des années 2000, les protocoles permettaient d’assurer la fiabilité des transmissions sur Internet en instaurant un dialogue permanent entre émetteurs et récepteurs&nbsp;: chaque arrivée d’un paquet d’information était suivi d’un accusé de réception et une retransmission avait lieu en absence de confirmation de bonne réception. Mais avec l’essor des terminaux mobiles, de nouveaux besoins de transmission ont émergés, soutenus par de forts enjeux économiques&nbsp;: comment diffuser des contenus multimédias, souvent volumineux, à des millions d’utilisateurs simultanément&nbsp;? </p> <p>Impossible dans ce cas de s’appuyer sur un dialogue incessant entre récepteurs et émetteurs&nbsp;! Il fallait redéfinir les règles de transmission, un travail auquel nous avons largement contribué et qui a abouti à l’adoption du standard Flute par l’<a href="http://www.ietf.org/" target="_blank">IETF</a>, l’organisme de standardisation de l’Internet. </p> <p>Nous avons également travaillé sur un composant essentiel, le code correcteur d’erreur, qui ajoute un peu de redondance aux envois afin de permettre aux récepteurs de retrouver l’information perdue, évitant ainsi d’engorger le réseau avec des retransmissions. J’ai également développé la première implémentation de Flute qui a été commercialisée par la PME française Expway et déployée de façon opérationnelle pour la première fois à l’occasion du mondial de foot en Italie en 2006. </p> <p>Flute et codes correcteurs d’erreur ont été intégrés à d’autres standards par la suite, notamment en 2012 au Japon. C’est une reconnaissance de l’excellence française dans ce domaine.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc582203_2_1" id="eztoc582203_2_1" class="anchor"></a><h4><strong>ET DANS 20 ANS ?</strong></h4><p><strong>Claude Castelluccia</strong>, directeur de recherche, responsable de l'équipe Privatics</p> <div class="object-left"> <p class="illustration" style="width:78px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/sophia-antipolis/innovation-images/autre-format/portrait-claude-castelluccia-corps/111021-1-fre-FR/portrait-claude-castelluccia-corps_small.jpg" width="72" height="100" alt="" title="" /> </span> <span class="legende"> Photo Philippe Trannoy </span> </p></div> <p>&nbsp;« Je suis inquiet car les motivations économiques priment aujourd’hui largement sur la vie privée, et les motivations sécuritaires vont dans le même sens en justifiant une surveillance de plus en plus étroite des citoyens. Il faut espérer que des lois veilleront à protéger la vie privée sur le web. Je vois aussi avec inquiétude le déploiement de technologies informatiques présentant de faible niveau de sécurité&nbsp;: le réseau des voitures peut être attaqué, tout comme les implants médicaux du type <em>pacemakers</em>&nbsp;ou les télévisions. La recherche dans ce domaine est vital et, à mon avis, une mission importante pour un centre de recherche publique comme Inria, sans compter les implications géo-politiques qui sont considérables&nbsp;! L’équipe Privatics a largement de quoi s’occuper pour les 20 ans à venir…. Je propose que l’on refasse un point en 2032&nbsp;pour voir comment la situation aura évolué&nbsp;!&nbsp;»</p> <p><strong>Vincent Roca, </strong>chercheur, équipe Privatics</p> <div class="object-left"> <p class="illustration" style="width:86px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/corps/portrait-vincent-roca/582595-1-fre-FR/portrait-vincent-roca_small.jpg" width="80" height="100" alt="Portrait Vincent Roca" title="Portrait Vincent Roca" /> </span> <span class="legende"> <cite>© Vincent Roca</cite> </span> </p></div> <p>«&nbsp;Mon rêve est d’arriver à imposer des solutions libres et ouvertes, afin que les recherches de la communauté scientifique puissent être exploitées et donner lieu à de nombreuses innovations. Un autre souhait est que nos solutions continuent à être déployées commercialement car les enjeux économiques sont énormes et porteurs d’emplois. Notre travail a été soutenu par l’état et par Inria, j’ai à cœur qu’en retour ce travail soit valorisé en France.&nbsp;»</p> </div> </div> La conférence fOSSa 2012, aux origines de l'open source http://www.inria.fr/centre/lille/actualites/la-conference-fossa-2012-aux-origines-de-l-open-source Fri, 16 Nov 2012 10:08:29 GMT ]]> <p><strong>Inria et EuraTechnologies</strong>&nbsp;sont heureux de vous annoncer la tenue prochaine de l’édition 2012 des conférences fOSSa qui se déroulera les&nbsp;<strong>4, 5 et 6 décembre 2012 à Lille, France.</strong></p> <p>La qualité de nos intervenants et de notre auditoire, l’originalité de notre approche et les thématiques abordées à fOSSa, font venir chaque année plusieurs centaines de passionnés et des acteurs de l’open source ; la très large couverture de fOSSa par la presse et les webzines est probablement dû au caractère atypique de fOSSa qui offre à la fois la convivialité d’un événement de taille humaine et qui attire de grandes figures de l’open source. C’est la dynamique de cette communauté qui permet à fOSSa de jouer, d’une édition à la suivante, un rôle prédominant dans l’arène de l’open source.</p> <p>Cette année, nous reviendrons&nbsp;<strong>aux racines de l’open source : développement, recherche, communautés.&nbsp;</strong>fOSSa 2012 abordera :</p> <ul> <li>L’enseignement,</li> <li>La recherche &amp; l’innovation,</li> <li>fOSSarcheology&nbsp;- l’Histoire du logiciel libre et de l’open source,</li> <li>Projection du film&nbsp;<em>Revolution OS</em>,</li> <li>Digital Native Generation, Openness,</li> <li>Open Arts&nbsp;&amp; Open Hardware,</li> <li>Licences, </li> <li>Community management.</li> </ul> <p>Enfin&nbsp;plusieurs&nbsp;<a href="http://fossa.inria.fr/en/program/ateliers-formation" target="_blank"><strong>d’ateliers</strong></a>&nbsp;intéressants sont au programme : Gnome, Mozilla, LibreOffice, Pharo, SpagoBI, Debian, Robotique ROS, Elgg, les usages des réseaux sociaux d’entreprises, etc.</p> <p>Ce salon est une opportunité pour nous tous de rencontrer et de côtoyer durant trois jours des acteurs majeurs de l’OSS, des personnes qui définissent l’Open Source 3.0. C’est aussi l’occasion de découvrir les tendances, d’échanger des bonnes pratiques, de comprendre mieux la gestion de projets de type communautaire... <strong>ALORS PROFITONS-EN&nbsp;!</strong></p> <p>La plupart de présentations se dérouleront en anglais. Les journées fOSSa sont ouvertes à tous.</p> <p><strong>Alors pensez à réservez les 4, 5 et 6&nbsp;&nbsp;décembre 2012 à Euratechnologies, Lille, France.</strong></p> <div class="highlight_box"> <div class="highlight_content"> <p>Pour cette nouvelle édition, la conférence fOSSa bénéficiera de la présence de <strong>Tristan Nitot </strong>(Mozilla Europe), <strong>Laurent Chemla</strong>&nbsp;(digital activiste), <strong>Colin de la Higuera </strong>(SIF), <strong>Stéphane Grumbach </strong>(Inria), <strong>Alexis Kauffmann </strong>et<strong>&nbsp;Christophe Masutti </strong>(FramaSoft), <strong>Laurent Grisoni </strong>(Inria), <strong>Hugobiwan Zolnir</strong>&nbsp;(digital artist),<strong>&nbsp;Roberto Di Cosmo </strong>(IRILL),<strong>&nbsp;Mark Atwood </strong>(Open Stack, HP),<strong>&nbsp;Dave neary </strong>(RedHat),<strong>&nbsp;Sebastien Heyman</strong>&nbsp;(Gephi), <strong>Joanmarie Diggs</strong>&nbsp;(Gnome), <strong>Scott Wilson</strong>&nbsp;(Apache), <strong>Dan Shearer</strong>&nbsp;(Edinburg Academy), <strong>Andrew Katz</strong>&nbsp;(Moorcrofts).</p> </div> </div> La fiabilité des systèmes devient un défi majeur http://www.inria.fr/centre/grenoble/actualites/la-fiabilite-des-systemes-devient-un-defi-majeur Wed, 14 Nov 2012 21:43:48 GMT ]]> <p>En 20 ans, les systèmes informatiques (ordinateurs, logiciels, réseaux) ont envahi notre vie courante et sont désormais au cœur d’applications de plus en plus vitales. Leur complexité technique augmente sans cesse, alors que leur contexte de production est de plus en plus tendu, réductions de coûts et de délais obligent. Quelles conséquences en termes de qualité, sûreté et sécurité&nbsp;? Eviter les défaillances informatiques représente un enjeu d'avenir, majeur pour l’industrie, sur la base des progrès scientifiques de ces dernières décennies.</p> <p><strong>Témoignage d’Hubert Garavel, </strong>lauréat du prix Gay-Lussac Humboldt en 2011, pionnier dans le développement de méthodes formelles et d’outils de vérification pour les systèmes industriels critiques.</p> <p>La prise de conscience des enjeux de la fiabilité logicielle a eu lieu dès 1968 lors d’une conférence consacrée à la «&nbsp;crise du logiciel&nbsp;» : comment répondre aux besoins en produisant en quantité des logiciels de qualité&nbsp;? De là est née la discipline du génie logiciel&nbsp;qui a considérablement amélioré la pratique industrielle. Mais le sujet a repris une nouvelle acuité ces vingt dernières années, car le paysage informatique a été profondément modifié par quatre changements majeurs :</p> <ul> <li>La diffusion massive des logiciels embarqués, devenus omniprésents dans les avions, les voitures, les téléphones, ou les télévisions, bien au delà de ce qu’on pouvait imaginer en 1968&nbsp;;</li> <li>La complexité croissante des systèmes informatiques, mesurée en nombre de lignes de code pour les programmes et en nombre de transistors pour les circuits électroniques&nbsp;;</li> <li>La montée en puissance de la programmation parallèle — plus performante mais beaucoup plus difficile que la programmation séquentielle classique — indispensable aussi bien pour exploiter les processeurs multi-cœurs des ordinateurs grand public que les centaines de milliers de processeurs des supercalculateurs ; </li> <li>La mise en réseau généralisée de tous les ordinateurs et équipements, désormais interconnectés par Internet, ce qui pose de redoutables défis en termes de sécurité.</li> </ul> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>On confie aux systèmes informatiques des missions de plus en plus critiques sans que leur sûreté et leur sécurité ne soient toujours à la hauteur</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p>Ainsi, le bulletin «&nbsp;<a href="http://www.risks.org" target="_blank">Risks Digest</a>&nbsp;» recense chaque mois la liste des défaillances informatiques, souvent coûteuses et parfois mortelles, survenues dans le monde. Au delà d’accidents industriels très médiatisés (comme le bug du processeur Pentium en 1994 ou l’échec d’Ariane 5 en 1996), ces problèmes s’installent de manière discrète, mais lancinante, dans notre vie quotidienne. On les retrouve, par exemple, dans les pannes automobiles dues à l’électronique et au logiciel, les fraudes et les attaques sur Internet, ainsi que les usurpations d’identité. Globalement, on estime que le coût annuel des pannes logicielles pour l’économie mondiale avoisine aujourd’hui la centaine de milliards d’euros.</p> <p>Pourtant, durant les 20 dernières années, les recherches en génie logiciel ont beaucoup progressé : les méthodologies se sont affinées, les langages se sont améliorés, les outils de vérification et de test sont devenus plus puissants, plus rapides et plus automatiques. Ces résultats sont déployés dans l’industrie, mais ils restent trop souvent réservés à certains domaines, soit lorsque des autorités de certification veillent à la sûreté publique (aviation civile, nucléaire, transports collectifs), soit lorsque la réparation d’éventuelles erreurs aurait un coût prohibitif (microprocesseurs et circuits électroniques à large diffusion). Malheureusement, trop de systèmes informatiques sont encore développés dans l’urgence sans mettre en œuvre les bonnes pratiques qui permettraient d’améliorer leur qualité.</p> <p>Dans ce vaste domaine de recherche où beaucoup de questions restent à résoudre, plusieurs équipes d’Inria à Grenoble (<a href="/domaines/algorithmique-programmation-logiciels-et-architectures/systemes-embarques-et-temps-reel/convecs" target="_blank">Convecs</a>, <a href="/domaines/reseaux-systemes-et-services-calcul-distribue/calcul-distribue-et-applications-a-tres-haute-performance/mescal" target="_blank">Mescal</a>, <a href="/domaines/reseaux-systemes-et-services-calcul-distribue/calcul-distribue-et-applications-a-tres-haute-performance/moais" target="_blank">Moais</a>, <a href="/domaines/algorithmique-programmation-logiciels-et-architectures/systemes-embarques-et-temps-reel/pop-art" target="_blank">Pop-art</a>, Privatics, <a href="/domaines/reseaux-systemes-et-services-calcul-distribue/systemes-et-services-distribues/sardes" target="_blank">Sardes </a>et <a href="/domaines/algorithmique-programmation-logiciels-et-architectures/systemes-embarques-et-temps-reel/vasy" target="_blank">Vasy</a>) s’attaquent à des problèmes difficiles&nbsp;: systèmes distribués, systèmes embarqués, calcul parallèle, sûreté, sécurité et protection de la vie privée. Une attention particulière est portée aux systèmes embarqués qui doivent gérer en continu consommation énergétique, performance et disponibilité, ainsi qu’aux processeurs multi-cœurs, à la manière de les concevoir et de les programmer pour exploiter au mieux la puissance qu’ils fournissent. Depuis 20 ans, les progrès sont constants et ils sont transférés aux entreprises, souvent sous l’égide du pôle de compétitivité <a href="http://www.minalogic.com/" target="_blank">Minalogic</a>.</p> <div class="highlight_box"> <div class="highlight_content"> <p><strong>CADP&nbsp;: des logiciels pour maîtriser le parallélisme</strong></p> <p>Les équipes Vasy et Convecs d’Inria et du LIG (Laboratoire d’Informatique de Grenoble) ont largement contribué au développement de la boîte à outils <a href="http://cadp.inria.fr/" target="_blank">CADP</a>&nbsp;(<em>Construction and Analysis of Distributed Processes</em>). Lancée il y a 25 ans, cette plateforme de recherche rassemble désormais une cinquantaine d’outils dédiés à la modélisation, la vérification, le test et l’évaluation de performances pour les systèmes distribués et parallèles. De nombreux universitaires l’utilisent dans le monde pour enseigner ces sujets. Plus de 150 publications scientifiques traitent de problèmes résolus avec CADP et plus de 60 outils de recherche sont connectés à CADP. </p> <p>Parmi les applications industrielles : la boîte à outils est reliée à la plate-forme de développement Topcased pilotée par Airbus, Bull s’est appuyé sur CADP pour valider l’architecture de ses supercalculateurs et STMicroelectronics et le CEA Leti l’ont utilisé pour vérifier des systèmes et réseaux sur puce et prédire leurs performances. Et de nouveaux partenariats ciblent les automates programmables, les interfaces graphiques et le cloud computing.</p> </div> </div> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc574285_0_1" id="eztoc574285_0_1" class="anchor"></a><h4><strong>ET DANS 20 ANS ?</strong></h4><p><strong>Hubert Garavel, </strong>directeur de recherche, équipe <a href="/domaines/algorithmique-programmation-logiciels-et-architectures/systemes-embarques-et-temps-reel/convecs" target="_blank">CONVECS</a></p> <div class="object-left"> <p class="illustration" style="width:106px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/medias-reference/people-inria/hubert-garavel-chapo/354442-1-fre-FR/hubert-garavel-chapo_small.jpg" width="100" height="76" alt="" title="" /> </span> <span class="legende"> Hubert Garavel - <cite>© Inria / Photo A.Eidelman </cite> </span> </p></div> <p>« Les tendances actuelles vont certainement s’accentuer&nbsp;: les systèmes informatiques gèreront une part croissante de notre vie sociale, s’étendant à de nouveaux domaines tels que la distribution d’énergie et l’aide à la conduite automobile. La complexité matérielle et logicielle des systèmes embarqués ira en augmentant avec l’ajout de nouvelles fonctionnalités et l’évolution des architectures&nbsp;: généralisation du calcul parallèle, regroupement de multiples fonctions sur des processeurs multi-cœurs, interconnexion systématique à Internet et optimisation de la consommation énergétique. De tels changements risquent de rendre le fonctionnement des systèmes beaucoup plus difficile à prévoir.</p> <p>Les scientifiques travaillent sur ces problématiques complexes pour lesquelles ils ont développé un vrai savoir-faire. Mais la diffusion de ces résultats et leur mise en œuvre par les industriels est un autre enjeu. Une prise de conscience aura-t-elle lieu à temps pour traiter en amont les problèmes de sûreté et de sécurité&nbsp;? Ou bien des accidents imposeront-ils une régulation plus drastique, avec une responsabilité accrue pour les concepteurs de systèmes et, par exemple, l’obligation d’employer des développeurs spécialement qualifiés à cet effet,&nbsp;comme cela est la règle dans d’autres corps de métiers ? La question reste ouverte.»</p> </div> </div> Inria en direct de SuperComputing 2012 http://www.inria.fr/centre/bordeaux/actualites/supercomputing-2012-en-images Wed, 14 Nov 2012 17:22:41 GMT ]]> <p>Cette année encore Inria est présent au salon international SuperComputing.&nbsp; Découvrez les premières images de ce rendez-vous incontournable du calcul haute performance.</p> SuperComputing 2012 : l’incontournable du calcul http://www.inria.fr/centre/bordeaux/actualites/supercomputing-2012 Mon, 12 Nov 2012 11:06:59 GMT ]]> <p>La communauté mondiale du calcul scientifique est réunie en ce moment même et ce jusqu’au 16 novembre à Salt Lake City. Fidèle à cet événement créé en 1988, Inria participe à travers ses équipes spécialisées en calcul haute performance (HPC) depuis près de 20 ans.</p> <div class="object-right"> <p class="illustration" style="width:86px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/bordeaux/actualites-images/brice-goglin/572863-2-fre-FR/brice-goglin.jpg" width="80" height="120" alt="" title="" /> </span> </p></div> <p><em>&nbsp;«&nbsp;Nous menons cette année une action d’envergure nationale <a href="https://www-sop.inria.fr/c2s_at_exa/" target="_self">(</a></em><a href="https://www-sop.inria.fr/c2s_at_exa/" id="__mce_tmp" target="_self">C2S@Exa)</a><em><a href="https://www-sop.inria.fr/c2s_at_exa/" id="__mce_tmp" target="_self">&nbsp;</a>à l’occasion de l’édition 2012 du salon SuperComputing et impliquons des équipes des différents centres Inria (Bordeaux, Grenoble, Nancy et Sophia Antipolis)&nbsp;» </em>déclare <strong>Brice Goglin</strong>, &nbsp;chargé de recherche au sein de l’équipe-projet Inria Runtime au Centre de Recherche Inria Bordeaux - Sud-Ouest. <em>«&nbsp;SuperComputing ne concerne directement que quelques thématiques parmi les 20 abordées chez Inria, mais différentes équipes </em><em>des autres thématiques participent car la simulation numérique et le calcul haute performance touchent désormais à de nombreux aspects de la société»</em>&nbsp;précise t-il.&nbsp;&nbsp;</p> <a name="eztoc572724_1" id="eztoc572724_1" class="anchor"></a><h3>Priorité au networking</h3><p>Travaillant au développement de logiciels permettant de faciliter l’utilisation des super-calculateurs, Brice reconnaît se rendre sur l’incontournable salon international davantage pour rencontrer tous les acteurs du calcul scientifique que pour exposer ses travaux de recherche. <em>&nbsp;«&nbsp;Nous nous devons de suivre très finement les évolutions du matériel&nbsp;</em>» affirme t-il, révélant avoir des accords privilégiés avec les constructeurs comme Intel, de sorte à être en mesure de fournir les logiciels de calcul dès la sortie de tel ou tel nouveau produit par un constructeur. <em>«&nbsp;Nous sommes dans la confidence pour développer les outils en amont, mais sommes bien évidemment soumis à l’embargo tant que la sortie du produit n’est pas officialisée&nbsp;»</em>&nbsp;confirme t-il, rappelant que le salon SuperComputing est l’opportunité pour de nombreuses présentations par les constructeurs. Parmi les annonces attendues, celle d’un nouveau processeur dédié au calcul scientifique par Intel, ou encore de nouvelles générations de processeurs NVIDIA reposant sur des technologies complètement différentes. <em>«&nbsp;L’affrontement fait rage actuellement entre le fabricant de processeurs généralistes classiques qui savent tout faire mais ne vont pas très vite (Intel) et celui qui s’est inspiré des cartes graphiques de jeux vidéo pour concevoir des processeurs réalisant certaines choses uniquement, mais très vite (NVIDIA)&nbsp;»</em>&nbsp;résume Brice, soulignant que l’on ignore aujourd’hui de quoi l’avenir sera fait du côté de la technologie des processeurs.<strong>&nbsp;</strong></p> <a name="eztoc572724_2" id="eztoc572724_2" class="anchor"></a><h3>Tendances</h3><p><em>«&nbsp;Paradoxalement, alors que les ordinateurs deviennent de plus en plus puissants et sont de plus en plus complexes, il faut donner à l’utilisateur l’impression qu’ils sont plus simples à utiliser&nbsp;»</em>&nbsp;explique Brice Goglin. Les nouveautés des constructeurs visent surtout en effet la puissance de calcul mais peu la facilité d'utilisation. De nombreux travaux sont donc proposés pour simplifier &quot;logiciellement&quot; la vie des utilisateurs. <em>«&nbsp;Les ressources de calcul à travers le Cloud computing figurent aussi parmi les tendances dans la mouvance du développement durable et des économies d’énergie»</em>&nbsp;observe t-il. Dans ses valises Inria emporte à présenter à ses visiteurs&nbsp;: des aspects énergétiques, du langage de programmation, de la simulation de machines du futur pour adapter les logiciels …et bien plus encore&nbsp;!</p> <p>Enfin, Inria donnera la parole à ses partenaires en direct de son stand, à suivre toute la semaine sur le <a href="http://avalon.ens-lyon.fr/events/sc12-invited-talks-on-the-inria-booth-1209" id="__mce_tmp" target="_self">site de la conférence.</a></p> Prix France Telecom : au-delà de la reconnaissance, de belles perspectives pour la théorie des jeux http://www.inria.fr/centre/sophia/actualites/prix-france-telecom-au-dela-de-la-reconnaissance-de-belles-perspectives-pour-la-theorie-des-jeux Mon, 12 Nov 2012 10:32:31 GMT ]]> <p>Le Prix France Télécom de l’Académie des Sciences a été remis conjointement le 15 octobre dernier à Eitan Altman, chercheur Inria et membre associé de l’UPMC (Paris 6) et Joël Cibert, directeur de recherche CNRS à l’Institut Néel à Grenoble. Prix prestigieux, il marque la reconnaissance d’un domaine en plein essor.</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p><em>&nbsp;Le prix représente beaucoup plus que la reconnaissance de mes contributions au domaine des télécommunications&nbsp;» </em>déclare le lauréat Eitan Altman, soulignant que c’est la reconnaissance du domaine de recherche que représente la théorie des jeux qui est importante.</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p>Selon lui <em>«&nbsp;il y a 20 ans encore, il était </em><em>fréquent qu'un article dans ce domaine soit rejeté sans même être lu car jugé sans relation avec les réseaux&nbsp;!&nbsp;».</em>&nbsp;Fort heureusement, une jeune communauté scientifique s'est depuis constituée autour des jeux dans les réseaux de télécommunications, et s’est imposée à la fois à travers ses contributions aux applications et grâce à ses outils et concepts de la théorie des jeux. Le prix annuel France Télécom vient ainsi récompenser des chercheurs ou ingénieurs effectuant en France un travail de recherche fondamentale ou appliquée, concernant les télécommunications et pouvant avoir un impact important sur les services, réseaux, équipements ou composants.</p> <div class="object-left"> <p class="illustration" style="width:76px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/sophia-antipolis/actualites-images/autres-formats/vignette-pierre-bernhard/572709-1-fre-FR/vignette-pierre-bernhard_vignette_list.jpg" width="70" height="62" alt="" title="" /> </span> </p></div> <p><em>«&nbsp;La théorie classique des jeux s’est développée dans un monde d’économie théorique&nbsp;»</em>&nbsp;confirme Pierre Bernhard, Directeur de recherche émérite à Inria Sophia Antipolis - Méditerranée dont il a été le fondateur et premier directeur. <em>«&nbsp;En fait avec la théorie des jeux les gens pensaient faire de l’économie&nbsp;!&nbsp;»</em>&nbsp;s’amuse t-il, soulignant qu’Eitan Altman a quant à lui eu l’intuition d’utiliser le concept de cette théorie des jeux dans le domaine des télécommunications. </p> <br class="clear" /> <div class="object-left"> <p class="illustration" style="width:76px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/sophia-antipolis/actualites-images/autres-formats/vignette-sylvain-sorin/572713-2-fre-FR/vignette-sylvain-sorin_vignette_list.jpg" width="70" height="70" alt="" title="" /> </span> </p></div> <p><em>«&nbsp;Pour toute bonne application il faut être très fort en théorie&nbsp;»</em>observe Sylvain Sorin, chercheur à l'UPMC (Paris 6) et théoricien des jeux reconnu. <em>«&nbsp;Ce qui est impressionnant chez Eitan est à la fois la maîtrise des outils conceptuels de la théorie des jeux, de la recherche opérationnelle et des aspects technologiques&nbsp;» </em>pointe t-il, affirmant aussi que le prix France Télécom joue un rôle majeur dans la reconnaissance du domaine.</p> <br class="clear" /> <a name="eztoc572697_1" id="eztoc572697_1" class="anchor"></a><h3>Dans l'air tu temps des Nobels</h3><p><em>«&nbsp;Mon travail sur les jeux non-coopératifs est fortement lié à celui de Loyd Shapley, l'un des deux lauréats du Prix Nobel d'Economie cette année&nbsp;»</em>&nbsp;déclare Eitan Altman. Son domaine de prédilection est définitivement à l’honneur et <em>«&nbsp;la communauté de la théorie des jeux attend depuis longtemps l'attribution du Prix Nobel à Shapley&nbsp;»</em>&nbsp;affirme t-il, notant que puisqu’il n'existe pas de Prix Nobel sur la théorie des jeux ce prix a été attribué en économie. Pour Pierre Bernhard, la parenté entre les travaux d'Eitan et ceux de Shapley sur les jeux coopératifs est assez lointaine ! <em>«&nbsp;Il n'est pas impossible qu'Eitan ait utilisé quelque part la &quot;valeur de Shapley&quot;, un concept si important que tout utilisateur de la théorie des jeux est susceptible de s'en être servi un jour&nbsp;» </em>déclare t-il, rappelant que ce pour quoi il est récompensé est vraiment d’avoir été pionnier dans l’utilisation de la théorie des jeux pour de nouvelles applications. &nbsp;<em>«&nbsp;Or découvrir l'utilité d'un outil dans un domaine différent de celui dans lequel il a vu le jour est toujours scientifiquement très riche, et fait progresser tant le nouveau domaine d'application que l'outil lui-même&nbsp;»</em>&nbsp;ajoute t-il.</p> <p>Eitan Altman répond concernant l’utilisation de la valeur de Shapley&nbsp;: <em>«&nbsp;Nous avons proposé d'utiliser cette approche de partage des gains lors du débat sur la loi Hadopi, avec l’objectif d’inciter les fournisseurs de services à profiter au maximum de la demande conséquente en terme de contenu plutôt que lutter contre le téléchargement non autorisé&nbsp; en le rendant illégal&nbsp;»</em>. Pour lui, une contribution importante de Shapley a été l’introduction de la programmation dynamique pour étudier les jeux stochastiques non-coopératifs, la sienne ayant été d’étendre ces travaux aux problèmes avec contraintes. Une de ces extensions, majeure, a d’ailleurs reçu le prix du meilleur article de la conférence IEEE Globecom.</p> <a name="eztoc572697_2" id="eztoc572697_2" class="anchor"></a><h3><strong>Et maintenant&nbsp;? …La vie après le Prix France télécom&nbsp;!</strong></h3><p>L’axe de recherche prioritaire de Eitan actuellement est la compétition sur la popularité et la visibilité de contenus dans les réseaux sociaux. <em>«&nbsp;Le premier pas consiste à rassembler beaucoup de données sur la propagation de contenu dans les réseaux qui nous permettent de tester des modèles mathématiques (processus de branchement, modèles d'épidémies, etc.)&nbsp;» </em>explique t-il. Ainsi toute l’équipe ne se prive pas de créer elle-même du contenu (vidéos sur Youtube, pages Facebook, groupes sous LinkedIn, etc.) et de le diffuser dans les différents réseaux sociaux. <em>«&nbsp;Nous utilisons ensuite des outils de la théorie des jeux pour modéliser la compétition entre les contenus et pour utiliser nos ressources de la manière la plus efficace afin d'accélérer leur propagation dans les réseaux&nbsp;!&nbsp;». </em>Sylvain Sorin rappelle quant à lui l’importance de l’impact du travail de construction des règles du jeu sur la recherche et souligne la nécessité de réseaux de collaborations scientifiques renforcés en la matière.</p> L'équipe Caramel lauréate du Prix "La Recherche" 2012 http://www.inria.fr/centre/nancy/actualites/la-cryptographie-a-l-honneur Sun, 11 Nov 2012 23:27:28 GMT ]]> <p>Le cassage de la clé RSA 768 en 2010 ; un jalon pour cette équipe de recherche méritante qui obtient de très beaux résultats.</p> <p>&quot;La Recherche&quot; a attribué ce prix pour le cassage de la clé RSA 768 en 2010, mais ce prix pourrait aussi être obtenu pour le récent très beau résultat réalisé en 2012 : le cassage de la clé RSA 704.</p> <p>En effet, après avoir réussi ce très beau challenge en 2010, l'équipe Caramel poursuit ces travaux en s'attaquant, entre autre, au nombre RSA 704. Une compétition de factorisation est lancée autour de ces nombres RSA, cette compétition met en concurrence des équipes de recherche internationale. </p> <p>RSA 704 est&nbsp;un grand nombre semi-premier, il a une longueur de 212 chiffres décimaux&nbsp;et n'avait pas encore été factorisé jusqu'alors. L'équipe Caramel a remporté une fois de plus le challenge et a gagné un prix d'une valeur de 30 000 $,&nbsp;offert&nbsp;par RSA Security.</p> <pre>RSA-704 = 7403756347956171282804679609742957314259318888923128908493623263897276503402826627689199641962511784399589</pre><pre>4330502127585370118968098286733173273108930900552505116877063299072396380786710086096962537934650563796359</pre><pre>RSA-704 = 9091213529597818878440658302600437485892608310328358720428512168960411528640933367824950788367956756806141 &amp;nbsp;</pre><pre>× 8143859259110045265727809126284429335877899002167627883200914172429324360133004116702003240828777970252499</pre> Inriality, une fenêtre ouverte sur le monde numérique http://www.inria.fr/actualite/actualites-inria/lancement-d-inriality Sun, 11 Nov 2012 17:49:09 GMT ]]> <p>Inria vient de lancer Inriality, espace ouvert et participatif d'échanges et de réflexion sur la civilisation numérique. Cette plateforme, qui naît à côté du site institutionnel Inria.fr, sera un lieu de dialogue où chacun sera libre&nbsp;d'apporter sa contribution.</p> <p>Avant tout, la démarche <strong>Inriality </strong>est au service du dialogue science et société sur toutes les thématiques touchant au numérique. <strong>Inriality </strong>favorise donc la rencontre entre les expériences et les points de vue :</p> <ul> <li>des acteurs et témoins du monde numérique</li> <li>des leaders d’opinions</li> <li>des penseurs du numérique</li> <li>des chercheurs en sciences du numérique</li> </ul> <div class="object-center xml_large_wide_16_9"> <p> <object width="600" height="362" name="player" type="application/x-shockwave-flash" data="/extension/site_inria/design/site_inria/flash/player.swf"> <param name="movie" value="/extension/site_inria/design/site_inria/flash/player.swf"> <param name="allowfullscreen" value="true"> <param name="allowscriptaccess" value="always"> <param name="flashvars" value="file=http://www.youtube.com/watch?v=CjzIvEUmdKo&amp;autostart=false&amp;bufferlength=1&amp;stretching=exactfit&amp;backcolor=#2a3a47&amp;frontcolor=#DDDDDD&amp;lightcolor=#FFF&amp;dock=true&amp;stretching=uniform&amp;image=/var/inria/storage/images/medias/videos/youtube-inriachannel/piloter-un-vaisseau-par-la-pensee/573662-2-fre-FR/piloter-un-vaisseau-par-la-pensee_vignette_video.jpg&plugins=fbit-1,tweetit-1"> </object> </p> </div> <br class="clear" /> <p>Bien plus qu’un site, <strong>Inriality </strong>est un dispositif vivant qui comprend :</p> <ul> <li>des cycles de rendez-vous participatifs, créatifs permettant une réflexion partagée et de la production de contenus, autour de grands enjeux numériques ;</li> <li>la plateforme&nbsp;<a href="http://www.inriality.fr/" target="_blank">inriality.fr</a>&nbsp;dotée de son écosystème social (un compte twitter, un compte Facebook, un compte pinterest, une playlist youtube).&nbsp;</li> </ul> <p>Inriality.fr&nbsp;est conçu pour s’adapter à toutes les prises de parole, qu’elles soient ponctuelles ou plus régulières. On y trouve, dès à présent&nbsp;: &nbsp;</p> <ul> <li>des <strong>articles d’information</strong>&nbsp;qui fournissent des clés de compréhension, ou amorcent un débat</li> <li><strong>quelques chroniques</strong>&nbsp;du numérique&nbsp;: format de billet permettant le récit d’expérience, le partage de point de vue ou l’interrogation.</li> <li>le <strong>premier dossier</strong>&nbsp;consacré à la réalité augmentée, réalisé dans le cadre d’un atelier en juin 2012</li> </ul> <p>Au fil des semaines, et grâce à vos contributions, suggestions, propositions, Inriality.fr s’enrichira&nbsp;d'autres contenus et de débats en direct et en ligne entre invités et internautes.</p> L’arrivée du WiFi, technologie de télécommunication radio http://www.inria.fr/centre/grenoble/actualites/l-arrivee-du-wifi-technologie-de-telecommunication-radio Sat, 10 Nov 2012 13:50:07 GMT ]]> <p>La technologie radio 802.11, désormais bien connue sous le nom de Wi-Fi, est développée à la fin des années 1990, mais sa mise en œuvre est assez compliquée et il faudra attendre les années 2002-2003 pour que les vraies cartes Wi-Fi arrivent sur le marché et ouvrent le champ des applications d’objets mobiles communicants.</p> <p><strong>Témoignage de Stéphane Ubéda</strong>, Directeur du Développement Technologique à Inria.</p> <p>La problématique la plus importante était de faire communiquer les différentes cartes Wi-Fi entre elles. Au début des années 2000, la déréglementation des télécommunications battait son plein et les opérateurs historiques, partout en Europe, prenaient leur temps pour introduire ces nouvelles technologies radio.</p> <p>Mais chacun avait conscience que ces technologies seraient un levier pour de nouveaux usages et qu’il faudrait exploiter davantage d’ondes radio, mais également qu’elles bousculeraient un modèle économique bien établi.</p> <p>La technologie commence à envahir les objets du quotidien et la levée, en France, en 2002, des contraintes d’utilisation ouvre la voie aux opérateurs qui commence à offrir le Wi-Fi, moyennent un forfait, dans les «&nbsp;hotspots&nbsp;». A partir de 2004, ce marché du Wi-Fi explose littéralement, et la technologie ne tarde pas à s’imposer comme moyen d’accès à Internet depuis un terminal mobile.</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>La physique a aidé l’avancement de la technologie Wi-Fi</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p>Les technologies de communication radio courte distance consomment peu d’énergie et peuvent être embarquées dans des objets de tous les jours, comme les ordinateurs ou téléphones portables. Dotés de capacités de communication, ces objets peuvent aussi servir de relai à d’autres objets qui ne sont pas à portée radio pour transmettre des messages. De tels réseaux spontanés et autonomes sont appelés «&nbsp;réseaux <em>ad hoc&nbsp;</em>».</p> <p>Dès le milieu des années 1990, Inria travaillait sur les technologies <em>ad hoc</em>, essentiellement dans le domaine des protocoles d’échange de messages entres différents systèmes. </p> <div class="object-right"> <p class="illustration" style="width:206px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/corps/simulation-wifi/572554-1-fre-FR/simulation-wifi_medium.jpg" width="200" height="150" alt="Simulation de service WiFi" title="Simulation de service WiFi" /> </span> <span class="legende"> En 2004, simulation de la couverture WiFi en différents endroits d'un immeuble - <cite> © Inria - Equipe Ares</cite> </span> </p></div> <p>En 2003, nous avons créé l’équipe ARES – commune avec l’INSA de Lyon, qui avait l’originalité de combiner les approches d’experts en informatique et d’experts en traitement des signaux pour optimiser l’usage des ondes radio. En effet, nous voulions une approche plus basée sur la physique car ces ondes sont fragiles : leur qualité peut changer très facilement lorsqu’elles rencontrent un obstacle. Nous avons travaillé sur les vraies cartes Wi-Fi en mettant les objets réels en communication entre eux. Nous regardions comment les barrières, comme les murs et portes, affectent la propagation des ondes, et cela nous permettait d’optimiser nos algorithmes et logiciels. Nous pouvons même désormais prédire où mettre les antennes radios pour que les installations soient optimisées.</p> <p>Nous avons également mis au point un réseau de capteurs créés avec nos propres cartes de communication et l’an dernier, la start-up <a href="/www.hikob.com" target="_blank">HiKoB </a>a été créée par un ancien de l’équipe ARES. HiKoB s’occupe de la commercialisation de ce réseau.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc572159_0_1" id="eztoc572159_0_1" class="anchor"></a><h4><strong>ET DANS 20 ANS ?</strong></h4><p><strong>Stéphane Ubéda</strong>, directeur du Développement Technologique à Inria</p> <div class="object-left"> <p class="illustration" style="width:76px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/medias-reference/people-inria/stephane-ubeda-portrait-vertical/49732-1-fre-FR/stephane-ubeda-portrait-vertical_medium.jpg" width="70" height="110" alt="Stephane Ubeda © INRIA / Photo J.-M. Ramès " title="Stephane Ubeda © INRIA / Photo J.-M. Ramès " /> </span> </p></div> <p>«La communication radio courte portée va encore prendre de l’ampleur à l’avenir, bien que les ressources radio soient très limitées. Mais il sera nécessaire d’essayer d’émettre des messages radios avec des puissances encore plus faibles afin de limiter la pollution électromagnétique&nbsp;: tout le monde partage les ondes&nbsp;! Nous devons également améliorer la sécurité des réseaux radio qui sont, par nature, autonomes, sans contrôle centralisé (contrairement aux réseaux cellulaires) et accessibles à tous. J’aimerais que ce domaine continue à se développer pour faire avancer la recherche dans les télécommunications et garantir un espace de liberté dans le déploiement de réseaux autonomes accessibles à tous les citoyens du monde ».</p> </div> </div> L'émergence du Green-IT, pour une informatique plus verte http://www.inria.fr/centre/grenoble/actualites/l-emergence-du-green-it-pour-une-informatique-plus-verte Fri, 9 Nov 2012 21:09:46 GMT ]]> <p>Le «&nbsp;Green IT&nbsp;» a pour but d’améliorer l’efficacité énergétique des systèmes distribués à grande échelle, comme les data-centers, les clouds et les réseaux de télécommunications. Ce domaine a pu se développer grâce aux modèles plus sophistiqués de l’usage énergétique des équipements informatiques. Et les enjeux écologiques et financiers sont devenus importants ces dernières années. Les plus gros data-centers au monde consomment énormément d’électricité : plus de 10 mégawatts. Et ce n’est que le début, car cette consommation pourrait atteindre 25 mégawatts avec la construction des futures machines exascale.</p> <p><strong>Témoignage de Laurent Lefevre, </strong>chercheur de l’équipe <a href="/domaines/reseaux-systemes-et-services-calcul-distribue/reseaux-et-telecommunications/reso" target="_blank">RESO</a>, au LIP de l’Ecole Normale Supérieure de Lyon.</p> <p>Le Green IT n’est devenu important que relativement récemment. En effet, par le passé, la prérogative résidait plutôt dans l’amélioration des performances des composants que dans l’économie d’électricité. Cependant, les récentes hausses de prix de l’électricité et l’impact environnemental des infrastructures ont rendu le Green IT indispensable pour toute création d’infrastructures distribuées à grande échelle.</p> <p>Mais, comment consommer moins d’énergie tout en fournissant autant, voire plus, de services&nbsp;? Pour répondre à cette question fondamentale de nos jours, nous élaborons des modèles informatiques et des algorithmes, des logiciels et des protocoles sensibles et optimisés en consommation énergétique, qui sont validés par la suite de manière théorique et expérimentale.</p> <p>Nous travaillons sur «&nbsp;l’adaptation intelligente des ressources&nbsp;» qui combat le sur-provisionnement de ressources physiques. </p> <p>Deux modèles peuvent être cités. Le premier est le modèle «&nbsp;shut-down&nbsp;» qui vise à éteindre, même pour de très courtes périodes, les équipements et périphériques inutiles. Le deuxième, le «&nbsp;slow-down&nbsp;», adapte la vitesse des ressources (processeur, réseaux, stockage) aux besoins réels des applications et des services.</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>Réduire la consommation électrique des réseaux de communications d’un facteur 1000 !</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p>Pour y arriver, les chercheurs ont d’abord analysé des infrastructures informatiques, telles que les clusters et data-centers.</p> <div class="object-right"> <p class="illustration" style="width:158px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/corps/cluster-grid5000/572130-1-fre-FR/cluster-grid5000_medium.jpg" width="152" height="200" alt="" title="" /> </span> <span class="legende"> Cluster de Grid5000 avec wattmètres de mesure haute vitesse - <cite>Inria / RESO</cite> </span> </p></div> <p>&nbsp;Ils se sont ensuite interrogés sur l’usage informatique et électrique de ces centres en utilisant des instruments de mesure (wattmètres haute précision).&nbsp;</p> <p>Notre équipe a ainsi analysé, par exemple, la plateforme Grid5000 avec cette technique.</p> <p>Nous avons constaté que la consommation électrique des équipements informatiques était en grande partie «&nbsp;statique&nbsp;» : les équipements consommaient presque autant d’énergie lorsqu’ils étaient utilisés et lorsqu’ils ne l’étaient pas. Un vrai gaspillage&nbsp;!</p> <p>Nous nous sommes aussi impliqués dans l’initiative GreenTouch, dont Inria est un des membres fondateurs. GreenTouch vise à réduire la consommation électrique des réseaux de communications d’un facteur 1000 à l’horizon 2015, tout en garantissant la même qualité d’usage. </p> <p>Un vrai challenge qui implique tous les acteurs industriels et académiques du monde des télécoms à tous les niveaux&nbsp;matériels et logiciels.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc571928_0_1" id="eztoc571928_0_1" class="anchor"></a><h4><strong>ET DANS 20 ANS ?</strong></h4><p><strong>Laurent Lefevre, </strong>chercheur de l’équipe <a href="/domaines/reseaux-systemes-et-services-calcul-distribue/reseaux-et-telecommunications/reso" target="_blank">RESO</a>, au LIP de l’Ecole Normale Supérieure de Lyon</p> <div class="object-left"> <p class="illustration" style="width:83px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/corps/portrait-laurent-lefevre/572126-1-fre-FR/portrait-laurent-lefevre_small.jpg" width="77" height="100" alt="Portrait Laurent Lefèvre" title="Portrait Laurent Lefèvre" /> </span> </p></div> <p>«Il faut absolument continuer les collaborations entre les mondes académique et industriel pour avancer. Le graal serait de créer des équipements dits «&nbsp;proportionnels&nbsp;». Ces équipements ne consomment aucune énergie quand ils ne sont pas utilisés et en consomment intelligemment quand ils le sont. De tels équipements n’existent pas encore pour le moment.</p> <p>Un autre moteur d’évolution pour notre domaine est «&nbsp;l’eco-informatique&nbsp;». Travailler et prendre en compte tout le cycle de vie des produits et des machines pour en optimiser les aspects sociétaux et environnementaux.</p> <p>Notre leitmotiv&nbsp;: «&nbsp;Réduire l’empreinte écologique des infrastructures numériques et de communication pour un avenir plus vert pour tous&nbsp;».</p> </div> </div> Les vertus de la programmation par contraintes http://www.inria.fr/centre/rennes/actualites/les-vertus-de-la-programmation-par-contraintes2 Thu, 8 Nov 2012 13:05:06 GMT ]]> <p>Équipe de recherche commune d'Inria, de l'École des Mines de Nantes, de l'université de Nantes et du CNRS, Tasc explore le potentiel de la programmation par contraintes. Au carrefour des mathématiques et de l'informatique, cette discipline aussi appelée PPC permet d'aborder les problèmes combinatoires de grande échelle, comme l'explique le scientifique Nicolas Beldiceanu.</p> <p> “<em>Nous récupérons souvent les problèmes que d'autres méthodes ne peuvent guère traiter,</em>&nbsp;résume malicieusement Nicolas Beldiceanu, responsable de l'équipe Tasc. <em>La programmation par contraintes convient pour les problèmes dans lesquels il y a un aspect combinatoire se mêlant à des contraintes opérationnelles complexes : la planification, le placement et l'ordonnancement par exemple.</em>” Né dans les années 1980, ce paradigme établit une distinction claire entre la description des contraintes intervenant dans un problème et les techniques utilisées pour le résoudre. Les applications concernent l'aide à la décision dans de nombreux domaines tels que la logistique ou la gestion de ‘data centres’.<br /> “<em>Ainsi, en ce moment, notre équipe participe à la création d'un outil de pré-programmation urbaine.</em>” L'enjeu : la conception de villes durables de A à Z. Développé à travers le <a href="http://www.sustains.fr/" target="_blank">projet collaboratif Sustains</a>, “c<em>e logiciel aidera les architectes et les urbanistes à prendre en compte quantité d'aspects comme la croissance démographique, la mixité sociale, les transports, les taux d'emploi, la topographie, les besoins énergétiques...” Autant de contraintes dont l'optimisation tient du casse-tête. “Et clairement, ce n'est pas uniquement le génie logiciel qui peut répondre à des problèmes de ce type combinatoire.</em>”</p> <a name="eztoc571749_1" id="eztoc571749_1" class="anchor"></a><h3>Les ‘smart grids’ </h3><p> Les chercheurs de Tasc collaborent aussi avec un industriel du secteur énergie. Un des volets de ce rapprochement porte sur les smart grids. À la fois complexes et dynamiques, ces réseaux de distribution intelligents tissent une relation nouvelle entre producteurs et consommateurs d'énergie. “<em>Ce genre de réseau fait intervenir à la fois des mathématiques discrètes et des mathématiques continues. Et c'est ce qui nous intéresse.&nbsp; Il faut concilier d'un côté la re-configuration dynamique à grande échelle et de l'autre la garantie d'une production suffisante. Dans l'avenir, je pense que ces aspects discret/continu deviendront un axe de recherche important. Une des complications résulte du fait que le sujet concerne des communautés de recherche très différentes issues du discret (combinatoire, graphe) et du continu (analyse numérique).</em>”&nbsp; L'équipe de recherche nantaise réunit donc des spécialistes des deux mondes.<br /> Les travaux de Tasc suscitent aussi l'intérêt du centre de R&amp;D de Google à Paris. “<em>Ils travaillent sur les contraintes. Ils développent un outil en interne, mais pourraient intégrer éventuellement certains de nos algorithmes de filtrage. Google a financé une partie de nos recherches sur les explications dans les contraintes. Celles-ci permettent de pointer telle ou telle raison pour laquelle un ensemble de contraintes n'a pas de solution.</em>”<br /> Dans le souci d'élaborer des outils génériques plutôt que des logiciels à usage unique, les chercheurs se concentrent sur l'enrichissement de bibliothèques de contraintes open source à l'instar de <a href="http://www.emn.fr/z-info/choco-solver/" target="_blank">Choco</a>. Initiée par l'entreprise <a href="http://www.amadeus.com/fr/fr.html" target="_blank">Amadeus</a>&nbsp;et le laboratoire <a href="http://e-lab.bouygues.com/" target="_blank">e-lab</a>&nbsp;du groupe Bouygues, cette librairie Java est désormais intégrée en situation réelle dans nombre d'applications. L'équipe concourt également au développement d'<a href="http://www.emn.fr/z-info/ibex/" target="_blank">Ibex, une bibliothèque C++</a>&nbsp;élaborée principalement par Gilles Chabert et initiée par lui quand il était doctorant au centre de recherche Inria de Sophia Antipolis.</p> <a name="eztoc571749_2" id="eztoc571749_2" class="anchor"></a><h3>Catalogue de librairies</h3><p> Au fil des ans, dans le monde, bien d'autres bibliothèques ont vu le jour : <a href="http://www-01.ibm.com/software/integration/optimization/cplex-cp-optimizer/" target="_blank">Ilog Solver</a>, <a href="http://www.jacop.eu/" target="_blank">JaCoP</a>, <a href="http://www.gecode.org/" target="_blank">Gecode</a>, <a href="http://code.google.com/p/or-tools/" target="_blank">OR-tools</a>, <a href="http://www.sics.se/isl/sicstuswww/site/index.html" target="_blank">SICStus Prolog</a>… “<em>Mais hélas elles ne sont qu'un éternel recommencement d'une implémentation de contraintes dans un langage d'accueil (Java, C++, Prolog...). Voilà l'une des raisons qui nous a incité à entreprendre un travail de catalogage des contraintes.</em>” Mais la principale motivation se trouve ailleurs. “<em>Encodées par des développeurs dans un langage donné, ces librairies semblent avoir été comme figées dans le marbre. L'idée du <a href="http://raweb.inria.fr/rapportsactivite/RA2011/tasc/uid45.html" target="_blank">catalogue</a>, c'est donc aussi de décrire tous les aspects des contraintes, de manière explicite, à l'aide de méta-données. Une fois les contraintes ainsi décrites, on va pouvoir utiliser une même contrainte pour différents usages. Y compris des utilisations qui n'étaient pas vraiment initialement prévues.</em>”<br /> Dans une nouvelle étape, les chercheurs se dirigent maintenant vers l'apprentissage de modèles de contraintes indépendamment de la technologie (contrainte, SAT, programmation linéaire). Mais “<em>nous n'en sommes pas au stade où l'on peut résoudre complétement automatiquement des problèmes. En optimisation, il existe différentes technologies avec leur communautés respectives. Cependant, aucune n'a émergé comme un standard à la façon d'un SQL pour les bases de données. On peut espérer qu'il y en aura grâce à cette approche basée sur la capitalisation des connaissances sous forme de méta données. Mais ce n'est pas évident</em>.”</p> Cartes d'Identité des Tumeurs sur GenOuest http://www.inria.fr/centre/rennes/actualites/les-cartes-d-identite-des-tumeurs-sur-genouest Thu, 8 Nov 2012 12:21:58 GMT ]]> <p>Gérée à Rennes par Inria et l’IRISA, la plate-forme bio-informatique GenOuest accueille désormais la banque de données des tumeurs assemblée par la Ligue Nationale contre le Cancer. Responsable technique de la plate-forme, Olivier Collin évoque les contours de cette collaboration et les défis nés du séquençage.</p> <p> 150 logiciels. 80 banques de données publiques. La plate-forme GenOuest, avec les autres plates-formes du réseau ReNaBi, constitue l'un des principaux supports à la recherche en biologie. Depuis un an, ses serveurs hébergent également les données du Programme « Cartes d'identité des tumeurs (CIT)® ».<br /> Conçue et financée par la Ligue Nationale contre le Cancer, cette banque de données contribue à caractériser de multiples types de tumeurs via l’analyse couplée&nbsp; de l’expression des gènes et des variations génétiques. Avec 11 000 échantillons tumoraux répertoriés et 14 000 expériences de biopuces, elle représente l'une des grandes bases du genre en Europe. Fruit de 10 ans de travail, elle agrège les contributions d'environ 60 équipes de recherche en médecine et biologie. L'outil peut permettre de préciser un diagnostic, prédire l'évolution de la maladie, anticiper la réponse à un traitement ou améliorer le suivi d'un patient.</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>“La bio-informatique amène des problèmes dimensionnants en phase avec une véritable actualité.”</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <a name="eztoc571700_1" id="eztoc571700_1" class="anchor"></a><h3>Plate-forme certifiée</h3><p> “<em>C'est une activité éminemment statistique, </em>explique Olivier Collin, responsable de GenOuest. <em>Nous fournissons à la Ligue la puissance de calcul nécessaire pour traiter les données et l'infrastructure pour les stocker. À la fois orientée recherche et services, notre plate-forme possède la certification Iso 9001:2008 qui garantit le respect d'une approche qualité. C'est l'une des raisons pour lesquelles nous avons été choisis dans le cadre de cette externalisation.</em>”<br /> Pour sa banque CIT, la Ligue a développé une interface spécifique, mais un utilisateur peut aussi activer les outils disponibles sur la plate-forme, et les titulaires d'un compte travaillent sur les données en toute autonomie. Les informations sur les patients sont anonymisées et protégées par un accès sécurisé.<br /> En contre-partie de cet hébergement, la Ligue finance partiellement un poste d'ingénieur au sein de GenOuest. L'équipe de la plate-forme s'est notablement étoffée dans les dernières années. Ce renforcement reflète l'essor du domaine. “<em>Ce n'est plus une évolution, </em>constate Olivier Collin. <em>Mais bien une rupture! Brutalement, la biologie se met à produire des données à vitesse époustouflante. En 2003, se terminait le séquençage du génome humain . Il avait coûté 3 milliards de dollars et mobilisé 20 centres de recherche pendant presque une quinzaine d’années. Aujourd'hui, les machines l'effectuent en routine en seulement quelques semaines et pour à peine 4 000 dollars. Mais cette explosion des capacités de séquençage ne se situe plus sur une courbe comparable à l'augmentation de la puissance informatique. On assiste à un vrai décrochage.</em>”<br /> Faudra-t-il alors plus de serveurs pour absorber ce déluge d'informations ? “<em>Ce n'est ni une réponse suffisante ni une solution pérenne. Trop cher. Trop énergivore. Il faut d'ores et déjà s'emparer du problème et le gérer d'une façon plus intelligente. C'est là qu'un institut comme Inria prend tout son sens. Il y a ici des scientifiques qui peuvent nous aider à réfléchir aux meilleures façons de calculer, stocker ou transférer les données.</em>”<br /> Sur ces questions, GenOuest travaille pour les équipes GenScale et Dyliss,&nbsp; deux équipes de bio-informatique situées dans le même centre de recherche. “<em>Nous avons un fort ancrage dans cette communauté. Parfois nous servons d'ailleurs de passerelle entre les différents acteurs. Mais ce qui émerge en ce moment, c'est l'intérêt que la biologie suscite en dehors du domaine. Avec ses jeux de données phénoménaux, elle amène des problèmes dimensionnants qui sont autant de défis que la communauté de la recherche en informatique doit aider à relever. Cela n'a rien d'artificiel. C'en est d'autant plus stimulant.</em>”</p> Notre environnement s'est peuplé d'objets communicants http://www.inria.fr/centre/grenoble/actualites/notre-environnement-s-est-peuple-d-objets-communicants Wed, 7 Nov 2012 17:39:03 GMT ]]> <p>C’est vraiment allé très vite. En 20 ans, notre environnement s’est peuplé d’une multitude d’objets intelligents - étiquettes, capteurs divers et bien sûr téléphones portables - qui détectent, activent et communiquent entre eux via les infrastructures de télécommunication, des réseaux de capteurs voire des mini réseaux personnels. Une révolution qui a su profiter des progrès constants de la microélectronique et des télécommunications sans fil.</p> <p><strong>Témoignage d’Eric Fleury</strong>, professeur ENS Lyon et responsable de l’équipe <a href="/domaines/reseaux-systemes-et-services-calcul-distribue/reseaux-et-telecommunications/dnet" target="_self">DNET</a>, spécialiste des objets communicants embarqués.</p> <p>On dénombrait quelques 9 milliards d’objets communicants en 2011, 24 milliards sont prévus d’ici à 2020. En 20 ans, à l’image des téléphones cellulaires, qui à l’orée des réseaux GSM tenaient dans une valisette, ils se sont multipliés au fur et à mesure des progrès constants en miniaturisation, puissance des processeurs, optimisation des communications sans fil, production et gestion de l’énergie…</p> <p>Depuis les années 2000, sur moins d’1 cm3, on peut embarquer un objet capable de calculer, de stocker des données et communiquer, désormais avec une seule et même puce. Nos smartphones tiennent dans la main et sont multifonctions. Equipés de capteurs de température extérieure, d'accéléromètres, de position par GPS et d’une caméra, ils sont capables de surfer sur le web ou d’échanger des images avec un autre téléphone en créant un réseau spontané Bluetooth. Ils sont bien plus puissants qu’un ordinateur d’il y a 20 ans alors qu’ils ne pèsent pas plus de 100 grammes. Pourtant, ils sont tellement courants qu’ils ne nous étonnent même plus.</p> <a name="eztoc571443_1" id="eztoc571443_1" class="anchor"></a><h3>Miniaturisation et optimisation des communications</h3><p>Ces progrès époustouflants doivent aussi beaucoup aux technologies radio. </p> <div class="object-right"> <p class="illustration" style="width:206px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/mediacenter/images-chapo/hopital-maritime-de-berck/68107-1-fre-FR/hopital-maritime-de-berck_medium.jpg" width="200" height="150" alt="@ INRIA" title="@ INRIA" /> </span> </p></div> <p>Que ce soit le multiplexage qui, dans les années 1990, a permis de multiplier les informations transmises dans une même gamme de fréquence sur de tout petits composants ou à l’explosion des réseaux sans fil, du premier Aloha dans les îles Hawaï en 1971 aux incontournables réseaux WiFi depuis 1999. Ces évolutions ont été tellement rapides qu’on ne comprend pas aujourd’hui qu’il n’y ait pas une couverture réseau ici ou là.</p> <p>Miniaturisation oblige, les communications peuvent aussi être relayées par les objets eux-mêmes. Encore à l’état de prototype, ces réseaux sont principalement utilisés par les militaires. Ils pourraient bientôt assurer des communications d’urgence en cas de catastrophe naturelle via les téléphones.&nbsp;</p> <p>En 2009, notre équipe de recherche a participé au projet expérimental <a href="http://www.inria.fr/actualite/mediacenter/infections-nosocomiales" target="_blank">I-Bird</a>&nbsp;à l'Hôpital Maritime de Berck-Sur-Mer (photo ci-dessus). L'objectif était de mieux comprendre la dynamique de transmission des bactéries responsables d’infections nosocomiales, en équipant les patients et le personnel hospitalier de capteurs communicants.</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>Outre nos téléphones, nous sommes entourés d’objets communicants et intelligents</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p>Dans le commerce, ce sont des étiquettes RFID pour lutter contre la fraude, gérer les stocks ou, bientôt, pour contrôler le contenu de tout un caddy à la caisse. Dans notre voiture, ce sont les capteurs qui contrôlent freinage, trajectoire ou déclenchement des essuie-glaces. Dans nos immeubles, ce sont les capteurs de relevé de compteurs qui informent l’exploitant des consommations en temps réel. Lors de nos joggings, ce sont cardio-fréquencemètre à la poitrine et capteur de mouvement à la chaussure qui communiquent par Bluetooth ou ZigBee avec notre&nbsp;montre ou notre téléphone dans un mini réseau personnel.</p> <p>Une des conséquences de ce monde de réseau et de communication est que nous laissons de plus en plus de traces numériques. Au-delà des progrès technologiques, il s’agit désormais de parvenir à garantir l’anonymat des données&nbsp;: un tout autre challenge.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc571443_2" id="eztoc571443_2" class="anchor"></a><h3><strong>La société HiKoB, start-up Inria, commercialise des réseaux de capteurs sans fil</strong></h3><p>Créée en juillet 2011 par des chercheurs de l’équipe Inria DNET et un maître de conférence de l’INSA de Lyon, cette start-up compte une dizaine de personnes. Une de ses premières applications concerne le taux de remplissage des parkings routiers et autoroutiers pour poids lourds, dans le but d’informer les conducteurs au préalable de la disponibilité des différentes aires de stationnement. Le même principe pourrait être généralisé dans les rues de villes ou dans les parkings urbains, renseignant les automobilistes à distance. HiKoB propose aussi l’installation de réseaux de capteurs sans fil, autonomes dans des applications aussi variées que la mesure du trafic routier, la supervision du vieillissement de grands ouvrages, la mesure de performances environnementales, énergétiques, de sécurité ou de santé des bâtiments ou encore la capture du mouvement pour des sportifs, des patients voire d’animaux instrumentés.</p> </div> </div> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc571443_2_1" id="eztoc571443_2_1" class="anchor"></a><h4><strong>ET DANS 20 ANS ?</strong></h4><p><strong>Eric Fleury, </strong>professeur ENS Lyon et responsable de l’équipe <a href="/domaines/reseaux-systemes-et-services-calcul-distribue/reseaux-et-telecommunications/dnet" target="_self">DNET</a></p> <div class="object-left"> <p class="illustration" style="width:73px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/autres-formats/eric-fleury-cartouche/124390-1-fre-FR/eric-fleury-cartouche_small.jpg" width="67" height="100" alt="Portrait de Eric Fleury" title="Portrait de Eric Fleury" /> </span> </p></div> <p>«La prochaine révolution pourrait être celle de l’Ultra Wide Band (UWB), une technologie qui permettrait de gagner un facteur 10 en débit de communications radio. Elle ne repose plus sur le multiplexage sur des bandes de fréquences limitées mais sur l’envoi d’impulsions très courtes (moins d’une nanoseconde) sur une très large bande de fréquences inutilisées jusque-là. Pour l’instant ces composants radio sont à l’état de prototypes et n’ont pas franchi le stade de l’industrialisation. »</p> </div> </div> Models@Runtime chez les pompiers http://www.inria.fr/centre/rennes/actualites/models-runtime-chez-les-pompiers Wed, 7 Nov 2012 13:14:34 GMT ]]> <p>Née des travaux de deux équipes rennaises, la plate-forme Daum opère le croisement entre l'ingénierie de modèle et les systèmes distribués. L'enjeu : générer des composants logiciels qui augmentent l'élasticité des architectures. Afin d'illustrer le potentiel de cette approche, les scientifiques développent une application d'aide à la décision tactique pour les soldats du feu. À l'origine du projet : Noël Plouzeau, enseignant-chercheur et officier sapeur-pompier.</p> <p> Web, Wifi, 3G, TV connectée. Les systèmes distribués s'invitent dans nos vies. Dans leur sillage : des composants logiciels qui se répandent sur quantité de réseaux et de matériels. Ces architectures tentent de s'adapter en permanence aux sollicitations des utilisateurs et aux fluctuations de la ressource. Mais l'élasticité trouve ses limites. “<em>Nous avons besoin d'un nouveau type de composant capable de mieux gérer le côté dynamique</em>, analyse&nbsp; Noël Plouzeau, membre de l'équipe <a href="/domaines/reseaux-systemes-et-services-calcul-distribue/systemes-et-services-distribues/triskell" target="_self">Triskell</a>. <em>Traditionnellement, un système se construit en deux phases : conception puis déploiement. Cette façon de travailler ne convient plus. Il faudrait concevoir en continu. Dans l'idéal, le système devrait assurer sa propre re-conception sans même interrompre son fonctionnement. Différentes techniques existent pour cela. Notre équipe s'intéresse à celles de l'ingénierie des modèles.</em>”&nbsp; Cette approche modèle du système en cours d’exécution est souvent désignée sous son nom anglais : Models@Runtime.<br /> Pour gérer la conception de tels systèmes adaptatifs, les scientifiques de Triskell ont d'abord élaboré Kerovee, un cadre de développement d’applications à base de composants logiciels. Leurs recherches s'avèrent complémentaires avec celles menées par&nbsp; <a href="/domaines/reseaux-systemes-et-services-calcul-distribue/systemes-et-services-distribues/myriads" target="_self">Myriads</a>, une autre équipe rennaise plus spécialisée dans les systèmes distribués. Tissant une passerelle entre les deux équipes, “<em>les travaux de nos doctorants, notamment <a href="http://dukeboard.github.com/francoisfouquet/" target="_blank">François Fouquet</a>&nbsp;et <a href="http://www.irisa.fr/myriads/members/edaubert" target="_blank">Erwan Daubert</a>, ont donné des choses intéressantes. À tel point que nous avons souhaité valoriser ces résultats en construisant une plate-forme d'évaluation.</em>”&nbsp; Baptisé Daum, le projet bénéficie d'une <a href="/recherches/equipes-de-recherche/developpement-technologique-a-l-institut" target="_self">action de développement technologique (ADT) d'Inria</a>. Ce financement permet le recrutement pour deux ans d'un ingénieur, Jean-Emile Dartois, chargé d'aider aux développements. Daum permettra de valider Kevoree. Il servira aussi à la création d'applications métiers.</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>“Les réseaux de capteurs ne figuraient pas initialement dans notre périmètre de recherche. Mais nous nous sommes aperçus que notre nouvelle technologie pouvait les prendre en compte. Ce qui s'avère très intéressant pour beaucoup d'applications.”</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <a name="eztoc571246_1" id="eztoc571246_1" class="anchor"></a><h3>&nbsp;D'une pierre deux coups</h3><p> Voilà pourquoi les chercheurs étaient aussi en quête d'une application réelle qui puisse illustrer l'intérêt de leur nouvelle technologie. Officier sapeur-pompier en Ille-et-Vilaine, Noël Plouzeau a saisi “<em>une opportunité de faire d'une pierre deux coups en créant un outil qui puisse servir aux collègues durant les interventions. Au sein du <a href="http://sdis35.fr/" target="_blank">SDIS 35</a>, nous avions&nbsp; justement besoin d'un système d'aide à la décision tactique. Autrement dit : une application dynamique distribuée avec des contraintes temps-réel.</em>”<br /> Sur le terrain, via une simple tablette sous Android, les officiers vont pouvoir accéder instantanément à une batterie d'informations pour estimer la situation. Placée sur chaque pompier, une petite boîte bardée de capteurs mesure une foison de paramètres : température corporelle, température extérieure, taux d'oxygène... “<em>Avec Kevoree, nous sommes capables de construire dynamiquement toute une infrastructure de calcul sur lesquels nous déployons des composants. Ceux-ci allument les capteurs, vérifient que les valeurs se maintiennent dans les bonnes fourchettes, déduisent des tendances, envoient des alertes... Élévation de la température moyenne, présence de monoxyde de carbone... Autant d'informations qui renforcent la sécurité individuelle et collective.</em>”<br /> L'outil épouse les procédures définies par la doctrine nationale des sapeurs pompiers. Il puisera dans les données géographiques du SDIS 35. “<em>L'utilisateur visualisera les hydrants (bouches et poteaux d'incendie) ou encore les points de danger spécifiques à certains sites répertoriés. Les hôpitaux par exemple. Nous aimerions même aller plus loin et effectuer un croisement avec des systèmes d'intelligence bâtimentaire, ce qu'on appelle aussi l'immotique.</em>”&nbsp; Truffés de détecteurs, certains lieux savent dire “<em>si quelqu'un se trouve encore dans telle pièce, si telle porte est ouverte, fermée, verrouillée ou dé-verrouillée... Nous n'en sommes pas là. Mais nous explorerons des possibilités de partenariat et de recherche dans cette direction.</em>”</p> <a name="eztoc571246_2" id="eztoc571246_2" class="anchor"></a><h3>&nbsp;Propagation</h3><p> À travers cette application, “<em>le défi scientifique est de démontrer l'avantage de notre système dynamique face à une traditionnelle architecture clients/serveur. Totalement distribué, Kerovee recourt à des algorithmes de propagation de proches en proches. Ce choix nous confère une souplesse supérieure.</em>”<br /> Le démonstrateur privilégie par ailleurs les solutions open source, des protocoles standards et les matériels les plus courants. “<em>Pour traiter les valeurs des capteurs, nous posons nos noeuds de calculs sur de simples cartes Arduino. Elles sont bon marché et constituent en quelque sorte un standard.</em>”&nbsp; À peine plus chers, les nouveaux Raspberry Pi accueilleront des nœuds plus puissants.&nbsp; “<em>À partir d'un processeur ARM, on peut élaborer un mini-serveur qui tient dans la boîte à gants du camion et ne consomme que 10 W.</em>”&nbsp; Pas de quoi affoler la batterie d'un camion.</p> <a name="eztoc571246_3" id="eztoc571246_3" class="anchor"></a><h3>&nbsp;Partenariats industriels</h3><p>&nbsp;“<em>Nous espérons valider l'application en 2013. Elle servirait d'abord à la formation continue des officiers, à l'école départementale des sapeurs.</em>”&nbsp; Et ensuite? “<em>C'est très ouvert. Nous souhaitons participer à des projets européens sur les systèmes distribués dynamiques orientés services, éventuellement dans le cadre du nouveau <a href="http://www.eitictlabs.eu/action-lines/" target="_blank">dispositif ICT Labs dont les action lines</a>&nbsp;correspondent bien à ce que nous faisons. Notre technologie ouvre beaucoup de possibilités de partenariats industriels. J'irai frapper à la porte de certaines entreprises. Des fournisseurs de services embarqués par exemple. Pourquoi pas également la création d'une start-up...</em>”</p> SemanticPedia & DBpédia : un double évènement http://www.inria.fr/centre/sophia/actualites/semanticpedia-dbpedia-un-double-evenement Tue, 6 Nov 2012 14:05:41 GMT ]]> <p>Le 19 novembre prochain sera signée une convention entre le ministère de la Culture et de la Communication, la fondation Wikimedia France et Inria autour de la plateforme SemanticPedia. Au-delà de la convention, ce sera l’occasion d’inaugurer le premier projet de cette plateforme qu’est le chapitre français de DBpédia.</p> <p><em>«&nbsp;A travers la convention, l’idée est de lier un acteur majeur de la culture en France - le ministère de la Culture et de la Communication -, avec un grand acteur de la création de contenu sur le Web - Wikimedia - et un acteur de la recherche spécialiste des technologies du Web, notamment du Web de données et du Web sémantique&nbsp;»</em>&nbsp;explique Fabien Gandon, responsable de l’équipe Wimmics et représentant d’Inria au World Wide Web Consortium (W3C) dont Inria est co-fondateur. </p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p><em>L’objectif est de couvrir tout le cycle de vie pour créer, publier et maintenir des données culturelles en français sur lesquelles construire des applications innovantes</em></p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p>La convention entre les trois partenaires, membres fondateurs, définit pour ce faire le cadre de travail de la plateforme et fixe les conditions d’exploitation des projets collaboratifs qui en sont issus. A terme, l’objectif serait que différents services d’Inria soient impliqués ainsi que davantage d’acteurs de la culture, comme les musées.</p> <a name="eztoc570902_1" id="eztoc570902_1" class="anchor"></a><h3><strong>DBpédia.fr, le premier projet collaboratif de SemanticPedia</strong></h3><p>S'inscrivant dans l'effort d'<strong>internationalisation de l’encyclopédie</strong>&nbsp;collaborative Wikipedia, DBpédia en français est le chapitre francophone de <a href="http://dbpedia.org" target="_self">DBpédia</a>, dont le but est de maintenir des données structurées extraites de différents chapitres de <a href="http://wikipedia.org" target="_self">Wikipedia</a>. <em>«&nbsp;L’encyclopédie Wikipédia, qui fonctionne sur le principe du wiki, offre un contenu librement accessible et modifiable, mais uniquement utilisable par l’individu qui seul peut véritablement lire et comprendre le contenu des pages&nbsp;</em>» souligne Fabien Gandon, pointant que de nombreuses données recelées par ces mêmes pages peuvent s’avérer utiles aux applications informatiques dès lors qu’elles leur deviennent accessibles. C’est à ce manque, ou plus exactement à cette perte de données gigantesque que permet de parer DBpédia... en répondant automatiquement à des requêtes structurées complexes sur les données de Wikipédia et en les reliant à d'autres ensembles de données sur le Web. <em>«&nbsp;Nous ouvrons ainsi ces données et collections à une multitude d’applications d’une richesse et d’une innovation réellement imprévisibles&nbsp;»</em>&nbsp;se réjouit le chercheur.</p> <a name="eztoc570902_2" id="eztoc570902_2" class="anchor"></a><h3><strong>Une longueur d’avance pour Wimmics</strong></h3><p>Commune avec l’Université de Nice Sophia Antipolis et le CNRS*, l'équipe de recherche Wimmics est un acteur majeur du développement et de la diffusion des standards du Web sémantique, et assure aussi le rôle de correspondant français de DBpédia.org. Avec le lancement de ce premier projet qui repose sur les standards du Web sémantique, l’équipe Wimmics d'Inria attend une poussée dans la mise en ligne des données sur le Web. <em>«&nbsp;Il s’agit là d’une preuve de concept grandeur nature des résultats de recherche et développement dans le domaine du Web de données et du Web sémantique&nbsp;»</em>&nbsp;affirme Fabien Gandon.</p> <p>Le cercle vertueux est ainsi créé, selon lui, car l’immense jeu de données réelles aux applications multiples pose de nouveaux problèmes de recherche&nbsp;: à la fois pour le passage à l’échelle des calculs, le maintien de la qualité, la cohérence, la fraîcheur des données, le liage à d’autres données, etc. Autant de problèmes à résoudre qui entraînent de nouveaux travaux de R&amp;D, aboutissant à de nouveaux programmes, démasquant de nouveaux verrous. <em>«&nbsp;C’est tout un écosystème que l’on essaie de mettre en place au-dessus des données culturelles publiées&nbsp;»</em>&nbsp;rappelle t-il. Or toutes ces données afférentes à notre culture, qui se trouvent libérées des documents, permettent de générer d’innombrables applications (par ex. un GPS culturel). &nbsp;</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p><em>De la gestion de documents, on passe à la gestion de données rendues accessibles à tous, et utilisables pour créer de nouveaux usages, de nouveaux services, de nouveaux marchés...</em></p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <a name="eztoc570902_3" id="eztoc570902_3" class="anchor"></a><h3><strong>Au service des consom’acteurs de la culture</strong></h3><p>De toute évidence, le déploiement de la publication de données, notamment culturelles, sur le Web, multiplie les accès pour les citoyens et consommateurs de culture, fournissant un terreau d’innovation fertile aux prochaines applications qui germeront sur le Web. Corollairement, les mêmes consommateurs, d’horizons de plus en plus variés (étudiants, chercheurs, visiteurs) deviennent acteurs des mises à jour, enrichissements et surtout créent du lien.</p> <p>* <em>à travers l’UMR I3S</em></p> Le Castor informatique, une découverte ludique de l’informatique par les élèves http://www.inria.fr/centre/saclay/actualites/le-castor-informatique-une-decouverte-ludique-de-l-informatique-par-les-eleves Mon, 5 Nov 2012 12:12:35 GMT ]]> <p>Le Castor informatique est un concours pour les élèves de collèges et lycées, à base de petits exercices et de jeux, pour leur montrer que l’informatique ne correspond souvent pas à ce qu’ils imaginent ! Sylvie Boldo, chercheuse dans l’équipe Toccata, et qui fait partie du comité d’organisation, nous explique l’originalité de cette initiative.</p> <a name="eztoc570824_1" id="eztoc570824_1" class="anchor"></a><h3>Comment fonctionne le concours Castor informatique ?</h3><p> L’une des grandes forces du concours, c’est qu’<strong>au niveau logistique c’est très léger</strong>&nbsp;: tous les élèves d’une école ne sont pas obligés d’être regroupés au même endroit, il suffit d’avoir des ordinateurs connectés à internet et 45 min devant soi. Au niveau des résultats, la correction se fait automatiquement en ligne, ce qui permet d’accueillir un grand nombre de participants jusqu’au dernier moment : <strong>il est encore possible de s’inscrire pour participer la semaine prochaine</strong>&nbsp;! Cette facilité d’organisation permet que l’initiative se mette en place un peu partout.<br /> Ce qui est intéressant dans le Castor, c’est que le professeur fait normalement <strong>participer toute sa classe</strong>, il n’y a de sélection des bons élèves contrairement à d’autres concours où il y a une pré-sélection par les enseignants ou avec des tests. Ça évite que les professeurs ne proposent que les bons en maths qui sont généralement considérés comme les bons en informatique, alors que ça peut relever de logiques très différentes. Le but est vraiment de faire participer le plus grand nombre d’élèves possible parce que l’informatique est accessible à tous. Un autre aspect qui m’interpelle, du fait de la participation d’une classe entière, c’est que du coup les filles sont présentes. L’année dernière, elles représentaient 46 % des 46 000 élèves au total en France.</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>Rendre les élèves actifs de leur découverte de l’informatique</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <a name="eztoc570824_2" id="eztoc570824_2" class="anchor"></a><h3>Le concours se déroule dans plusieurs pays, comment se passe cette coordination internationale ?</h3> <div class="object-right"> <p class="illustration" style="width:266px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/saclay/actualites-images/saclay_probleme_castor_informatique_260x195/570813-1-fre-FR/saclay_probleme_castor_informatique_260x195_xml_small.jpg" width="260" height="195" alt="" title="" /> </span> <span class="legende"> Exemple d'exercice </span> </p></div> <p> La France est bien impliquée dans le comité d’organisation puisque nous sommes 13 professeurs, chercheurs ou représentants d’associations à travailler à la préparation du concours. Cette année je n’ai pas pu <strong>concevoir les exercices</strong>, je le ferai l’année prochaine, mais j’en ai fait la <strong>sélection avec le choix des niveaux</strong>&nbsp;(6<sup>e</sup> -5<sup>e</sup> &nbsp;/ 4<sup>e</sup> -3<sup>e</sup> &nbsp;/ 2<sup>nde</sup> &nbsp;/ 1<sup>ère</sup> -Terminale). Il y a entre 15 et 20 questions par niveau, et nous veillons à ce qu’il y ait au moins un tiers d’exercices facilement accessibles, même si l’on aurait plus tendance à choisir des exercices difficiles parce qu’ils nous paraissent plus drôles, avec plus de notions abordées. Il faut aussi essayer qu’il y ait un <strong>équilibre thématique</strong>&nbsp;par exemple avec de l’algorithmique, de la programmation, des usages de l’informatique…<br /> Un travail très intéressant qui arrive en complément de la création des jeux, c’est la rédaction pour chaque question des explications <strong>« Pourquoi c’est de l’informatique »</strong>. En effet, c’est important de relier les exercices à de la science, sur laquelle les chercheurs travaillent ou que les gens utilisent. Au final, le concours regroupe des élèves de 17 pays européens, donc il faut imaginer que certains exercices vont être faits par les élèves de tous ces lieux différents !</p> <a name="eztoc570824_3" id="eztoc570824_3" class="anchor"></a><h3>Qu’est-ce qui vous plaît dans l’aventure Castor informatique ?</h3><p> Tout d’abord, à un premier niveau, ça permet à plein d’élèves de faire de l’informatique, car derrière ces jeux, il y a des vrais problèmes. <strong>Sous des aspects ludiques, on montre une science</strong>. Ça offre une <strong>rencontre entre des élèves qui n’y connaissent rien et l’informatique</strong>, ce qui leur permettra après de peut-être s’orienter vers ce domaine en connaissance de cause. Ça leur montre que c’est pour tout le monde, que ça peut être à leur portée, et du coup ça permet de casser l’image du geek asocial et incompréhensible.<br /> Ça me plaît aussi parce que c’est une <strong>œuvre collective à destination d’un public réceptif</strong>. Les élèves, plus que les adultes, sont ouverts à cette découverte, ils utilisent les ordinateurs, mais ne connaissent rien à l’informatique. Ce concours leur permet de pressentir ce qui est sous le capot et de les rendre actifs de leur découverte de l’informatique. Je suis sensible à cette notion d’être actif dans son apprentissage, car comme ils sont dans un rapport de jeu et pas passifs à écouter un cours, ça les intéresse beaucoup plus. Et leur montrer qu’ils peuvent prendre du plaisir à résoudre des problèmes, c’est une belle réussite.</p> Vers un robot humanoïde de compagnie http://www.inria.fr/centre/grenoble/actualites/vers-un-robot-humanoide-de-compagnie Mon, 5 Nov 2012 10:06:44 GMT ]]> <p>En 1998, la présentation du robot humanoïde de Honda, après 10 ans de travaux secrets, marque un tournant dans la recherche sur les robots humanoïdes. Cette preuve de faisabilité motive une recherche qui peut désormais s’appuyer sur l’évolution fulgurante des technologies et des matériaux. L’enjeu aujourd’hui est de réussir à doter ces robots de suffisamment d’intelligence pour qu’ils puissent rendre des services.</p> <p>Témoignage de <strong>Bernard Espiau</strong>, responsable du&nbsp;projet BIP (robot bipède) à Grenoble, puis directeur du centre de recherche d’Inria Grenoble - Rhône-Alpes de 2001 à 2007.</p> <p>Depuis 5 à 10 ans, le grand public s’est familiarisé avec les petits robots humanoïdes. Il accepte aujourd’hui l’idée de partager sa vie avec de tels compagnons, que ce soit pour le jeu, la formation ou l’assistance aux personnes âgées ou handicapées, voire comme traitement thérapeutique dans certaines maladies psychiatriques. </p> <p>Mais jusqu’à la fin des années 1990, on n’avait jamais vu de robots humanoïdes autonomes de taille et de poids compatible avec une forme humaine et capable d’effectuer quelques tâches de base. Il existait des prototypes, des solutions partielles, pour les jambes par exemple, mais souvent alimentés et contrôlés de l'extérieur. La présentation par Honda de son robot Asimo en 1998, après 10 ans de recherches secrètes, a démontré la faisabilité de l’entreprise et crédibilisé la recherche dans ce domaine. </p> <p>C’était important car beaucoup de détracteurs jugeaient la chose impossible du fait de tous les problèmes qui devaient être résolus dans un tel robot&nbsp;: contrôle de l’équilibre de la marche, capteurs multiples performants et peu encombrants (de vision, de sons, de position, de mouvements,…), autonomie en énergie, structure légère, capacités de traitement très importantes et de petite taille, etc.&nbsp; Honda avait réussi à intégrer toutes ces difficultés technologiques dans un robot de taille raisonnable. </p> <p>A peu près à la même période, toutes ces technologies ont évolué de façon exponentielle comme en témoignent, par exemple, les processeurs graphiques et les capteurs de vision miniatures et performants qui équipent aujourd’hui nos téléphones portables. Cela réglait beaucoup de ces problèmes d’intégration.</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>Un défi important&nbsp;: tenir debout et marcher</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p>Un autre élément important, du point de vue scientifique cette fois-ci, pour la réalisation de ces robots, est que nous avions par ailleurs bien progressé sur le contrôle de la stabilité de la station debout et de la marche dans les conditions réelles. Les difficultés principales sont par exemple de monter les escaliers, de se rattraper en cas de risque de chute imminente, etc. </p> <p>Inria a beaucoup contribué à cet aspect et au contrôle du mouvement en général. Nous avons réalisé le premier prototype européen sur la marche qui a été présenté en 2000 à l’exposition universelle de Hanovre. </p> <p>Ces travaux sur la marche ont aussi des retombées intéressantes dans d’autres disciplines, notamment dans le domaine de la santé pour concevoir des prothèses, des exosquelettes ou bien faire marcher un paraplégique par électrostimulation fonctionnelle.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc570655_0_1" id="eztoc570655_0_1" class="anchor"></a><h4>Un petit robot compagnon</h4> <div class="object-right"> <p class="illustration" style="width:139px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/autres-formats/robot-nao.jpg/570671-1-fre-FR/robot-nao.jpg_medium.jpg" width="133" height="200" alt="Robot Nao" title="Robot Nao" /> </span> <span class="legende"> <cite>© Inria / Photo H. Raguet</cite> </span> </p></div> <p>Des progrès énormes ont été réalisés pour assurer une marche stable aux robots anthropomorphes mais il y a encore aujourd’hui beaucoup de recherches à faire pour obtenir des algorithmes de commande permettant d’améliorer la robustesse et la fiabilité des mouvements. </p> <p>Un chercheur de l’équipe <a href="/domaines/mathematiques-appliquees-calcul-et-simulation/modelisation-optimisation-et-controle-de-systemes-dynamiques/bipop" target="_self">Bipop</a>, <a href="http://www.inrialpes.fr/bipop/people/wieber/" target="_self">Pierre-Brice Wieber</a>, travaille depuis quelques années en étroite collaboration avec la société française Aldebaran dans le but d’améliorer la marche des petits robots Nao. Ces robots programmables de 58 cm de hauteur et d’apparence attrayante sont destinés, à terme, au grand public pour des activités ludiques ou de services. </p> <p>Aujourd’hui ils sont utilisés comme plateforme de recherche par plus de 450 laboratoires, notamment pour développer des compétences sur le comportement social indispensable à leur interaction avec les humains.</p> </div> </div> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc570655_0_2" id="eztoc570655_0_2" class="anchor"></a><h4><strong>Et dans 20 ans&nbsp;?</strong></h4><p><strong>Bernard Espiau, </strong>directeur scientifique adjoint de 2006 à 2011.</p> <div class="object-left"> <p class="illustration" style="width:86px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/autres-formats/bernard-espiau-portrait.jpg/570675-1-fre-FR/bernard-espiau-portrait.jpg_medium.jpg" width="80" height="120" alt="Bernard Espiau" title="Bernard Espiau" /> </span> <span class="legende"> <cite>© Inria / Photo R. Lamoureux</cite> </span> </p></div> <p>«&nbsp;Il est indispensable maintenant que les robots acquièrent de plus grandes capacités à comprendre le monde et à interagir avec lui. Ils sont actuellement moins efficaces qu’un enfant de trois ans, ce qui est tout à fait rédhibitoire pour en faire un compagnon utile. Mon espoir est que l’on progresse dans ce domaine très difficile de l’intelligence robotique. Il existe aujourd’hui deux écoles qui ne donnent satisfaction ni l’une ni l’autre. Une approche consiste à modéliser le monde extérieur, mais tout ne peut pas être modélisé&nbsp;! L’autre procède par apprentissage mais ce qui est appris est beaucoup trop sommaire et demande trop de temps. Il me semble que la progression en autonomie des humanoïdes proviendra de la combinaison de ces deux approches.&nbsp;»</p> </div> </div> Denis Efimov : "Analyse, estimation et contrôle des phénomènes oscillatoires non linéaires" http://www.inria.fr/centre/lille/actualites/hdr-denis-efimov Tue, 30 Oct 2012 14:03:41 GMT ]]> <p>Denis Efimov, membre de l'équipe Non-A soutiendra son Habilitation à Diriger des Recherches le mercredi 28 novembre à 10h00 dans la salle du conseil d'Inria Lille (bâtiment A).</p> De la bioinformatique à la cellule numérique http://www.inria.fr/centre/grenoble/actualites/de-la-bioinformatique-a-la-cellule-numerique Mon, 29 Oct 2012 17:01:51 GMT ]]> <p>Les cellules vivantes sont le siège de nombreuses réactions biochimiques très complexes, interagissent entre elles et avec leur environnement. La modélisation numérique des cellules aide à mieux comprendre leur fonctionnement pour, éventuellement, mieux les contrôler dans des applications de l’industrie pharmaceutique, de la recherche biomédicale ou des biotechnologies.</p> <p>Témoignage d’<strong>Alain Viari</strong>, directeur de recherche, équipe-projet <a href="/domaines/stic-pour-les-sciences-de-la-vie-et-de-l-environnement/biologie-numerique-et-bioinformatique/bamboo" target="_blank">Bamboo</a></p> <a name="eztoc570011_1" id="eztoc570011_1" class="anchor"></a><h3>De la modélisation des interactions entre gènes à la modélisation du développement des cellules&nbsp;</h3><p>Historiquement, la modélisation en biologie a démarré par la bioinformatique, avec la modélisation des séquences d’ADN des bactéries et, en particulier, en cataloguant leurs gènes. C'était la période de l’algorithmique des textes génomiques.</p> <p> La seconde étape historique a consisté à décrire les relations entre les produits de ces gènes, les protéines. C'était la période de l'algorithmique sur les réseaux de relations géniques, représentées par des graphes.<br /> Les premières études portaient sur des systèmes simples constitués de quelques gènes. Avec l’amélioration des performances informatiques et des algorithmes, il est désormais envisageable d'analyser des systèmes comportant des centaines voire des milliers de gènes. Ce changement d’échelle n'est pas sans difficulté en ce qui concerne les modèles mathématiques et numériques.</p> <p>Ces premiers réseaux d’interactions géniques étaient statiques, au sens où ils décrivaient les relations sans prendre en compte leurs modifications au cours du temps. L'étape suivante fut l'étude des réseaux dynamiques qui décrivent, simulent et prédisent cette évolution temporelle. Par exemple, comment l’expression des gènes dans une bactérie est-elle contrôlée lorsque la bactérie passe d’un état où elle dispose de nourriture à un état de carence ? De telles simulations permettent de mieux comprendre comment modifier les réseaux de régulation d’une bactérie pour la contraindre par exemple à produire les molécules d'intérêt économique, comme des biocarburants.</p> <div class="object-right"> <p class="illustration" style="width:206px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/recherche-images/autres/modelisation-hematopoiese/353545-1-fre-FR/modelisation-hematopoiese_medium.jpg" width="200" height="166" alt="Modelisation de l'hématopoïèse par l'équipe Dracula" title="Modelisation de l'hématopoïèse par l'équipe Dracula" /> </span> <span class="legende"> Modélisation de la production des globules rouges - <cite>© EPI Dracula</cite> </span> </p></div> <p>Ce type de méthodes numériques permet aussi de modéliser d’autres types de cellules, telles que les cellules cancéreuses ou sanguines, pour mieux comprendre comment elles sont produites et prolifèrent dans le corps. Ces études permettent de construire des <a href="/centre/grenoble/actualites/un-modele-pour-les-tumeurs-a-croissance-lente" target="_blank">modèles mathématiques de croissance tumorale</a>, visant à aider les cliniciens dans la définition et l'adaptation de traitements anticancéreux.</p> <p>L’échelle de temps est cependant difficile à intégrer : les phénomènes cellulaires ne se déroulent pas tous à la même vitesse – certains (comme les réactions biochimiques) sont de courte durée tandis que d’autres (comme la régulation des gènes) sont plus longs. Les modèles mathématiques sont différents dans chaque cas et il faut les fusionner pour mieux comprendre l’ensemble du système.</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>Plus récemment, la notion d’interaction entre cellules devient prépondérante.</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p>Par exemple, pour les bactéries, il est indispensable de comprendre ce qui se passe à l'échelle d'une population de bactéries et, surtout, comment elles interagissent avec l’homme ou avec d'autres espèces « hôtes ». Il faut intégrer la génétique de la bactérie, son métabolisme et celui de l’hôte dans ces nouveaux modèles. Un cas particulièrement important dans le domaine de la santé concerne la modélisation de la réponse immunitaire de l'hôte, en réaction à une infection bactérienne.</p> <p>De tels travaux impliquent les domaines de l’immunologie, de l'infectiologie, des mathématiques et de l'informatique (on parle &quot;d'immunologie computationnelle&quot;). Ces travaux visent autant l'avancée des connaissances académiques que leur transfert vers le milieu médical et industriel afin de détecter, diagnostiquer et, peut-être à terme, mieux traiter les infections pathogènes ou les dérèglements du système immunitaire.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc570011_1_0_1" id="eztoc570011_1_0_1" class="anchor"></a><h5>ET DANS 20 ANS ?</h5><p><strong>Alain Viari, </strong>Directeur Scientifique Adjoint, Sciences de la vie, de la santé et de l'environnement</p> <div class="object-left"> <p class="illustration" style="width:76px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble2/presentation-images/autres-formats/alain-viari-portrait/38960-1-fre-FR/alain-viari-portrait_medium.jpg" width="70" height="106" alt="Alain VIARI" title="Alain VIARI" /> </span> </p></div> <p>&quot;A une échelle encore plus large et plus complexe, il va falloir aborder&nbsp; le niveau &quot;écologique&quot; c'est à dire, celui des communautés d'organismes vivants. Cette évolution est logique car les organismes ne vivent pas de manière isolée, mais, au contraire en collectivités, en permanentes interactions. Par exemple, nous abritons usuellement des bactéries, qui ne sont, en état normal, pas pathogènes, mais qui peuvent le devenir si les circonstances extérieures ou les équilibres écologiques internes changent. Étudier globalement ces &quot;méta-organismes&quot; va devenir un enjeu majeur.&quot;</p> </div> </div> Analyse de génomes: des avancées pour la biologie et le monde médical http://www.inria.fr/centre/grenoble/actualites/analyse-de-genomes-des-avancees-pour-la-biologie-et-le-monde-medical Sun, 28 Oct 2012 15:56:59 GMT ]]> <p>Les premières séquences génomiques et les premières méthodes d’analyse de gènes sont apparues dans les années 70. Mais les progrès spectaculaires des techniques de séquençage des 20 dernières années, associés aux performances croissantes des technologies informatiques, ont ouvert un immense champ d’exploration de ces données aux bioinformaticiens. Un défi toujours d’actualité pour l’avancée des connaissances en biologie et en médecine.</p> <p>Témoignage de <strong>François Rechenmann</strong>, directeur de recherche, équipe-projet <a href="/domaines/stic-pour-les-sciences-de-la-vie-et-de-l-environnement/biologie-numerique-et-bioinformatique/ibis" target="_blank">Ibis</a></p> <p>Dans les vingt ans qui ont suivi le lancement du projet « Génome Humain » en 1990, les technologies de séquençage des génomes ont progressé de six ordres de grandeur. Ainsi, là où plus de 40 laboratoires se sont mobilisés pendant plusieurs années pour obtenir en 1997 le génome complet de la bactérie B. subtilis, un résultat similaire peut aujourd’hui être obtenu en quelques jours à un coût inférieur à 1000 €.</p> <a name="eztoc569614_1" id="eztoc569614_1" class="anchor"></a><h3>Localiser les gènes, déterminer la fonction d’une protéine et interpréter les grandes quantités d’informations générées</h3><p>Connaître la séquence de génomes n’est qu’une première étape, l’interpréter en est une autre. C’est là qu’intervient la bioinformatique.</p> <p>Il s’agissait tout d’abord de prédire la localisation des gènes, c’est-à-dire les régions sur la séquence génomique qui portent l’information utilisée par la cellule pour synthétiser une ou plusieurs protéines. Le problème a trouvé de bonnes solutions algorithmiques pour les organismes bactériens, mais reste très imparfaitement résolu pour les génomes eucaryotes, tels que ceux des mammifères, dont les gènes, perdus dans la séquence génomique, sont de plus morcelés en sous-régions codantes et non-codantes.</p> <p>La prédiction des fonctions d’une protéine, dont la séquence en acides aminés a été déterminée à partir de la localisation et la structure d’un gène, ne possède pas de solution algorithmique. C’est essentiellement par comparaison directe ou indirecte avec des protéines dont la fonction est connue que les fonctions d’une protéine peuvent être inférées. Cette comparaison, du fait de la taille des séquences et des bases de référence utilisées, met en œuvre des heuristiques qui restent très gourmandes en puissance de calcul et sollicitent les infrastructures distribuées.</p> <p>Disposer de bases de données de référence est devenu un enjeu pour l’interprétation des séquences génomiques. Au sein de mon équipe de recherche Helix, en collaboration avec l’Université Joseph Fourier à Grenoble et l’Institut Suisse de Bioinformatique à Genève, nous avons conçu la base de données MicroB qui intègre les connaissances génomiques, protéiques et métaboliques sur plusieurs centaines d’organismes microbiens.</p> <p>Ces différents outils d’analyse, de gestion, mais aussi de visualisation, doivent être aisément accessibles et utilisables par les biologistes dont l’objectif est une meilleure compréhension des organismes dont le génome est séquencé. Le consortium Genostar, qui a associé de 1999 à fin 2003, Inria, Institut Pasteur et les deux sociétés de biotechnologies Genome Express et Hybrigenics, a ainsi développé un environnement intégré d’analyse et de gestion des génomes microbiens, qui est maintenant valorisé, étendu et distribué par la société Genostar.</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>Connaître et analyser les génomes ont des applications très diverses</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p>Connaître le génome de l’homme permet de mieux connaître l’organisme humain et ses pathologies ; connaître les génomes des bactéries et des virus est tout aussi fondamental. Outre la contribution à la conception de vaccins, d’antibiotiques ou d’antiviraux, la connaissance des micro-organismes a des retombées importantes dans le domaine des biotechnologies. Il s’agit là d’utiliser des bactéries, des levures ou encore des microalgues, adéquatement sélectionnées ou modifiées, pour leur faire produire des molécules d’intérêt, par exemple des précurseurs de biocarburants.</p> <a name="eztoc569614_2" id="eztoc569614_2" class="anchor"></a><h3>Les progrès du séquençage et des méthodes d’analyse sont en train de modifier profondément le monde médical</h3><p>Ainsi, on sait que tous les cancers trouvent leur origine dans des modifications du génome. Plusieurs projets, typiquement menés au sein de l’ICGG (International Cancer Genome Consortium), visent donc à séquencer, pour un même patient, les génomes de cellules cancéreuses et de cellules normales, et ce pour différents types de cancers. En comparant les deux génomes, et en utilisant également un génome de référence où les gènes ont été localisés et caractérisés, l’identification des différences et leur association à la pathologie devraient permettre de construire des « cartes d’identité » des tumeurs, ouvrant la voie à des diagnostics fins et des thérapies ciblées. À Lyon, la Fondation Synergie Lyon Cancer mène notamment un projet très ambitieux de cette nature.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc569614_2_1" id="eztoc569614_2_1" class="anchor"></a><h4>ET DANS 20 ANS ?</h4><p><strong>François Rechenmann</strong>, fondateur en 1999 de l’équipe-projet Inria Helix pour développer des outils informatiques d’analyse de séquences génomiques puis, en 2004, de la société Genostar pour en promouvoir l’usage au sein des laboratoires tant académiques qu’industriels.</p> <div class="object-left"> <p class="illustration" style="width:86px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/autres-formats/francois-rechenmann_portrait.jpg/569977-1-fre-FR/francois-rechenmann_portrait.jpg_medium.jpg" width="80" height="120" alt="François Rechenmann" title="François Rechenmann" /> </span> <span class="legende"> <cite>© INRIA / Jim Wallace</cite> </span> </p></div> <p>&quot;Il faut s’attendre à ce que séquenceurs et logiciels bioinformatiques se multiplient en milieu clinique puis, à terme, dans de nombreux laboratoires d’analyses médicales. Il serait alors possible, par exemple, de suivre l’évolution de la résistance de l’agent pathogène chez des patients en cours de thérapies antivirales ou antibactériennes. Pour cela, les bioinformaticiens devront proposer des logiciels, simples d’usage, mais extrêmement fiables et pertinents, susceptibles d’être certifiés.</p> <p>Du côté des biotechnologies, la modification de souches par ajout de gènes et de leurs signaux de régulation nécessite que soient développés de véritables systèmes de conception assistée par ordinateur pour aider le microbiologiste à choisir et assembler des composants sous la forme de séquences. La suite du processus, à savoir la réalisation des vecteurs et leur évaluation, sera toujours plus automatisée, permettant de tester et de cribler rapidement de très nombreuses constructions.&quot;</p> </div> </div> Julien Jacques : "Contribution à l’apprentissage statistique à base de modèles génératifs pour données complexes" http://www.inria.fr/centre/lille/actualites/hdr-julien-jacques Fri, 26 Oct 2012 14:44:26 GMT ]]> <p>Julien Jacques, membre de l'équipe Modal soutiendra son Habilitation à Diriger des Recherches le mercredi 28 novembre, à 14h, bâtiment M2 à Villeneuve d'Ascq.</p> Inauguration du second bâtiment du centre Inria Lille - Nord Europe http://www.inria.fr/centre/lille/actualites/inauguration-second-batiment Fri, 26 Oct 2012 13:23:47 GMT ]]> <p>Le 23 octobre 2012 s'est déroulée l'inauguration du second bâtiment du centre Inria Lille - Nord Europe, en présence de Michel Cosnard, Président Directeur Général d'Inria et David Simplot-Ryl, directeur du centre de recherche. Pour l'occasion, le bâtiment avait été habillé d'une exposition consacrée aux données chiffrées du centre.</p> <p>Retour en image sur les moments forts de cette journée.</p> Trouver la géométrie dans une meule de points http://www.inria.fr/centre/saclay/actualites/trouver-la-geometrie-dans-une-meule-de-points Fri, 26 Oct 2012 12:35:01 GMT ]]> <p>Frédéric Chazal, directeur de recherche dans l'équipe Geometrica, explique les grands principes du domaine de recherche de son équipe en calcul géométrique en se basant sur des exemples concrets d'images.</p> <p>Grâce aux progrès récents de l’informatique, la représentation et la manipulation virtuelle d’objets physiques réels 3D sont devenues ces dernières années une nécessité et une pratique courante dans de nombreux domaines de l’industrie, de la science et même de la vie de tous les jours. Les exemples sont nombreux : un archéologue découvrant une statue peut la scanner et en envoyer en quelques instants un modèle numérique à un expert situé à des milliers de kilomètres afin d’avoir un avis ; un géographe ayant relevé les coordonnées de nombreux points sur un massif montagneux peut en extraire une carte 3D ; une entreprise disposant d’un prototype de pièce mécanique (comme celle de la figure ci-dessous) peut la scanner pour en obtenir un modèle numérique sur lequel elle pourra simuler différents type d’opérations (tests de déformation sous différentes contraintes, tests d’aérodynamisme…) et qu’elle pourra aussi envoyer à une usine qui reproduira la pièce à l’autre bout du monde…</p> <div class="object-center"> <p class="illustration" style="width:606px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/saclay/actualites-images/saclay_geometrica1/569098-1-fre-FR/saclay_geometrica1_reference.jpg" width="600" height="242" alt="" title="" /> </span> <span class="legende"> <cite>© AIM@SHAPE Shape Repository</cite> </span> </p></div> <p>Dans chacun de ces cas, l’obtention du modèle numérique 3D nécessite de &quot;reconstruire&quot; une représentation continue de l’objet utilisable par l’ordinateur à partir des coordonnées d’un ensemble fini de points mesurés à sa surface. Il s’agit d’un problème délicat, connu sous le nom de &quot;reconstruction de surface&quot;, qui a été largement étudié depuis une vingtaine d’années et pour lequel des solutions algorithmiques variées ont été proposées. Le rôle du mathématicien est de proposer des méthodes et des algorithmes permettant d’obtenir une surface ayant les mêmes caractéristiques géométriques et qui soit le plus proche possible de l’objet physique mesuré. Ce n’est que récemment que des résultats mathématiques généraux assurant la validité de nombreux algorithmes ont été établis. Étonnamment, ils reposent sur des idées très simples que nous allons esquisser dans cet article.</p> <a name="eztoc569125_1" id="eztoc569125_1" class="anchor"></a><h3>Reconstruire en remplaçant les points par des boules</h3><p>Une idée très simple pour retrouver la géométrie de l’objet considéré à partir d’un ensemble de points mesurés à sa surface consiste à remplacer chaque point par une boule de rayon fixé centrée en ce point et à considérer la réunion de ces boules comme illustré sur la figure ci-dessous. On considère un objet en forme de bouée (ou de donut pour les gourmands) comme celui de la figure ci-dessous, appelé tore en termes mathématiques. Grâce à un scanner ou à un autre instrument de mesure on échantillonne cet objet en relevant les coordonnées d’un ensemble de points à sa surface (image de gauche). On fixe alors un nombre r , et on considère la réunion des boules de rayon r centrées en chacun des points de l’échantillonnage. Évidemment, si le rayon des boules (c’est-à-dire le nombre r) est choisi trop petit, leur réunion est pleine de trous et ne reflète pas la géométrie du tore (image du milieu). En revanche, pour un choix judicieux du rayon, nous obtenons une forme dont la surface, appelée bord en mathématiques, est semblable à celle du tore (image de droite) : elle est proche de l’objet initial et a la propriété de pouvoir être déformée continument en l’objet initial sans se recouper ou se déchirer. On dit alors que notre surface reconstruite est isotope à notre objet initial.</p> <div class="object-center"> <p class="illustration" style="width:606px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/saclay/actualites-images/saclay_geometrica2/569102-1-fre-FR/saclay_geometrica2_reference.jpg" width="600" height="470" alt="" title="" /> </span> <span class="legende"> À partir d’un ensemble de points mesurés à la surface du tore couleur cuivre ci-dessus (image de gauche) on peut retrouver une surface proche en remplaçant chaque point par une boule de rayon convenable (image de droite). </span> </p></div> <p>Bien sûr, même si elle se confirme sur bon nombre de cas pratiques, la constatation précédente n’a pas valeur de résultat général et il est facile d’imaginer des situations où notre idée ne permet pas de reconstruire correctement la surface de l’objet échantillonné. Par exemple, si le nombre de points mesurés est insuffisant, oubliant de larges zones de l’objet, ou si certaines mesures sont erronées et représentent des points éloignés de l’objet (comme c’est le cas sur la figure ci-dessous), aucun choix de rayon des boules ne permettra de retrouver la géométrie de l’objet. Cependant, les mathématiques permettent d’identifier le domaine de validité de notre méthode et de transformer l’idée simple de départ en un résultat de reconstruction rigoureux. On dit que l’objet et l’échantillon sont proches au sens de Hausdorff lorsque tous les points de l’objet sont proches d’un point mesuré (aucune zone de l’objet n’a été oubliée) et lorsque tous les points mesurés sont proches de l’objet (il n’y a pas de mesure erronée). En utilisant quelques outils classiques (mais non élémentaires) de géométrie et d’analyse, il a été démontré que si l’échantillon des points mesurés et l’objet sont suffisamment proches au sens de Hausdorff alors il existe un choix de rayon pour lequel la surface obtenue en remplaçant chaque point de l’échantillon par une boule de ce rayon est isotope à la surface de l’objet initial.</p> <a name="eztoc569125_2" id="eztoc569125_2" class="anchor"></a><h3>Quand le bruit s’en mêle…</h3><p> Il n’est pas rare en pratique que l’ensemble des points mesurés contienne des valeurs erronées créant des points aberrants loin de l’objet étudié. Les boules centrées sur ces points créent alors des composantes &quot;parasites&quot; conduisant à un résultat désastreux (voir la figure ci-dessous). Dans ce cas, l’échantillon n’est plus proche de l’objet au sens de Hausdorff et le résultat de reconstruction énoncé précédemment n’est plus valable.<br /> </p> <div class=""> <p class="illustration" style="width:606px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/saclay/actualites-images/saclay_geometrica3/569106-1-fre-FR/saclay_geometrica3_reference.jpg" width="600" height="224" alt="" title="" /> </span> <span class="legende"> Lorsque l’ensemble échantillonné à la surface du tore contient des points aberrants (image de gauche), remplacer les points par des boules a un effet catastrophique : les points aberrants créent des composantes parasites qui ne permettent plus de retrouver la géométrie de l’objet de départ (image du milieu). L’image de droite représente une surface de niveau de la fonction &quot;moyenne des distances aux 5 plus proches voisins&quot; : elle est un peu &quot;cabossée&quot; mais on retrouve la géométrie du tore échantillonné ! </span> </p></div> <p>Pour surmonter cette difficulté, il nous faut revenir sur l’approche précédente avec un regard un peu plus mathématique qui va nous indiquer la piste à suivre. La réunion de l’ensemble des boules d’un rayon R centrées sur l’échantillon est exactement l’ensemble des points de l’espace situés à distance inférieure à R d’un point de l’échantillon. De plus, la surface bordant cette union est l’ensemble des points qui se situent exactement à distance R de l’ensemble des points de l’échantillon. En d’autres termes, la surface que nous reconstruisons est une surface de niveau de la fonction qui à chaque point de l’espace associe sa distance au point qui lui est le plus proche dans l’échantillon. On parle alors de fonction distance à l’échantillon. C’est l’étude des propriétés mathématiques de ces fonctions distance qui permet de prouver le résultat de reconstruction énoncé précédemment. Pour obtenir une méthode de reconstruction valide en présence de points aberrants, l’idée consiste à remplacer la fonction distance à l’échantillon par une nouvelle fonction dont certaines surfaces de niveau fourniront une reconstruction correcte de l’objet. Pour cela, plutôt que d’associer à chaque point de l’espace la distance à son plus proche voisin dans l’échantillon, on lui associe la moyenne des distances à ses k plus proches voisins où k est un nombre entier choisi plus petit que le nombre de points de l’échantillon. Le procédé de reconstruction consiste alors à choisir une des surfaces de niveau de cette nouvelle fonction &quot;moyenne des distances au k plus proches voisins dans l’échantillon&quot;. Nous l’illustrons pour un ensemble de points du plan sur la figure suivante.</p> <div class="object-center"> <p class="illustration" style="width:606px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/saclay/actualites-images/saclay_geometrica4/569110-1-fre-FR/saclay_geometrica4_reference.jpg" width="600" height="462" alt="" title="" /> </span> <span class="legende"> L’image en haut à droite représente un ensemble de 200 points du plan dont 150 ont été échantillonnés près d’un cercle de rayon 1 et les 50 autres sont des points &quot;aberrants&quot; choisis au hasard. Sur l’image en haut à droite, nous avons représenté la réunion des disques de rayon 1 centrés sur l’ensemble de points. Les points aberrants empêchent de retrouver la géométrie du cercle. Les deux images du bas représentent une courbe de niveau de la fonction &quot;moyenne des distances aux k plus proches voisins&quot; pour des valeurs de k=3 (à gauche) et k=5 (à droite). La zone en jaune représente l’ensemble des points où cette fonction est inférieure à 0,1. La courbe de niveau est donc celle délimitant la zone jaune de la zone rouge. On remarque que pour k=3 il reste encore 3 petites composantes parasites qui disparaissent pour k=5 permettant ainsi de retrouver une courbe de niveau ayant une géométrie proche de celle du cercle échantillonné. </span> </p></div> <p>On peut alors démontrer un résultat mathématique semblable à celui du paragraphe précédent valable pour des échantillons proches de l’objet en un sens beaucoup moins restrictif que celui de Hausdorff : si la proportion de points proches de l’objet au sens de Hausdorff est largement supérieure à la proportion de points aberrants (on parle dans ce cas de proximité au sens de Wasserstein) alors il existe une surface de niveau de la fonction « moyenne des distances » qui est isotope à la surface de l’objet échantillonné.</p> <a name="eztoc569125_3" id="eztoc569125_3" class="anchor"></a><h3>Inférence géométrique et analyse des données</h3><p>Une particularité intéressante de l’approche précédente est sa remarquable généralité. Elle permet d’étudier la structure géométrique d’ensembles finis de points sans se restreindre au cas de mesures effectuées à la surface d’objets physiques. Les progrès récents des moyens d’acquisition de données dans tous les domaines de la science, de l’économie ou même de la vie de tous les jours permettent d’obtenir d’immenses masses de données dont il faut comprendre la structure et l’organisation pour en tirer des informations pertinentes. Souvent, chaque observation est le résultat de mesures quantitatives (par exemple les coordonnées d’une position, une température, une intensité,…) qui peuvent être interprétées comme les coordonnées d’un point dans un espace de dimension 2, 3 ou plus, le nombre de dimensions étant égal au nombre de mesures pour chaque observation. On obtient ainsi des ensembles de points qui se concentrent autour de structures géométriques parfois complexes, comme par exemple dans le cas de la figure ci-dessous. Inférer et comprendre ces structures est un enjeu important de l’analyse des données qui génère depuis quelques années une importante activité de recherche mathématique. L’approche et les résultats que nous avons évoqués dans les paragraphes précédents pour la reconstruction de surfaces se généralisent à ce contexte d’analyse des données et apportent de nouveaux outils et méthodes mathématiques et algorithmiques pour l’inférence géométrique.</p> <div class="object-center"> <p class="illustration" style="width:606px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/saclay/actualites-images/saclay_geometrica5/569114-1-fre-FR/saclay_geometrica5_reference.jpg" width="600" height="236" alt="" title="" /> </span> <span class="legende"> Un exemple de données représentées par un ensemble de points portant une structure géométrique. L’image de gauche de la figure ci-dessus représente un ensemble de données où chaque élément est un point dont les coordonnées représentent la position d’une galaxie observée dans une portion de l’univers (on travaille ici à une échelle tellement grande qu’une galaxie peut être assimilée à un point !). Il est connu des astrophysiciens que les galaxies ne sont pas distribuées uniformément dans l’univers mais ont tendance à se concentrer autour de structures géométriques filamentaires. L’image de droite qui met en évidence ces structures filamentaires a été obtenue grâce à une adaptation des méthodes de reconstruction présentées dans cet article. </span> </p></div> <p><em>Une première version de ce document est parue sur le site <a href="http://images.math.cnrs.fr/Trouver-la-geometrie-dans-une.html" target="_blank">Image des mathématiques</a>&nbsp;du CNRS, en octobre 2012.</em></p> L’apprentissage statistique de plus en plus performant http://www.inria.fr/centre/grenoble/actualites/l-apprentissage-statistique-de-plus-en-plus-performant Wed, 24 Oct 2012 20:19:57 GMT ]]> <p>Les algorithmes d’apprentissage statistique sont aujourd’hui capables de fournir des outils très performants pour réaliser des tâches de reconnaissance sur de très grands ensembles de données complexes. De nombreux commerces ou services web, par exemple, utilisent aujourd’hui ces technologies pour ajuster leur offre de produits aux goûts de l’internaute ou fournir des traductions automatiques tout à fait honorables.</p> <p>Témoignages de <strong>Florence Forbes,</strong>&nbsp;équipe-projet <a href="/domaines/mathematiques-appliquees-calcul-et-simulation/optimisation-apprentissage-et-methodes-statistiques/mistis" target="_blank">Mistis </a>et de <strong>Zaid Harchaoui</strong>, équipe-projet <a href="/domaines/perception-cognition-interaction/vision-perception-et-interpretation-multimedia/lear" target="_blank">Lear</a></p> <p> Jusqu’aux années 1990, l’apprentissage automatique, utilisé notamment pour reconnaître des caractères ou des images, s’appuyait sur un modèle dit «&nbsp;génératif&nbsp;» de ce qu’il fallait reconnaître. Ce fut un réel changement de vision que de s’affranchir de ce type de modélisation, souvent difficile à définir mathématiquement, et de lui préférer des méthodes statistiques s’attachant plutôt à optimiser un critère de performance. Ces dernières permettent, à partir d’exemples, d’identifier des éléments communs qu’il s’agira, ensuite, de reconnaître sur de nouveaux objets. <br /> L’approche s’est révélée très performante pour résoudre des tâches sur des données ou des phénomènes complexes, présentant une grande variabilité et susceptibles d’évoluer au cours du temps. Elle s’est particulièrement développée dans les années 1990, par exemple autour du problème de la reconnaissance automatique des codes postaux manuscrits grâce aux bases de données fournies par les services postaux américains. Par la suite, de nouvelles compétitions, académiques (comme les «&nbsp;Pascal challenges&nbsp;») ou lancées par des entreprises pour résoudre un problème particulier, ont contribué à stimuler la recherche dans ce domaine.</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>De l’identification de spam au e-commerce, en passant par la bio-informatique</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <div class="object-right"> <p class="illustration" style="width:206px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/corps/logiciel-popeye.jpg/568695-1-fre-FR/logiciel-popeye.jpg_medium.jpg" width="200" height="146" alt="Inria Mistis Perception" title="Inria Mistis Perception" /> </span> <span class="legende"> &quot;Détection et localisation, sur des images vidéo, d'objets mobiles émettant des sons par apprentissage non supervisé. Ici il s'agit de personnes ; celle qui parle est marquée d'un point blanc&quot; - <cite>© Inria / Mistis - Perception</cite> </span> </p></div> <p>La recherche dans ce domaine a longtemps été limitée par la très faible puissance des ordinateurs car les algorithmes d’apprentissage doivent s’entraîner sur un grand nombre d’exemples pour être performants.&nbsp;</p> <p>Avec le développement fulgurant de l’électronique, les applications ont explosé, autant pour les services grands publics que pour les usages scientifiques. Les algorithmes d’apprentissage sont couramment employés aujourd’hui dans le domaine de la reconnaissance d’images ou de vidéo, tout comme en bio-informatique qui utilise cette approche pour estimer, à partir de bases de données des molécules connues, la fonction chimique probable d’une nouvelle molécule. </p> <p>Cette approche a également été utilisée avec succès pour détecter les <em>spams</em>&nbsp;d’après le contenu des messages, et le web, avec ses immenses quantités de données complexes et non organisées, est un domaine d’application de choix. Les techniques statistiques permettent par exemple à des services d’e-commerce de proposer des produits selon les goûts de l’internaute, inférés par ses choix antérieurs et ceux des autres clients. Certains services en ligne, comme Deezer, permettent même d’assister en direct au processus d’apprentissage&nbsp;: ce service radio propose des airs similaires à la chanson choisie au départ et affine progressivement ses propositions en fonction du jugement de l’utilisateur.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc568435_0_1" id="eztoc568435_0_1" class="anchor"></a><h4>Et dans 20 ans&nbsp;?</h4><p><strong>Zaid Harchaoui</strong>, chercheur de l'équipe projet <a href="/domaines/perception-cognition-interaction/vision-perception-et-interpretation-multimedia/lear" target="_self">Lear</a></p> <p>« J’espère que l’on arrivera un jour à développer des algorithmes capables de détecter l’information pertinente dans des jeux d’exemples extrêmement variables et avec un fort bruit de fond. Cela permettrait, par exemple, de concevoir des moyens efficaces pour interpréter l’activité électrique cérébrale et offrir ainsi à des personnes handicapées, par exemple ayant perdu l’usage de la parole, un moyen de recouvrer leur autonomie.»</p> <p><strong>Florence Forbes</strong>, responsable scientifique équipe projet <a href="/domaines/mathematiques-appliquees-calcul-et-simulation/optimisation-apprentissage-et-methodes-statistiques/mistis" target="_blank">Mistis</a></p> <p>«&nbsp;Jusqu’à présent, les chercheurs ont développé de l’apprentissage supervisé, c’est-à-dire que les exemples fournis à l’algorithme d’apprentissage sont accompagnés d’une description textuelle très précise de ce qu’ils représentent (annotations). Le défi des prochaines années est d’arriver à faire travailler un algorithme sur un flux de données non annotées ou partiellement annotées. C’est un domaine nouveau pour lequel les aspects théoriques sont très peu développés et qui est souvent décrit comme une limite indépassable. Nous commençons à explorer les marges de cette question en soumettant des exemples dont les annotations peuvent être manquantes ou comporter des erreurs, et avec parfois l’objectif moins ambitieux&nbsp;de regrouper les données selon leur similarité plutôt que de les identifier.&nbsp;»</p> </div> </div> Franc succès pour la Fête de la science 2012 http://www.inria.fr/actualite/actualites-inria/fete-de-la-science-20122 Wed, 24 Oct 2012 17:12:22 GMT ]]> <p>De Lille à Bordeaux, de Nancy à Rennes, et partout en région, dans les centres de recherche Inria, le public s’est rendu nombreux aux manifestations organisées à l'occasion de la Fête de la science. Entre démonstrations et conférences, petits et grands en ont pris plein les yeux !&nbsp; </p> Le logiciel libre, une opportunité pour les mondes académiques et économiques http://www.inria.fr/actualite/actualites-inria/le-logiciel-libre-une-opportunite-pour-les-mondes-academiques-et-economiques Wed, 24 Oct 2012 14:46:25 GMT ]]> <p>Le logiciel libre se porte bien, et même très bien ! Avec une croissance annuelle de 30 % et un CA d’environ 2,5 milliards d’euros, il devrait créer près de 10 000 emplois dans les 3 ans. Pas étonnant qu’il reçoive un soutien marqué du nouveau gouvernement, avec la récente circulaire Ayrault qui le recommande à ses administrations. Quant aux PME et grandes entreprises françaises, elles peuvent aussi en tirer parti comme l’explique Jean-Luc Beylat*.</p> <p><em>*<a href="http://openworldforum2012.sched.org/speaker/jeanlucbeylat" target="_blank">Jean-Luc Beylat</a>&nbsp;est membre du&nbsp;<a href="http://www.inria.fr/institut/organisation/instances/conseil-d-administration" target="_blank">conseil d’administration</a>&nbsp;d’Inria, Président d’Alcatel-Lucent Bell Labs France, Président du pôle de compétitivité&nbsp;<a href="http://www.systematic-paris-region.org/fr/le-pole" target="_blank">Systematic</a>&nbsp;Paris-Région (organisateur de l’Open World Forum 2012).</em></p> <p>« Il y a une puissante dynamique autour du&nbsp;<strong>logiciel libre</strong>&nbsp;dans les PME et les grandes entreprises, comme on l’a constaté à l’<a href="http://www.openworldforum.org/" target="_blank">Open World Forum 2012</a>&nbsp;», souligne Jean-Luc Beylat, « et je constate le même engouement dans la communauté du pôle de compétitivité Systematic ». Ce cluster regroupe 380 PME, 25 Entreprises de Taille Intermédiaire, 116 établissements de grandes entreprises ainsi que plus d’une centaine de structures de recherche académique : « le groupe thématique du logiciel libre compte plus d’une centaine de membres. Il réunit des grands groupes, des PME et des acteurs académiques... Ensemble, ils ont développé plus d’une trentaine de&nbsp;<strong>projets collaboratifs</strong>&nbsp;de recherche et de développement. En 5 ans, l’investissement privé-public a avoisiné les 150 millions d’euros ».</p> <p>Depuis son apparition dans les années 80, le&nbsp;<a href="http://fr.wikipedia.org/wiki/Logiciel_libre" target="_blank">logiciel libre</a>&nbsp;ou&nbsp;<strong>Open source*</strong>* a connu un succès grandissant : « pour prendre l’exemple d’Alcatel-Lucent, plus de 50% des lignes de code sont issues du libre », explique Jean-Luc Beylat. Pour lui, le libre a connu trois étapes dans les grandes entreprises : « au début, c’est l’aspect économique et la curiosité qui prévalaient. La seconde étape a été plus structurante et marquée par la volonté de s’affranchir des modèles - voire des machines - propriétaires. La demande des clients étant d’aller vers des modèles non propriétaires et flexibles ».</p> <p>La troisième vague est celle du moment : « la communauté du libre a atteint une telle taille qu’elle constitue un espace d’innovation extrêmement rapide et puissant. Les évolutions techniques qui en résultent sont souvent en avance sur celles proposées dans les systèmes fermés ». Ce&nbsp;<strong>modèle d’innovation</strong>&nbsp;ouverte ou collaborative bénéficie aux couches logicielles qui sont développées par la communauté. « C’est un motif d’intérêt supplémentaire pour les grands entreprises. Le revers, c’est qu’avant elles n’avaient en interne que 2 ou 3 experts qui avaient un rôle d’évangélisation et de soutien. Mais les développements open source sont devenus tellement décentralisés qu’ils demandent à être administrés de façon plus collective au sein de l’entreprise. » Ce besoin de partager des bonnes pratiques concernant la gestion des ressources libres, a été un des thèmes importants discutés pendant l’Open World Forum.</p> <a name="eztoc568157_0_1" id="eztoc568157_0_1" class="anchor"></a><h4><strong>Les PME ont des opportunités à saisir</strong></h4><p>Pour les PME, Jean-Luc Beylat préconise de raisonner en termes d’opportunités : « l’heure d’un certain isolement du libre n’est plus d’actualité. Les plateformes logicielles se sont largement affranchies des dépendances ». Cela ouvre des opportunités d’innovation : « on peut presque tout faire avec le libre et on ne trouve certaines réalisations que dans le libre ». D’un point de vue commercial, les opportunités pour les PME sont également importantes : « le libre est un point d’entrée et un sujet d’échanges avec les grandes entreprises. Et sur des marchés publics, c’est un élément de différenciation positif », souligne Jean-Luc Beylat. Pour preuve, plusieurs acteurs du pôle Systematic ont gagné des marchés importants pendant l’OWF 2012.</p> <p>Comment se présente l’avenir ? « On va voir de grands modèles se métamorphoser parce qu’ils sont en train de s’affranchir des empreintes propriétaires pour évoluer très vite vers un espace de co-création de nouveaux services et donc de valeur collective. Dans ce cadre, Inria est un acteur important, qui dispose d’une bonne proximité entre les mondes académiques et économiques. Pour ne citer qu’un exemple, l'<a href="http://www.irill.org/about" target="_blank">Initiative pour la Recherche et Innovation en Logiciel Libre</a>&nbsp;(IRILL), dirigée par&nbsp;<a href="http://www.inria.fr/actualite/le-saviez-vous/pour-apprendre-l-informatique-debranchez-l-ordinateur" target="_blank">Roberto Di Cosmo</a>, développe à la fois un savoir fondamental et des bonnes pratiques. Très clairement, le logiciel libre est un espace d’impact pour les chercheurs d’Inria ».</p> <p><em>**Logiciel libre et logiciel open source : quelle différence ? L’appellation «libre» correspond&nbsp; à la volonté de<a href="http://fr.wikipedia.org/wiki/Richard_Stallman" target="_self">Richard Stallman</a>&nbsp;de promouvoir la valeur éthique de cette démarche, au niveau sociétal. Plus restrictive, l’appellation «open source», prônée par&nbsp;<a href="http://fr.wikipedia.org/wiki/Eric_Raymond" target="_self">Eric Raymond</a>, se cantonne à en souligner les avantages techniques, au niveau industriel.»</em></p> Le centre double sa superficie et inaugure son deuxième bâtiment http://www.inria.fr/centre/lille/actualites/inauguration-du-second-batiment Mon, 22 Oct 2012 20:06:30 GMT ]]> <p>Le 23 octobre 2012, le centre Inria Lille - Nord Europe inaugure son second bâtiment, dédié aux sciences du numérique. Il accueille dès aujourd'hui 4 équipes de recherche et 5 services administratifs, soit environ 150 personnes.</p> <p>Cette année également, le prix Inria du support à la recherche a été décerné à trois personnes du centre pour leur collaboration qui a donné vie au Plateau Inria - EuraTechnologies.</p> De la prévision météo à la prévision environnementale http://www.inria.fr/centre/grenoble/actualites/de-la-prevision-meteo-a-la-prevision-environnementale Mon, 22 Oct 2012 14:34:15 GMT ]]> <p>L’augmentation des capacités de calcul et la généralisation des satellites pour l’observation de l’atmosphère, de la terre et des océans ont permis le formidable essor de la prévision en météorologie et son extension à d’autres domaines&nbsp;: océanographie, prévision des crues, etc…</p> <p>Témoignages d’<strong>Eric Blayo</strong>&nbsp;et de <strong>François-Xavier Le-Dimet</strong>, équipe-projet <a href="/domaines/stic-pour-les-sciences-de-la-vie-et-de-l-environnement/observation-et-modelisation-pour-les-sciences-de-l-environnement/moise" target="_self">Moïse</a></p> <a name="eztoc567098_1" id="eztoc567098_1" class="anchor"></a><h3>Une conjonction d’avancées scientifiques et de prise de conscience du changement climatique</h3><p><strong>Eric Blayo</strong></p> <p> En 20 ans la prévision météorologique a beaucoup progressé en fiabilité et en précision, permettant aujourd’hui des prévisions fiables à 3-4 jours avec une précision de quelques kilomètres. Le domaine d’application de la prévision s’est également étendu à d’autres disciplines. Il existe maintenant des centres de prévision opérationnelle pour l’océanographie, comme Mercator-Océan à Toulouse, ou en prévision des crues par exemple. Ces progrès fulgurants reposent notamment sur le développement des satellites d’observations de la Terre qui fournissent une part importante des données nécessaires à des prévisions de précision. Par exemple, le premier satellite dédié à l’observation des océans a été lancé en 1992 et a révolutionné cette science en fournissant des données couvrant tout l’océan, et pas seulement quelques observations rapportées par les bateaux sur les routes maritimes. Un deuxième élément essentiel réside dans l’augmentation exponentielle de la puissance des ordinateurs qui permet aujourd’hui de traiter ces données et d’effectuer les milliards de milliards de calculs nécessaires pour une seule prévision. Les centres opérationnels de prévisions sont ainsi parmi les plus gros utilisateurs de puissance de calcul, et l’augmentation de la précision des prévisions accompagne celles des capacités de calculs disponibles. <br /> Enfin, un troisième point qui me paraît essentiel a été la prise de conscience du changement climatique par le public et les politiques en 1990 avec le premier rapport du GIEC. Elle a constitué un moteur important pour organiser et coordonner les campagnes de mesures et les recherches des centres mondiaux, notamment pour réaliser des prévisions à plus long terme sur le climat, ce qui nécessite de coupler plusieurs modèles (atmosphère, sol, océan, glace…).</p> <a name="eztoc567098_2" id="eztoc567098_2" class="anchor"></a><h3>Une méthode pour renseigner le modèle sur le temps qu’il fait</h3><p><strong>François-Xavier Le Dimet&nbsp;</strong></p> <div class="object-right"> <p class="illustration" style="width:191px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/corps/simulation-numerique.jpg/567230-1-fre-FR/simulation-numerique.jpg_medium.jpg" width="185" height="200" alt="Simulation numérique de la circulation océanique : mise en évidence du &quot;Niño&quot; " title="Simulation numérique de la circulation océanique : mise en évidence du &quot;Niño&quot; " /> </span> <span class="legende"> En 2003, mise en évidence du &quot;Niño&quot; par simulation numérique de la circulation océanique - <cite>© INRIA / Projet IDOPT </cite> </span> </p></div> <p>Nos travaux ont également contribué à améliorer les simulations météorologiques concernant des endroits particuliers, comme les zones côtières, en couplant des modèles locaux, régionaux et globaux. Cette approche permet par exemple de mieux prévoir les trajectoires des ouragans.</p> <p>Pour qu’un modèle soit capable de prédire correctement le temps de demain, il faut être capable de le renseigner aussi précisément que possible sur le temps qu’il fait aujourd’hui. Autrement dit, il s’agit de fixer les valeurs de toutes les variables du modèle à un instant donné, grâce à toutes les données provenant de l’observation de l’atmosphère au même moment. On appelle assimilation de données les méthodes permettant de rassembler toutes les sources d’information disponibles (modèle, statistiques, observations) pour reconstituer l’état de l’atmosphère et/ou de l’océan. Au début cette opération était réalisée par des interpolations, pondérées par des statistiques, entre les points d’observation, mais dès que les modèles se sont complexifiés ces méthodes sont devenues inopérantes car elles produisaient des champs non conformes à la physique. Dans les années 1980, j’ai proposé, une méthode fondée sur le contrôle optimal , pour réaliser l’assimilation de données, que notre équipe a beaucoup contribué à développer par la suite. Le contrôle optimal m’avait été enseigné par Jacques-Louis Lions qui fut président de l’INRIA puis du CNES. Cette méthode a tout d’abord été utilisée par Météo France, un des leaders mondiaux de la prévision, puis adoptée en océanographie et dans d’autres domaines. L’assimilation est une composante essentielle de la prévision&nbsp;; elle requiert un important pourcentage du temps de calcul. Malgré cela les incertitudes demeurent, dues tant au modèle qu’aux données, et un des problèmes principaux, à l’heure actuelle, est de quantifier cette incertitude afin de pouvoir fournir un indice de confiance associé à la prévision. Ces indices sont utilisés aujourd’hui dans les bulletins délivrés par Météo France, mais ces calculs sont encore réalisés de façon assez empirique sans une justification mathématique suffisante. C’est un défi scientifique actuel de quantifier ces incertitudes de prévision de façon fiable. </p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>La prévision environnementale est aussi une activité économique</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p>Depuis une dizaine d’années, des entreprises se sont développées dans le domaine des prévisions environnementales. Elles s’appuient sur des modèles de prévisions open-source et des données Météo France par exemple pour proposer des études d’impacts d’une construction sur l’écoulement des eaux ou déterminer le potentiel éolien d’un site. Des sociétés font appel à ces entreprises pour évaluer leur météo-sensibilité afin d’anticiper leurs besoins en production, en stock ou en logistique de livraisons par exemple. Un point important lorsque l’on sait que l’activité des entreprises météo-sensibles représenterait 20 à 25% du PIB&nbsp;!</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc567098_2_1" id="eztoc567098_2_1" class="anchor"></a><h4>Et dans 20 ans&nbsp;?</h4><p><strong>Eric Blayo</strong>, responsable scientifique équipe projet <a href="/domaines/stic-pour-les-sciences-de-la-vie-et-de-l-environnement/observation-et-modelisation-pour-les-sciences-de-l-environnement/moise" target="_self">MOISE</a>&nbsp;Inria, professeur UJF</p> <div class="object-left"> <p class="illustration" style="width:73px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/autres-formats/eric-blayo_portrait.jpg/567114-1-fre-FR/eric-blayo_portrait.jpg_small.jpg" width="67" height="100" alt="Eric Blayo" title="Eric Blayo" /> </span> </p></div> <p> «&nbsp;Il nous manque encore des modèles pour estimer l’impact du changement climatique sur la biobiversité et aussi ses conséquences socio-économiques afin d’anticiper de bonnes politiques en terme d’énergie ou d’aménagement du territoire. C’est un défi pour les mathématiciens car les difficultés sont énormes en terme de modélisation. Les méthodes d’apprentissage statistiques pourraient par exemple permettre d’extraire de grandes lois afin de combiner ces modèles au modèle climatique. Mais on en est encore aux balbutiements&nbsp;! <br /> Un autre défi sera de ne pas se noyer dans une masse d’informations toujours croissante et d’arriver à ne conserver que ce qui est pertinent pour la question posée.&nbsp;»</p> <p><strong>François-Xavier Le Dimet</strong>, professeur émérite à l'université Joseph Fourier de Grenoble et membre de l'équipe-projet Moise, qui a pris la suite de l'équipe-projet <a href="/domaines/equipes-non-classees/idopt" target="_self">Idopt </a>qu'il dirigeait. </p> <div class="object-left"> <p class="illustration" style="width:73px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/autres-formats/fx-ledimet_portrait.jpg/567110-1-fre-FR/fx-ledimet_portrait.jpg_small.jpg" width="67" height="100" alt="F-X Le Dimet" title="F-X Le Dimet" /> </span> <span class="legende"> <cite>© Inria / Photo H. Raguet</cite> </span> </p></div> <p>«&nbsp;Je souhaiterais que les mathématiques jouent un plus grand rôle dans ce domaine. Par exemple, les travaux réalisés par les mathématiciens et les numériciens sur les écoulements fluides et tout ce qui est lié à la turbulence devraient permettre des progrès significatifs, tout comme les développements récents de l’analyse numérique sur des problèmes multi-échelles. Les prévisions sur le climat sont aussi un domaine difficile pour lequel les outils mathématiques pourraient faire une différence. Les prévisions à long terme nécessitent en effet des couplages entre les modèles des océans et de l’atmosphère, ce qui pose de nombreux problèmes de calcul.</p> </div> </div> La plate-forme technologique FIT (Equipex) se déploie dans le centre http://www.inria.fr/centre/lille/actualites/deploiement-de-la-plate-forme-fit Mon, 22 Oct 2012 12:22:38 GMT ]]> <p>En 2011, la plate-forme technologique FIT (pour Future Internet of Things) est déployée dans le centre Inria Lille - Nord europe. Cet &quot;Équipement d'Excellence&quot; regroupe trois plates-formes d'expérimentation. Ouvert et gratuit, il ouvre de nouvelles opportunités de recherche et de développement, entre autres dans le domaine des robots, de la radio, de la domotique. FIT est également déployé dans le centre Inria Grenoble - Rhône-Alpes.</p> Le plateau Inria – EuraTechnologies, 1er espace de démonstration de l’institut, est inauguré http://www.inria.fr/centre/lille/actualites/2010-inauguration-du-plateau-inria Mon, 22 Oct 2012 11:45:33 GMT ]]> <p>En 2010, le centre Inria Lille - Nord Europe inaugure le Plateau Inria. Situé à <a href="http://www.euratechnologies.com/" target="_blank">EuraTechnologies</a>, c'est le premier espace de démonstration des recherche de l'institut. Il expose sur 200m² plusieurs plateformes de recherche et est utilisé également comme lieu de travail collaboratif. Cet espace a notamment vocation à favoriser les échanges entre recherche et industrie.</p> David Andreu reçoit le 1er prix FIEEC aux Rendez-Vous Carnot http://www.inria.fr/centre/sophia/actualites/david-andreu-1er-prix-fieec-aux-rendez-vous-carnot Sun, 21 Oct 2012 16:57:55 GMT ]]> <p>La Fédération des Industries Electriques, Electroniques et de Communication décernait pour la deuxième fois ses prix de la recherche appliquée à&nbsp; l'occasion des &quot;Rendez-Vous Carnot&quot; à Lyon. David Andreu, enseignant chercheur à l’université Montpellier 2, membre permanent de l’équipe-projet Inria Demar, reçoit le premier prix de 15 k€ pour ses travaux sur la robotique et la stimulation électro-fonctionnelle appliquée à la santé, concrétisés dans de nouveaux appareils de la société Vivaltis. Ce prix récompense des chercheurs travaillant dans des structures publiques dont les travaux effectués en France ont été industrialisés par une PMI-ETI basée en France.</p> <a name="eztoc566379_1" id="eztoc566379_1" class="anchor"></a><h3>En quoi consiste cette innovation&nbsp;?</h3><p><strong>Georges Billard</strong><em>&nbsp;</em>: La société est spécialisée dans les dispositifs de physiothérapie destinés aux professionnels de santé pour la rééducation fonctionnelle. Nous souhaitions faire une rupture technologique sur nos appareils d’électrostimulation et de biofeedback basée sur des liaisons sans fil bidirectionnelles. C’est une décentralisation sur le patient des dispositifs de stimulation et de mesure avec traitement local des informations et communication interactive entre le dispositif sur le patient et le poste de contrôle du soignant.</p> <p><strong>David Andreu</strong>&nbsp;: Pour répondre aux attentes de l’entreprise nous avons conçu une architecture distribuée de stimulation/mesure originale. Elle repose sur des unités de stimulation ou de mesures appelées Pod portées par le patient, programmées et contrôlées à distance par le soignant à partir d’un poste unique. Le Pod contient le générateur de courant, la capacité de calcul, la partie radio bidirectionnelle avec les algorithmes et protocoles associés pour garantir la fiabilité des communications y compris en présence d’autres réseaux. Plusieurs défis sont relevés dans ce développement commun&nbsp;: la miniaturisation et la faible consommation d’énergie notamment. A l’avenir il y aura la capacité à traiter plusieurs patients en même temps à partir d’un contrôleur unique, voire de rendre le patient autonome. L’architecture permet la multi-application pour effectuer différentes stimulations sur un même patient et rééduquer plusieurs membres simultanément.</p> <a name="eztoc566379_2" id="eztoc566379_2" class="anchor"></a><h3>Que retirez-vous de cette collaboration&nbsp;?</h3><p><strong>Georges Billard</strong>&nbsp;: Ce développement a conduit à de nouveaux produits commercialisés dès 2010 après deux années de R&amp;D. Les produits qui intègrent cette technologie représentent déjà environ un quart de notre chiffre d’affaires ainsi que trois créations d’emploi et deux emplois sauvegardés. Cette rupture technologique nous donne une confortable avance sur nos concurrents. Elle a un fort potentiel pour la rééducation et sera source d’autres produits en collaboration avec l’équipe Inria DEMAR. Dans ce développement commun, les chercheurs ont parfaitement intégré les contraintes de temps d’une PME comme la nôtre.</p> <p><strong>David Andreu&nbsp;</strong>: Le développement avec Vivaltis a permis d’appliquer nos savoir et savoir-faire en architectures distribuées. Dans cette collaboration adossée à un dispositif CIFRE j’ai co-encadré une thèse de doctorat de 2008 à 2011 et accompagné le transfert d’innovation. En qualité d’enseignant chercheur, j’insiste sur la dimension formation et insertion professionnelle des jeunes au travers de telles collaborations avec les PMI. Le travail en commun avec Vivaltis est exemplaire.</p> <p>--------</p> <p><em>(*) L'équipe-projet Inria DEMAR est commune au LIRMM (CNRS-Université Montpellier 2) et à l'Université Montpellier 1. Elle est localisée à Montpellier.</em></p> La simulation numérique pour la santé, de la cellule à l'humain virtuel http://www.inria.fr/centre/nancy/actualites/rencontre-inria-industrie-sante-et-simulation-numerique Fri, 19 Oct 2012 18:16:49 GMT ]]> <p>Inria organise, en partenariat avec le cluster français Alsace Biovalley et l'Institut hospitalo-universitaire de Strasbourg,&nbsp;une journée de rencontres autour de la simulation numérique pour la santé.&nbsp;</p> <p>Mercredi 21 novembre prochain aura lieu la prochaine Rencontre Inria Industrie. Cette journée ponctuée d'exposés, de démonstrations d'équipes de recherches et d'intervenants reconnus du domaine, permettra de donner un aperçu des différentes innovations et applications en cours ou potentielles.</p> Comment faire cours à 100 000 personnes ? http://www.inria.fr/actualite/actualites-inria/comment-faire-cours-a-100-000-personnes Fri, 19 Oct 2012 16:21:08 GMT ]]> <p>« Un cours peut mobiliser plus de 150 000 personnes : la preuve a été faite. Pour que ce mouvement se développe encore, il faut forger de nouveaux modèles économiques et de nouveaux outils numériques », explique Jean Michel Cornu, directeur scientifique de la Fondation Internet Nouvelle Génération, Chief Visionary Officer<strong>&nbsp;</strong>de la plateforme Imagination for People, et membre du comité d’éthique d’Allistene dont Inria est partenaire.</p> <p>« Regardons les chiffres : le cours gratuit d’Intelligence Artificielle de Standfordpar&nbsp; Sebastian Thrun et Peter Norvig a réuni en novembre 2011 160 000 étudiants en ligne et environ 300 en amphi. Près de 2000 étudiants ont présenté l’examen en ligne : cela laisse envisager un modèle économique viable, en ne faisant payer que la présentation à l’examen », explique <strong><a href="http://fr.wikipedia.org/wiki/Jean-Michel_Cornu" target="_blank">Jean-Michel Cornu</a></strong>. Ce modèle économique est celui du <strong>freemium</strong>, bien connu dans l’<strong>économie Internet </strong>: le service est gratuit et l’accès à des services premium est payant. « Ce modèle freemium n’exclurait pas nécessairement les pays les moins riches. Rappelons que l’économie Internet a souvent prouvé que 3% des clients payants peuvent financer l’intégralité d’un service », poursuit Jean-Michel Cornu.</p> <p>Les entreprises pourraient elles aussi amener des solutions économiques. « Des entreprises financent des universités pour identifier puis embaucher des talents. Si au lieu d’avoir 300 élèves, elles pouvaient en atteindre des dizaines de milliers, cela pourrait devenir très rentable. On peut déjà prévoir que les entreprises financeront d’autant plus des universités qu’elles offriront ce type de service ! », prévient Jean-Michel Cornu. « Et les entreprises de demain se feront une place en sachant travailler avec un très grand nombre d’intervenants (<a href="http://fr.wikipedia.org/wiki/Crowdsourcing" target="_blank">crowdsourcing</a>), en créant de <strong>nouveaux modèles économiques</strong>, en formant et en faisant monter en compétence le plus grand nombre de personnes&nbsp;&nbsp; possible. »</p> <p>&nbsp;Des réflexions autour de nouveaux modèles économiques vont être menées à <strong><a href="http://imaginationforpeople.org/en/member/JeanMichelCornu/" target="_blank">Imagination for People</a></strong>, par le Groupe international francophone sur les modèles économiques. Imagination for People est une plateforme internationale multilingue, d’origine franco-québécoise, dont l’objectif est de repérer et de soutenir les projets sociaux innovants dans le monde entier. « C’est donc une sorte de wiki permettant d’identifier les bonnes idées pour mieux vivre ensemble. Nous avons monté des équipes de soutien et des formations pour accompagner les projets, notamment pour l’animation de communautés : nous étudions la possibilité d’en faire des <strong>MOOC</strong>&nbsp;», explique Jean-Michel Cornu. Ces <a href="http://blog.educpros.fr/christine-vaufrey/2012/10/11/mooc-le-big-bang/" target="_blank">MOOC</a>&nbsp;permettraient d’aider les porteurs de projets à monter en compétence dans le domaine visé (Fabs Labs, tiers-lieux pour le co-working etc...) ou de développer des modèles économiques viables.</p> <p>La montée en puissance et en efficacité des MOOC passera aussi par le développement de nouveaux <strong>outils numériques</strong>. « A Imagination for People, nous développons des outils numériques pour faire des débats. L’idée n’est pas de réinventer le Café du Commerce mais de structurer l’intelligence collective. Dans les MOOC, ils permettraient des débats en sous-groupes. Avec la <strong>Fing</strong>, nous avons testé la méthode développée par Imagination for People notamment dans le groupe « <a href="http://www.reseaufing.org/pg/groups/62215/innovation-montaire/" target="_blank">Innovation monétaire</a>&nbsp;» de la Fing, qui réunissait près de 180 personnes. Nous espérons avoir l’outil début 2013 pour faire des débats, les cartographier, et faire produire des documents à plusieurs centaines de personnes. »</p> <p>De tels outils sont nécessaires, d’autant que les MOOC se multiplient. Ils tirent leur nom d'une <strong>théorie de l’apprentissage</strong>, le <a href="http://cck11.mooc.ca/" target="_blank">connectivisme</a>, qui fait (naturellement) l’objet d’un cours en ligne. Ces plateformes connectent les élèves pour qu’ils fabriquent ensemble des contenus et que le système soit décentralisé. A l’extrême, le C-MOOC peut évoluer jusqu’à ce que le professeur n’ait plus d’importance. Son rôle d’enseignant consistant plutôt à donner de bonnes bases initiales à un savoir particulier et d’être incitatif.</p> <p>« En tant qu’observateur, je suis stupéfait de la prolifération de projets qui, a priori, n’avaient aucune chance de succès. Qui aurait dit, il y a seulement un an, que faire un cours à plus de 100 000 personnes était possible ? », interroge Jean-Michel Cornu. « Il serait bon d’arrêter d’écouter nos a priori, pour se mettre à l’écoute du reste du monde si l’on veut identifier les meilleures solutions. Le logiciel libre ou Wikipédia ont d’abord fonctionné et c’est seulement ensuite qu’ils ont été compris : l’intelligence collective va désormais bien plus vite que l’intelligence individuelle ! »&nbsp;</p> André Seznec a reçu la première Intel Research Impact Medal http://www.inria.fr/centre/rennes/actualites/andre-seznec-a-recu-la-premiere-intel-research-impact-medal Fri, 19 Oct 2012 14:52:37 GMT <p>André Seznec, chercheur à Inria Rennes et directeur de l'équipe ALF, a reçu la première médaille Intel Research Impact de la part de Intel Labs Academic Reasearch Office.</p> Première rencontre Inria-Industries en région - premier I-lab avec une PME régionale http://www.inria.fr/centre/lille/actualites/rencontres-inria-industries-et-i-lab-en-region Thu, 18 Oct 2012 18:54:05 GMT ]]> <p>En 2009, le centre Inria Lille - Nord Europe organise la première rencontre Inria-Industries en région. Ces événements nationaux sont organisés plusieurs fois par an, en partenariat avec des pôles de compétitivité.</p> <p>Le centre lillois est également le premier à créer un I-lab avec une PME régionale. Il s'agit d'un laboratoire de recherche co-financé par la PME <a href="http://www.idees-3com.com/" target="_blank">Idées-3com</a>&nbsp;et l'équipe <a href="http://www.inria.fr/equipes/mint" target="_blank">Mint</a>.</p> Le centre de recherche Inria Lille - Nord Europe est créé http://www.inria.fr/centre/lille/actualites/creation-du-centre-inria-lille-nord-europe Wed, 17 Oct 2012 18:45:11 GMT ]]> <p>L'année 2008 marque la création officielle du centre Inria Lille - Nord Europe. Le centre est alors composé de 10 équipes, qui représentent 204 chercheurs, pour un effectif total de 241 personnes.</p> <p>Cette année voit aussi la création de la première équipe Européenne Inria. Il s'agit de l'équipe-projet <a href="http://www.inria.fr/equipes/ateams" target="_blank">Ateams</a>, localisée au CWI à Amsterdam.</p> Lancement de la campagne Internships 2013 http://www.inria.fr/actualite/actualites-inria/campagne-internships-2013 Wed, 17 Oct 2012 16:25:21 GMT ]]> <p>Inria lance la campagne de recrutement de stagiaires dans le cadre du Programme Internships 2013.&nbsp; Ce programme est ouvert aux étudiants issus d'institutions étrangères partenaires d'Inria.&nbsp;</p> <p>Les offres de stages seront envoyées directement aux institutions partenaires qui en assureront la diffusion et valideront les candidatures de leurs meilleurs étudiants.</p> <p>Les étudiants sélectionnés recevront une allocation de recherche allant de 1 100 € net pour les niveaux master et ingénieur à 1 200 € net par mois pour les doctorants. Cette allocation est prise en charge à 50 % par la Direction des relations internationales d'Inria et 50 % par l'équipe-projet Inria, frais de dossiers EGIDE compris.</p> <p>Dès à présent, les équipes-projets Inria sont invitées à proposer des sujets de recherche pour des stages de projet de fin d'étude d'ingénieur, de master ou de doctorat.</p> <p>La période de dépôt des candidatures s'étend du 17 octobre 2012 au 7 janvier 2013. Le détail et les modalités de la campagne Internships 2013 peuvent être consultés sur la page du <a href="http://www.inria.fr/recherches/mobilite-internationale/programme-internships/programme" target="_blank">programme Internships.</a></p> Les élèves de la spécialité ISN découvrent le Plateau Inria http://www.inria.fr/centre/lille/actualites/la-specialite-isn-sur-le-plateau-inria Wed, 17 Oct 2012 16:21:14 GMT ]]> <p>L'enseignement ISN (informatique et sciences du numérique) a fait sa rentrée au lycée&nbsp;! L’Académie de Lille, l’Université Lille1 et le centre de recherche Inria Lille – Nord Europe accompagnent les établissements de la région vers un enseignement d’ouverture et de découverte des problématiques actuelles, qui valorise la créativité et la culture numérique. Les portes du Plateau Inria et ses dernières innovations leur seront ouvertes dès janvier !</p> <a name="eztoc565435_0_1" id="eztoc565435_0_1" class="anchor"></a><h4>Au cœur de l'innovation</h4><p>Les élèves seront reçus sur le Plateau pour une session exclusive de deux heures. Trente minutes seront dédiées à la visite commentée du Plateau pour y découvrir les différentes démonstrations présentes.&nbsp; Puis chaque groupe, originaire de lycées différents, présentera deux projets ISN de son choix. L'opportunité de &quot;s'entrainer&quot; pour l'oral et surtout d'échanger avec les autres élèves et un chercheur du centre Inria Lille.</p> <br class="clear" /> <div class="object-center xml_medium_wide_16_9"> <p> <object width="480" height="294" name="player" type="application/x-shockwave-flash" data="/extension/site_inria/design/site_inria/flash/player.swf"> <param name="movie" value="/extension/site_inria/design/site_inria/flash/player.swf"> <param name="allowfullscreen" value="true"> <param name="allowscriptaccess" value="always"> <param name="flashvars" value="file=http://static.inria.fr/www/videos/Lille/plateau_saison2_demos.flv&amp;autostart=false&amp;bufferlength=1&amp;stretching=exactfit&amp;backcolor=#2a3a47&amp;frontcolor=#DDDDDD&amp;lightcolor=#FFF&amp;dock=true&amp;stretching=uniform&amp;image=/extension/site_inria/design/site_inria/images/logos/preview.png&plugins=fbit-1,tweetit-1"> </object> </p> </div> Plus de 2000 personnes viennent fêter les 40 ans d’Inria à Lille http://www.inria.fr/centre/lille/actualites/les-40-ans-d-inria Tue, 16 Oct 2012 19:12:45 GMT ]]> <p>En 2007, Inria célèbre son 40e anniversaire. A cette occasion, l'institut organise un forum &quot;Informatique et Société&quot;, qui se tient à Lille Grand Palais les 10 et 11 décembre 2007. Plusieurs conférences sur des thématiques scientifiques, économiques et sociales rassemblent alors des chercheurs de l'organisme et des personnalités extérieures, tels que le philosophe Michel Serres.</p> De l’éthique dans les technologies numériques http://www.inria.fr/actualite/actualites-inria/ethique-technologies-numeriques Tue, 16 Oct 2012 15:35:33 GMT ]]> <p>La Commission de réflexion sur l'Ethique de la Recherche en sciences et technologies du Numérique (CERNA) sera portée sur les fonts baptismaux le 29 octobre prochain par l' Alliance des sciences et technologies du numérique (Allistene). Aboutissement d’une réflexion lancée depuis 2011, le comité aura un rôle consultatif sur les questions éthiques touchant au monde numérique.</p> <p>«<em>&nbsp;L’objet de la commission d’éthique sera de statuer sur les sciences du numérique et non sur les usages du numérique</em>&nbsp;» rappelle Max Dauchet, Président de la CERNA. Il s’agit donc de mener une réflexion éthique de fond sur les aspects scientifiques en amont de toute application et de créer du lien pour construire un réseau de réflexion. L’idée est véritablement de veiller à ce que la portée des outils de dissémination de l’information tel que le <em>Cloud computing</em>&nbsp;soit réfléchie et ce, dès la conception scientifique.</p> <p>Nanotechnologies, biologie, informatique, sciences cognitives… force est de constater que de nombreuses problématiques éthiques sont à l’interface du numérique et du vivant. Parmi les sujets en commun : les robots d’assistance à la personne, les exosquelettes, les développements cerveau-machine, etc. Autant d’exemples qui laissent à penser que la CERNA et le Comité Consultatif National d’Ethique pour les sciences de la vie et de la santé (CCNE) seront amenées à se concerter.</p> <p>« <em>L’approche des questions éthiques est fortement liée à la conception de la place de l’homme dans son environnement </em>» souligne Max Dauchet, citant l’exemple de pays très technophiles, tels que la Corée du Sud ou le Japon où la réflexion va jusqu’à la protection contre la maltraitance des robots (!). Aussi la CERNA souhaite t-elle s’ouvrir à l’international, sachant que généralement le vivant prédomine dans les préoccupations des comités d’éthiques au niveau de l’Europe et que la réflexion sur la recherche numérique doit encore trouver sa place. &nbsp;</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc564911_1" id="eztoc564911_1" class="anchor"></a><h3>La CERNA en bref</h3><p>Composée d’une vingtaine de personnes (19 actuellement), la Commission de réflexion sur l'Ethique de la Recherche en sciences et technologies du Numérique réunit pour moitié des experts de leurs disciplines respectives s’intéressant à l’éthique, et pour moitié des professionnels extérieurs : juristes, philosophes, sociologues, etc.</p> <p>Conduites six fois par an à partir du 29 octobre, les réunions auront pour objectif de porter à l’ordre du jour les dossiers dont la CERNA se sera saisie (autosaisine) et ceux pour lesquels elle aura été saisie par Allistene. Les dossiers seront traités au sein de groupes de travail réunissant des membres de la CERNA et des personnalités extérieures. Le comité de coordination Allistene décidera le 26 octobre des trois premières saisines.</p> <p> « <em>Une page blanche va s’ouvrir le 29 octobre, avec des contours encore incertains, mais d’ici peu la nécessité d’une éthique des sciences et technologies du numérique apparaîtra aussi évidente à la société que l’est actuellement celle des sciences du vivant et de la santé</em>&nbsp;» analyse Max Dauchet. <br /> Sur la feuille de route de la CERNA figure aussi une mission de préconisation de sujets de recherche afin de répondre à certains questionnements d’éthique numérique. Une vocation tout à la fois de veille, de surveillance, de suivi et d’anticipation, de pro-action. Au final, une volonté que la recherche intègre le souci éthique des contournements d’usage possibles de ses produits.</p> </div> </div> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc564911_2" id="eztoc564911_2" class="anchor"></a><h3>Bio express Max Dauchet, président de la CERNA</h3> <div class="object-right"> <p class="illustration" style="width:116px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/medias-reference/people-inria/portrait-zoom-max-dauchet-chapo/29200-1-fre-FR/portrait-zoom-max-dauchet-chapo_xml_vignette.jpg" width="110" height="83" alt="Max Dauchet © INRIA Photo J. Wallace" title="Max Dauchet © INRIA Photo J. Wallace" /> </span> </p></div> <p>Professeur émérite de l’Université de Lille1, Max Dauchet est agrégé de mathématiques et docteur d’Etat en informatique et en mathématiques. Ses recherches amont (outils logiques et méthodes formelles pour la programmation, algorithmique) se sont ensuite diversifiées (bioinformatique) et orientées vers les applications (algorithmes de décision en temps réel). Il a dirigé 28 thèses et été membre de nombreux comités internationaux (60) dont 8 qu’il a créés et 12 qu’il a présidés. Après diverses responsabilités dans les ministères et au CNRS, il a intégré le Conseil Scientifique d’Inria, celui du Département Mathématiques Informatique de l’ENS Ulm, et a été membre du Comité National des Universités (CNU). Il a créé en 1982, et dirigé pendant 9 ans, le Laboratoire d’Informatique Fondamentale de Lille, associé au CNRS et maintenant à Inria. Plus récemment il a dirigé le centre de recherche Inria Lille - Nord Europe durant ses premières années d’existence. </p> </div> </div> Le centre de recherche se construit avec un bâtiment de 4000m² http://www.inria.fr/centre/lille/actualites/le-premier-batiment Mon, 15 Oct 2012 17:55:33 GMT ]]> <p>En 2005 débutent les travaux du premier bâtiment du centre de recherche lillois. La construction, d'une surface de 4000 m², s'achève en décembre 2006. L'installation des équipes et services se déroule en mars de l'année suivante : avant cette date, le centre était hébergé par le Laboratoire d'Informatique Fondamentale de Lille.</p> Quelle sera la place de la France sur le campus planétaire ? http://www.inria.fr/actualite/actualites-inria/la-france-sur-le-campus-planetaire Mon, 15 Oct 2012 14:57:45 GMT ]]> <p>&nbsp;« Le partage » sera cette année le thème de la Cité de la Réussite, du 19 au 21 octobre, à la Sorbonne. Plus de 40 débats auront lieu, réunissant près de 150 personnalités. François Taddei sera l’un des invités, sur le thème « Innover pour apprendre, apprendre pour innover ». Paradoxalement, c’est donc dans les amphis de la prestigieuse université française que seront abordées des ruptures radicales avec le modèle universitaire actuel...</p> <p>« A l’heure d’Internet, les institutions françaises vont-elles continuer à délivrer des cours magistraux dans des amphis qui risquent de se vider ? », interroge <a href="http://www.cri-paris.org/docs/Bio%20CV%20Taddei.pdf" target="_blank">François Taddei</a>, directeur de recherche à l’INSERM et directeur de l’institut innovant de formation par la recherche financé par les investissements d’Avenir. Une question que l’on doit se poser au moment où les meilleures universités américaines publient gratuitement leurs cours sur Internet. Cette diffusion du savoir est tellement massive qu’on la désigne par le terme <strong>MOOC</strong>, pour <strong>Massive Online Open Courses.</strong></p> <p>&nbsp;Le phénomène a explosé en quelques mois : en octobre 2011, les professeurs Peter Norvig et Sebastian Thrun, publient gratuitement leur <a href="https://www.ai-class.com/" target="_self">cours</a>&nbsp;d’intelligence artificielle de Standford University. Il est suivi par environ 160 000 étudiants, dont les 2/3 sont en-dehors des Etats-Unis. Fort de ce succès, Sebastian Thrun fonde Udacity, un établissement privé d’enseignement en ligne, qui délivre ses 2 premiers cours à près de 90 000 étudiants en février 2012. Les <a href="http://techcrunch.com/2012/09/17/class2go-stanfords-new-open-source-platform-for-online-education/" target="_blank">investisseurs</a>&nbsp;privés américains suivent le mouvement... La start up <a href="https://www.coursera.org/" target="_blank">Coursera</a>&nbsp;est créée en avril 2012 par deux autres professeurs de Standford (Andrew Ng et Daphne Koller). Moins de 6 mois après sa création, elle a dépassé 1,6 million d’inscrits à ses cours, provenant d’une trentaine d’universités parmi les plus prestigieuses.</p> <p>&nbsp;« La croissance de ces réseaux dépasse largement celle qu’ont connu les réseaux sociaux précédents. Et il n’a fallu que quelques mois au MIT pour monter, avec Harvard, un projet concurrent : <a href="http://web.mit.edu/newsoffice/2012/edx-faq-050212.html" target="_blank">edX</a>. Le phénomène a une telle ampleur et une telle vitesse de déploiement que l’on espère une réaction rapide de nos institutions européennes », souligne François Taddei. En France, ce mois d’octobre 2012 est marqué par l’ouverture d’<a href="http://itypa.mooc.fr/" target="_blank">Itypa</a>, le premier MOOC francophone, à l’initiative de chercheurs, enseignants et spécialistes de l’éducation. A noter également la création d’<a href="http://www.unishared.com/" target="_blank">UniShared</a>&nbsp;par un jeune entrepreneur social, <a href="http://www.forbes.com/sites/ricardogeromel/2012/09/17/unishared-revolution-in-online-education-beyond-coursera-edx-and-udacity/" target="_self">Clément Delangue</a>.</p> <p>&nbsp;Pour François Taddei, les <strong>universités</strong>&nbsp;sont en train de perdre leurs privilèges : « pas besoin de se déplacer ou de changer de pays, on trouve d’excellents cours en ligne. Quant aux appareillages coûteux des labos de recherche, ils deviennent accessibles dans des <strong>Fab Labs </strong>et via des modules que l'on peut ajouter à son téléphone pour le transformer en microscope par exemple. Les étudiants ou experts que l’on rencontrait sur les campus sont encore plus nombreux et dynamiques sur les réseaux sociaux des MOOC ». L’heure est donc à la prise de conscience et à la remise en cause : les étudiants ne sont plus une clientèle captive ! Et l’efficacité de l’<strong>auto-éducation </strong>est déjà largement prouvée : dans le monde, des milliers d’informaticiens professionnels n’ont pas suivi de cursus éducatif classique...</p> <p>&nbsp;« En France, on a longtemps vécu avec l’idée que notre système éducatif est parfait. Donc l’éducation ne consacre que de faibles budgets à la recherche, c’est-à-dire à sa propre amélioration. Au niveau européen, nous avons des European Institutes for Technology... mais il manque des European Institutes for Learning Technologies ! », explique François Taddei, qui travaille à développer des outils numériques adaptés dans le cadre du projet&nbsp;<a href="http://www.nightscience.org/" target="_blank">Night Science</a>.&nbsp;Quant à la VAE (Validation des Acquis de l’Expérience) : « elle aurait besoin d’être adaptée aux nouvelles contraintes et opportunités de ce siècle. »</p> <p>&nbsp;Il est donc urgent de se poser les vraies questions : qu’est-ce que l’université « brick and mortar » a désormais de spécifique ? Comment peut-elle créer de la valeur et s’imposer face à la concurrence ? Pour François Taddei, « l’enseignant-chercheur a une forte valeur ajoutée, à condition de changer son rapport à l’enseignement. Plutôt que de délivrer la bonne parole du haut d’une chaire, il a des possibilités nouvelles et enthousiasmantes : catalyser les idées et les apprentissages, animer des projets de type <a href="/actualite/actualites-inria/bientot-un-fab-lab-pres-de-chez-vous" target="_self">Fab Lab</a>&nbsp;et Open lab ouverts à tous, orienter vers des sources d’informations, tirer parti du feed back de milliers d’étudiants qui interagissent avec son cours on line... Les institutions devront inviter et accompagner les étudiants et les chercheurs sur cette voie, qui est désormais largement ouverte ! ».&nbsp;</p> Eitan Altman, lauréat du prix France Télécom de l'Académie des sciences http://www.inria.fr/centre/sophia/actualites/eitan-altman-laureat-du-prix-france-telecom Mon, 15 Oct 2012 13:50:09 GMT ]]> <p>Le Prix FRANCE TELECOM de l'Académie des Sciences est décerné conjointement cette année à Eitan ALTMAN, directeur de recherche Inria dans l'équipe-projet MAESTRO et membre du laboratoire commun Alcatel-Lucent Inria. Ce prix lui sera remis mardi 16 octobre à l'occasion de la séance solennelle de remise des prix sous la Coupole de l'Institut de France. </p> <p>Eitan Altman (53 ans) est l'un des meilleurs spécialistes internationaux de l'optimisation et du contrôle des réseaux de communications. Ses travaux sur l'interface entre théorie des jeux et communications ont ouvert une voie de recherche particulièrement originale et féconde. Ils permettent notamment de déterminer les incitations individuelles auxquelles il faut soumettre les utilisateurs d'un grand réseau pour obtenir un fonctionnement collectif optimal. Par sa créativité, ses apports à la communauté scientifique et ses activités de valorisation, Eitan Altman contribue fortement à la renommée de la recherche française dans le domaine des communications.</p> <p>Il a reçu ce prix conjointement avec Joël Cibert, directeur de recherche CNRS à l’Institut Néel à Grenoble.</p> De la reconnaissance de visages à l’interprétation de scènes complexes http://www.inria.fr/centre/grenoble/actualites/de-la-reconnaissance-de-visages-a-l-interpretation-de-scenes-complexes Mon, 15 Oct 2012 10:31:06 GMT ]]> <p>Les recherches en reconnaissance automatique d’images ont connu un grand essor au début des années 2000. On peut citer par exemple le contrôle d’accès (visage, iris) ou la mise au point sur les visages détectés automatiquement au sein des appareils photos numériques. Dix ans plus tard, émergent des services permettant de rechercher des informations sur le web à partir d’images… </p> <p>Témoignage de <strong>Cordelia Schmid</strong>, responsable de l’équipe<a href="/domaines/perception-cognition-interaction/vision-perception-et-interpretation-multimedia/lear" target="_self">&nbsp;Lear</a></p> <div class="object-right"> <p class="illustration" style="width:116px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/chapo/lear2_vignette.jpg/563947-1-fre-FR/lear2_vignette.jpg_xml_vignette.jpg" width="110" height="83" alt="Lear" title="Lear" /> </span> <span class="legende"> <cite>© Inria / Photo Kaksonen</cite> </span> </p></div> <p> Au début des années 1990, on commençait à appliquer des techniques de reconnaissance à des objets très simples, comme par exemple des outils noirs sur fond blanc, au sein d’ensembles très petits qui, même en 1996, ne comptaient pas plus de quelques milliers d’images. <br /> Aujourd’hui, nous travaillons sur la recherche d’images beaucoup plus complexes dans des bases pouvant contenir cent millions d’images&nbsp;! Cette progression résulte d’un ensemble de travaux permettant d’identifier les caractéristiques pertinentes pour représenter l’image, d’organiser ces caractéristiques et de les stocker de façon à faciliter leur recherche ultérieure. Nous avons contribué à ces avancées en développant des descripteurs discriminants, robustes aux changements de points de vue, et en élaborant des outils d’indexation d’images.</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>L’apprentissage pour mieux identifier les contenus</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p>Ces approches sont cependant loin de pouvoir répondre à des requêtes du type « trouver des images d’enfants jouant dans un jardin&nbsp;». C’est en effet un problème très difficile à résoudre car cela suppose une machine capable d’interpréter la scène, c’est-à-dire de savoir reconnaître un enfant, une action dans l’image (jouer) et savoir ce qu’est un jardin. Nous avons progressé dans ce sens en nous appuyant, depuis une dizaine d’années, sur des techniques d’apprentissage&nbsp;: on fournit à l’ordinateur de très nombreuses images de jardins en le chargeant d’extraire des éléments pertinents pour la construction d’un modèle de jardin. Plus récemment, dans le cadre de l’identification du contenu des vidéos, nous avons complété cette approche par une exploitation des informations de mouvement.&nbsp;L’analyse du mouvement permet en effet l’obtention d’indications sur l’action en train de se faire. Ces techniques nous permettent aujourd’hui d’identifier rapidement des vidéos représentant par exemple une fête d’anniversaires ou une personne buvant du café.</p> <a name="eztoc563931_1" id="eztoc563931_1" class="anchor"></a><h3>&nbsp;Comment en savoir plus sur l’objet que vous venez de prendre&nbsp;en photo ?</h3><a name="eztoc563931_2" id="eztoc563931_2" class="anchor"></a><h3> <div class="object-left"> <p class="illustration" style="width:106px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/innovation/images-divers/milpix110/544616-1-fre-FR/milpix110_multiuploadthumbnail.jpg" width="100" height="75" alt="" title="" /> </span> </p></div> </h3><p>Si des applications visant la reconnaissance de visages ont pu voir le jour au tournant des années 2000, il faudra en revanche attendre une dizaine d’années supplémentaires pour être en mesure d’identifier des objets plus complexes. Par exemple, la start-up Inria <a href="http://www.milpix.com/fr/" target="_self">Milpix</a>, créée en 2007, exploite des travaux précurseurs de l’équipe <a href="/domaines/perception-cognition-interaction/vision-perception-et-interpretation-multimedia/lear" target="_self">Lear</a>&nbsp;dans le domaine de la reconnaissance d’objets. Cette jeune société réalise des applications permettant, en prenant la photo d’un objet, livre ou affiche de cinéma, d’avoir accès sur le web à des informations complémentaires concernant l’objet, comme les boutiques où l’on peut acheter ce livre ou les cinémas jouant le film présenté sur l’affiche. Une application similaire est proposée depuis peu par Google Goggles.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc563931_2_1" id="eztoc563931_2_1" class="anchor"></a><h4>ET DANS 20 ANS ?</h4><p>«&nbsp;Il y a encore beaucoup à faire&nbsp;! C’est en effet un réel défi que de faire apprendre aux ordinateurs des modèles visuels pour l’ensemble des classes et catégories existantes à partir d’énormes quantités d’images et de vidéos disponibles aujourd’hui. En particulier, les techniques d’apprentissage doivent évoluer afin d’obtenir des outils capables de traiter de très grandes bases de données et ceci de façon faiblement supervisée. Il faut aussi développer des méthodes actives de recherche dans ces bases, afin de dégager des informations pertinentes pour la construction des modèles par apprentissage. Je suis convaincue que l’approche «&nbsp;apprentissage&nbsp;» doit progresser conjointement avec la modélisation visuelle des données.&nbsp;»</p> </div> </div> Des personnages virtuels de plus en plus réalistes http://www.inria.fr/centre/grenoble/actualites/des-personnages-virtuels-de-plus-en-plus-realistes Fri, 12 Oct 2012 10:34:48 GMT ]]> <p>Le film d’animation traduit bien les avancées des recherches en informatique graphique. L’industrie du cinéma suit en effet de très près la conception des nouveaux outils dans ce domaine et participe aux mêmes conférences. Les innovations sont donc traduites immédiatement dans un film qui fait figure de démonstrateur. Très visibles dans l’animation, ces nouvelles technologies ont aussi une place de choix dans les simulateurs médicaux et le prototypage industriel.</p> <p>Témoignage de <strong>Marie-Paule Cani</strong>, responsable de l’équipe <a href="https://team.inria.fr/imagine/" target="_self">Imagine</a>.</p> <p>Le film d’animation Avatar illustre ce que l’on sait faire aujourd’hui de mieux en création de personnages de synthèse&nbsp;: ils sont tellement réalistes qu’ils interagissent avec des personnages réels sans qu’on puisse les en distinguer&nbsp;! Il y a vingt ans, il était tout simplement impossible de faire un film avec des personnages virtuels. Le premier personnage animé au cinéma a été produit par Pixar en 1986. Il s’agissait d’une lampe de bureau, et ce n’est pas un hasard&nbsp;! Pour animer un personnage 3D, il faut calculer une nouvelle géométrie tous les trentièmes de seconde pour donner l’illusion du mouvement, mais il est impossible d’agir directement sur les éléments qui composent la surface du personnage. Il faut passer par un modèle à couches (squelette, peau, éléments spécifiques comme le visage ou la chevelure, les vêtements) qui doivent chacune être crédibles ou expressives pour pouvoir être utilisées en animation, et qui soulèvent chacune des défis particuliers. Ces verrous ont suscité beaucoup de travaux depuis le début des années 1990 et n’ont pas tous été résolus simultanément.</p> <a name="eztoc563629_1" id="eztoc563629_1" class="anchor"></a><h3>Un réalisme qui progresse par petites touches.</h3> <div class="object-left"> <p class="illustration" style="width:206px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/corps/real-virtual-dress_medium.jpg/563657-1-fre-FR/real-virtual-dress_medium.jpg_medium.jpg" width="200" height="150" alt="Real Virtual Dress" title="Real Virtual Dress" /> </span> <span class="legende"> Adaptation automatique d'un vêtement à une nouvelle morphologie. Confection-test sur une poupée par une ingénieure de l'équipe ! - <cite>© Inria/Imagine et Laboratoire Jean Kuntzmann</cite> </span> </p></div> <p>La reconstruction du mouvement du squelette a fait un grand bond en avant lorsque la technique de capture du mouvement sur de vrais acteurs a supplanté, à partir des années 2000, les techniques manuelles d’interpolation et les approches par simulation. Notre équipe a contribué pour sa part aux autres couches du personnage 3D. A partir de 2003, nous avons développé des logiciels permettant d’ajouter du réalisme à la peau en faisant en sorte qu’elle puisse bouger, se déformer et faire des plis. C’était un perfectionnement du procédé de smooth skinning, inventé au début des années 1990, qui permettait d’habiller le squelette d’une peau lisse, plutôt que par des volumes rigides liés aux os qui avaient cours jusqu’alors. Nous avons également réalisé les premiers modèles dynamiques permettant de restituer l’épaisseur d’une chevelure animée (2002, 2006) et contribué à la prise en compte des vêtements, dont les plis et les collisions sont très complexes à simuler. En particulier, nous avons permis la synthèse de vêtements 3D à partir de croquis 2D (2007), l’ajout de plis dynamiques en temps-réel (2010) et le transfert de vêtements d’un personnage à un autre, en s’adaptant automatiquement au nouveau gabarit (2012). Un autre aspect important en animation de personnages est la simulation de leur comportement, pour permettre l’animation de foules de plusieurs milliers de personnes, comme dans l’Attaque des clones. L’équipe <a href="/domaines/perception-cognition-interaction/interaction-et-visualisation/bunraku" target="_self">Bunraku</a>, à Inria Rennes, s’est particulièrement illustrée sur cette question.</p> <p>Toutes ces avancées ont également bénéficié d’apports d’autres disciplines. Par exemple, des techniques sophistiquées d’animation ont été développées à partir de modèles anatomiques, mus selon des modèles bio-mécaniques. Cette approche, partagée avec les médecins, a été utilisée pour réaliser certains personnages d’Avatars.</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>Le graphisme et l’animation 3D ne servent pas qu’au cinéma&nbsp;!</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <div class="object-right"> <p class="illustration" style="width:206px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/corps/real_vitual_hair-medium.jpg/563661-1-fre-FR/real_vitual_hair-medium.jpg_medium.jpg" width="200" height="150" alt="Modélisation de chevelure" title="Modélisation de chevelure" /> </span> <span class="legende"> Modélisation de chevelures. Les étudiantes de l'équipe ont aussi servi de modèle. - <cite>© Inria/Imagine et Laboratoire Jean Kunzmann</cite> </span> </p></div> <p>Durant les 10 dernières années, les besoins de l’industrie du cinéma en simulation de personnages 3D ont souvent rejoint ceux d’autres domaines et leurs travaux se sont mutuellement enrichis. C’est ainsi que les recherches sur la chevelure se sont développées à l’interface de l’animation et des besoins en prototypage de l’industrie de la cosmétique&nbsp;: le premier modèle de chevelure réaliste, dit en hélice, réalisé par Florence Bertails et Marie-Paule Cani, a bénéficié de nombreuses données sur la dynamique des cheveux grâce à un contrat avec L’Oréal pour mettre au point un modèle destiné au test virtuel de nouveaux produits. </p> <p> Les simulations poussées du corps humain trouvent pour leur part de nombreuses applications en médecine. La construction de modèles virtuels, dits patient-spécifiques, ouvre des perspectives, en particulier, dans la planification des opérations, dans l'assistance du geste opératoire et dans la formation à la chirurgie (dissection virtuelle). Inria développe la plateforme Sofa dans ce but. A Grenoble, le laboratoire d'Anatomie et l’Inria viennent de mettre en place une plateforme de capture des mouvements anatomiques destinée à la recherche clinique et à l’enseignement.<br /> De même les travaux sur les vêtements intéressent des entreprises de la mode, et les simulations de foule, proposées aujourd’hui par la Start-up Inria Golaem, peuvent intéresser des acteurs de domaines très variés, que ce soit&nbsp;pour simuler l’évacuation d’espaces publics (SNCF, architectes), ou pour s’entraîner en vue d’interventions dangereuses (pompiers, police, armée).</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc563629_1_1" id="eztoc563629_1_1" class="anchor"></a><h4>ET DANS 20 ANS ?</h4><p><strong>Marie-Paule Cani</strong>, ancien Director at Large au sein du comité exécutif d'ACM SIGGRAPH, la manifestation de référence du domaine.</p> <div class="object-left"> <p class="illustration" style="width:86px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/autres-formats/mp_cani-portrait.jpg/563641-1-fre-FR/mp_cani-portrait.jpg_medium.jpg" width="80" height="120" alt="M-P Cani" title="M-P Cani" /> </span> </p></div> <p>«&nbsp;Mon rêve pour le loisir numérique serait que chacun soit capable de créer, d’habiller et d’animer sa propre créature virtuelle, pour la faire évoluer dans une histoire. Ce serait une façon très créative de jouer. Pour cela il faut développer notamment des outils capables de générer des personnages 3D habillés à partir de simples croquis et de déformations intuitives, sans avoir à apprendre le maniement complexe des interfaces actuelles. Nos travaux visent aujourd’hui la conception de ces outils intuitifs permettant de créer de la géométrie, du mouvement et du contenu narratif. Je pense que c’est un domaine qui est amené à se développer.&nbsp;»</p> </div> </div> Création d'Inria Futurs, incubateur des centres de Bordeaux, Lille et Saclay http://www.inria.fr/centre/lille/actualites/creation-inria-futurs Thu, 11 Oct 2012 18:14:34 GMT ]]> <p>Le premier janvier 2002 est créé Futurs, la sixième unité de recherche d'Inria. Son ouverture anticipe le développement de l'institut dans les années qui suivront. Cette nouvelle unité de recherche possède une particularité : alors que les cinq premiers centres sont situés sur des zones géographiques limitées, les équipes de Futurs s'implanteront sur les campus universitaires de Bordeaux-Talence et de Lille-Villeneuve d'Ascq, ainsi que sur le plateau de Saclay...</p> <p><a href="http://web.archive.org/web/20021226011526/http://www.inria.fr/actualites/futurs.html" target="_blank">En savoir plus</a></p> Deux équipes de recherches créées http://www.inria.fr/centre/lille/actualites/premieres-equipes-de-recherche Thu, 11 Oct 2012 12:00:41 GMT ]]> <p>En 2003, deux équipes de la jeune unité de recherche Inria Futurs sont localisées à Lille : il s'agit de d'<a href="http://www.inria.fr/equipes/alcove" target="_blank">Alcove</a>&nbsp;et de <a href="http://www.inria.fr/equipes/jacquard" target="_blank">Jacquard</a>. Ce sont les deux premières équipes projets affiliées au centre de Lille qui verra le jour en 2008.</p> <p>2003 marque également le recrutement du premier membre du personnel administratif.</p> Les chercheurs à la rencontre des élèves de la région http://www.inria.fr/centre/lille/actualites/chercheurs-itinerants-2012 Tue, 9 Oct 2012 15:37:12 GMT ]]> <p> A l'occasion de la Fête de la science, les chercheurs partagent leurs connaissances et interviennent dans les établissements du Nord-Pas de Calais du lundi 08 au vendredi 12 octobre.<br /> Au programme : un partage de connaissances sur des sujets qui les passionnent et enrichissent d'ores et déjà notre quotidien.</p> <p>C'est hier que les chercheurs du centre Inria Lille - Nord Europe ont entamé leur périple scolaire. L'objectif de cette démarche ? Profiter de la Fête de la Science pour aller rencontrer les élèves dans leurs établissements scolaires et partager avec eux leur passion pour la recherche en sciences du numérique.</p> <p>Qu'est ce que le génome&nbsp; et comment le décode t-on ?&nbsp; Comment fonctionne les puces électroniques et quel usage en fait-on ? Un bel exemple de sujets que des chercheurs du centre vont partager avec des élèves de tous niveaux.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc562687_1" id="eztoc562687_1" class="anchor"></a><h3>Chercheurs itinérants 2011</h3><p>La session 2011 a été couronnée de succès :</p> <ul> <li>Quatre jours d'interventions, </li> <li>1650 élèves touchés, </li> <li>Plus de soixante conférences.</li> </ul> </div> </div> Bernard Chazelle : " L’algorithmique est le fondement des sciences du 21è siècle " http://www.inria.fr/actualite/actualites-inria/bernard-chazelle-au-college-de-france Tue, 9 Oct 2012 15:18:52 GMT ]]> <p>Bernard Chazelle, professeur d’informatique à l’université de Princeton, sera le quatrième titulaire de la chaire &quot;Informatique et sciences numériques&quot;. Il donnera neuf cours sur l’algorithmique et les sciences du 18 octobre à fin décembre. Rencontre.</p> <a name="eztoc562668_1" id="eztoc562668_1" class="anchor"></a><h3>Vous êtes un des pionniers de la géométrie algorithmique. Racontez-nous votre parcours.</h3><p><strong>Bernard Chazelle :</strong>&nbsp;J’ai effectivement eu la chance de faire la deuxième thèse au monde en géométrie algorithmique, deux ans après celle, fondatrice, de Michael I. Shamos. J’ai longtemps travaillé sur la complexité algorithmique qui s’intéresse aux ressources en temps et mémoire nécessaires au calcul.&nbsp; Depuis quelques années, ce sont les algorithmes naturels qui me passionnent, autrement dit issus de la nature, ceux qui permettent d’analyser les vols d’oiseaux, l’écologie, le comportement des bactéries ou encore les relations sur Internet par exemple dans les réseaux sociaux. Je mène un travail théorique sur ces sujets, mais aussi appliqué, notamment sur les protéines avec des bioinformaticiens.</p> <a name="eztoc562668_2" id="eztoc562668_2" class="anchor"></a><h3>Sur quoi porteront vos cours ?</h3><p><strong>B. C. :</strong>&nbsp;Pour la plupart d’entre nous, les algorithmes sont avant tout des outils, des suites d’instructions pour résoudre un problème. Je voudrais évoquer deux aspects moins connus, pourtant très porteurs. Le premier concerne ce qui est à mon sens la problématique la plus importante des 30 dernières années en informatique théorique : la façon dont l’algorithmique remet en cause, bouleverse notre façon de penser, notamment sur la notion de preuve. On le voit dans des domaines très concrets comme la sécurité sur le web, un problème quotidien autant au niveau des individus que des entreprises ou des Etats. En tentant par exemple de prouver l’identité d’une personne, l’algorithmique remet en question beaucoup de certitudes, soulève de nombreux paradoxes sans parler des aspects philosophiques. Le deuxième aspect que je compte détailler est un thème majeur de ma recherche et de mes cours cette année. C’est pour moi un des grands enjeux de l’informatique du XXIème siècle : c’est l’idée que les algorithmes forment le langage naturel de la science du monde vivant, le seul capable de rendre compte de sa complexité descriptive. Les algorithmes restent bien sûr utiles à la simulation numérique mais ils constituent aussi un puissant outil analytique : de même qu’on étudie des équations avec d’autres équations, il s’agit d’apprendre à étudier les algorithmes avec des algorithmes. &nbsp;</p> <a name="eztoc562668_3" id="eztoc562668_3" class="anchor"></a><h3>Ce serait avant tout une question de langage ?</h3><p><strong>B. C. : </strong>Oui ! Jusque là, les mathématiques se sont attelées, avec succès, à décrire la complexité de phénomènes physiques avec une concision incroyable : une dizaine d’équations différentielles expliquent presque tous les phénomènes physiques de notre environnement quotidien ! Mais les équations butent pour résoudre les problèmes « descriptivement complexes » comme les processus hors équilibre du monde vivant, les plus courants, où chaque agent se comporte individuellement et en fonction des autres. Il manque une théorie généraliste qui, à mon avis, ne peut être écrite que dans le langage des algorithmes.</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>Le grand défi est que biologistes, physiciens et informaticiens travaillent ensemble pour bâtir des ponts entre l’algorithmique et les processus du monde vivant.</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <a name="eztoc562668_4" id="eztoc562668_4" class="anchor"></a><h3>Sur quelles bases la construire ?</h3><p><strong>B. C. : </strong>Hormis les principes simples du néodarwinisme, la biologie n’a pas, à proprement parler, de théorie -&nbsp; en tout cas rien de comparable à la physique. Le grand défi est que biologistes, physiciens et informaticiens travaillent ensemble pour bâtir des ponts entre l’algorithmique et les processus du monde vivant. Ceci requiert des changements à la fois éducatifs et culturels. Je collabore sur ces deux fronts avec des physiciens et des biologistes à l’université de Princeton et à l’Institute for Advanced Study.</p> <a name="eztoc562668_5" id="eztoc562668_5" class="anchor"></a><h3>Quel est votre regard sur le paysage informatique français ?</h3><p><strong>B. C. : </strong>La France a une véritable culture informatique qui lui est propre. La meilleure au monde dans certains domaines comme les langages de programmation, les assistants de preuve ou l’analyse numérique. Toutefois, malgré quelques îlots d’excellence, le pays n’a pas vraiment pris le virage algorithmique et accuse un certain retard dans ce domaine. Contrairement à ce qu’on pourrait penser, les choses changent en France en ce moment et il y a lieu d’être optimiste.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc562668_6" id="eztoc562668_6" class="anchor"></a><h3>Biographie </h3><p>Bernard Chazelle, diplômé de l’école des Mines de Paris et titulaire d’un PhD de Yale, est depuis 1986 professeur à l’université de Princeton, où il occupe la chaire Eugene Higgins d’informatique. Il est directeur du Centre NSF d’Intractabilité Computationnelle. Il a été professeur invité à l’École normale supérieure (ENS), l’École Polytechnique, l’Université Paris-Sud, et Inria. Il a longtemps été consultant à Xerox PARC, DEC SRC, et NEC Research. Il est, ou a été, membre du conseil scientifique de l’ENS Ulm, de l’Ecole Polytechnique, de l’Institut Henri Poincaré, et de l’Universite Tsinghua de Pekin. Il est membre de l’Académie Américaine des Arts et des Sciences et de l’Académie Européenne des Sciences, Fellow de ACM, Guggenheim, et lauréat de plusieurs prix de l’association de Mathématiques, SIAM.</p> </div> </div> Exposition 10 ans du centre Inria Lille - Nord Europe http://www.inria.fr/centre/lille/actualites/exposition-10-ans-du-centre-inria-lille Tue, 9 Oct 2012 11:02:43 GMT ]]> <p>A l'occasion de l'inauguration de son second bâtiment, le centre Inria Lille - Nord Europe revient sur les étapes qui ont jalonné sa création depuis 10 ans. Tous les jours, jusqu'au 23 octobre, découvrez le parcours du centre, de son incubation jusqu'à nos jours.</p> Comment se faire oublier sur Internet ? http://www.inria.fr/actualite/actualites-inria/se-faire-oublier-sur-internet Tue, 9 Oct 2012 09:35:59 GMT ]]> <p>« Plutôt que de parler de droit à l’oubli sur Internet, on devrait plutôt parler du droit au contrôle », explique Claude Castelluccia, de l’équipe de recherche Planete&nbsp;(Protocoles et applications pour l'Internet), à Inria (Grenoble et Sophia Antipolis). De ce point de vue, toute personne amenée à publier des données sur Internet devrait avoir la possibilité ultérieure de les modifier ou de les effacer. Est-ce possible ?</p> <p>Pas si simple, répond <a href="http://planete.inrialpes.fr/~ccastel/" target="_blank">Claude Castelluccia</a>&nbsp;lors de son interview à <a href="http://interstices.info/jcms/i_60787/a-propos-du-droit-a-loubli-sur-internet" target="_blank">Interstices</a>&nbsp;: « les données peuvent être sauvegardées dans différents endroits et <a href="/actualite/actualites-inria/le-green-it-se-refugie-au-nord" target="_self">différents pays</a>. Il manque un <strong>cadre juridique</strong>&nbsp;clair. Et rien n’empêche techniquement l’éditeur du site de copier et republier des données effacées. À Inria, nous travaillons à la recherche de solutions techniques ».</p> <p>Dans de nombreux pays, les législateurs et les associations se mobilisent pour que des cadres juridiques satisfaisants soient imposés, à terme. « En attendant, un rôle important peut être joué par l’éducation et la formation du public. Il faut savoir que publier sur Internet, c’est prendre le risque de ne plus pouvoir modifier ou effacer ses données. On doit en particulier expliquer aux plus jeunes que sur <strong>Facebook</strong>, par exemple, ces dangers existent : quelques années plus tard, on peut regretter d’avoir publié telle ou telle photo », souligne Claude Castelluccia. Dans ce but, on peut citer l’initiative récente de publier des « <a href="http://www.netpublic.fr/2012/09/guides-de-responsabilite-sur-les-reseaux-sociaux/" target="_blank">guides de responsabilité sociale</a>&nbsp;sur Internet », à Québec.</p> <p>La recherche de solutions techniques apparaît comme un défi mais la demande sociétale est forte. « Une solution serait de pouvoir attribuer une certaine <strong>durée de vie</strong>&nbsp;à une donnée numérique. Ce délai passé, la donnée pourrait s’effacer automatiquement ou devenir inaccessible. On pourrait choisir d’afficher telle photo d’anniversaire pendant seulement 24 heures, par exemple », poursuit Claude Castelluccia.</p> <p>Il existe trois solutions techniques intéressantes pour gérer ces données éphémères. <a href="http://vanish.cs.washington.edu/" target="_blank">L’université de Washington</a>&nbsp;a proposé un système reposant sur le <strong>chiffrement&nbsp;</strong>de la donnée grâce à une clé, enregistrée sur un réseau pair à pair. Passé un certain délai, la clé pourrait s’effacer rendant impossible la lecture des données liées. « Mais des travaux ont montré qu’on pouvait très facilement casser cette solution », prévient Claude Castelluccia. Autre solution, cette fois payante, proposée par <a href="http://arxiv.org/abs/1112.2649" target="_blank">l’université de Saarland</a>&nbsp;en Allemagne : le stockage de clés de chiffrement&nbsp;sur des serveurs sécurisés, associé à un service de suppression de ces clés assuré par le prestataire. «&nbsp;Cette solution est proposée par une start up : on ne voit pas sur quelles bases un utilisateur pourrait lui accorder toute confiance, d’autant qu’elle repose sur un petit nombre de serveurs », remarque Claude Castelluccia.</p> <p>La troisième approche est celle d’Inria. Elle repose sur un système de <strong>serveurs distribué</strong>, d’échelle mondiale, le <a href="http://fr.wikipedia.org/wiki/Domain_Name_System" target="_blank">DNS</a>. Celui-ci est habituellement utilisé pour attribuer à un nom de domaine (l’adresse d’un site web, par exemple) une adresse IP (sorte de « numéro d’immatriculation » unique). « Notre solution consiste à utiliser ce mécanisme de cache du DNS pour sauvegarder la clé de chiffrement&nbsp;des données. En lui-même, le système du DNS est éprouvé et robuste, et le déploiement de la solution serait rapide et économique », souligne Claude Castelluccia.</p> <p>Appelée <strong>Owner Centric Networking</strong>&nbsp;(OCN), cette technologie Inria permet aux utilisateurs de contrôler les données qu’ils publient. Car ce contrôle n’est pas habituel : si vous envoyez un fichier (via un email, par exemple), sur l’ordinateur d’une autre personne, vous en perdez la maîtrise. « Avec OCN, l’idée est de déposer ce fichier sur un <strong>serveur intermédiaire</strong>. Le destinataire pourra le consulter (via un lien envoyé par email), tandis que l’émetteur pourra en garder le contrôle (c’est-à-dire l’effacer ou le modifier quand bon lui semble) », explique Claude Castelluccia. Ce serveur intermédiaire peut appartenir à l’émetteur ou faire partie d’un réseau pair à pair. « Certes, cette solution n’empêche pas le destinataire de faire une copie du fichier ainsi publié. Mais si on fait l’hypothèse que ce destinataire n’est pas mal intentionné, ce qui est le cas général, le fichier reste sous le contrôle de l’émetteur », précise Claude Castelluccia.</p> <p>Par nature, les données numériques restent effectivement copiables... Mais un système comme OCN a le mérite de redonner un bon niveau de contrôle à l’émetteur d’informations puisque, au lieu d’en fournir une copie, il en donne la voie d’accès... qu’il peut couper à tout instant. Tout en conservant la possibilité de mettre à jour cette donnée quand il le jugera nécessaire. Comme le souligne Claude Castelluccia : « par défaut, un tel système préserverait la vie privée. À Inria, nous travaillons sur l’adaptation des logiciels de messagerie, notamment, à ce principe de gestion du lien vers la donnée plutôt qu’à l’expédition de celle-ci. Rien n’empêche d’imaginer son application prochaine à Facebook&nbsp;!&nbsp;».</p> Inria fête la science partout en France http://www.inria.fr/actualite/actualites-inria/fete-de-la-science-2012 Mon, 8 Oct 2012 15:24:54 GMT ]]> <p>Du 10 au 14 octobre, partez à la découverte du monde numérique à l'occasion de l'édition 2012 de la Fête de la science. Découvrez le programme des animations et toutes les informations pratiques pour venir nous rencontrer. </p> Des métadonnées pour mieux comprendre le passé http://www.inria.fr/centre/saclay/actualites/des-metadonnees-pour-mieux-comprendre-le-passe Fri, 5 Oct 2012 18:17:07 GMT ]]> <p>En 2014 aura lieu le centenaire de la Première Guerre Mondiale. Mais comment commémorer un tel événement avec des éléments historiques dispersés à travers toute l’Europe, sans qu’un travail exhaustif d’historiens ait pu être mis en place ? Laurent Romary nous explique avec le projet CENDARI comment les sciences du numérique peuvent apporter une solution à ce problème et servir l’ensemble des sciences humaines.</p> <a name="eztoc562086_1" id="eztoc562086_1" class="anchor"></a><h3>Pouvez-vous nous expliquer ce qu’est CENDARI et quel est votre objectif ?</h3><p> CENDARI est un projet européen qui renforce la <strong>collaboration entre chercheurs en sciences du numérique et historiens</strong>, avec pour objectif la mise en réseau des fonds d’archives répartis sur le continent européen. Cette initiative s’intègre plus généralement dans le projet d’infrastructure DARIAH qui vise à <strong>échanger autour des méthodologies et outils au service des sciences humaines</strong>. Inria en est partie prenante car j’en suis l’un des trois co-directeurs.<br /> CENDARI est centré sur la thématique de l’histoire, avec comme sujets la <strong>période médiévale et celle de la Première Guerre Mondiale</strong>. Pour ces deux époques, les historiens ont du mal à accéder à des données d’archives qui sont réparties un peu partout sur le territoire européen. Ils sont confrontés à deux problèmes. Tout d’abord, une très grande diversité des fonds documentaires, par exemple pour la Première Guerre Mondiale : posters, affiches, archives audio, vidéos, livres, objets, artefacts, costumes, cartes… Tous ces matériaux sont éparpillés un peu partout en Europe : en France bien sûr mais aussi en Serbie, en Pologne, en Russie…<br /> Tout le continent européen a été impacté donc c’est un peu partout que peut se faire ce travail de mémoire. Le deuxième obstacle est l’inégalité de connaissances des fonds disponibles. On connaît très bien par exemple les archives fédérales allemandes qui ont des descriptifs très précis, quand au contraire on ne sait quasiment rien des archives en Serbie. Le point positif est que l’on peut s’inspirer de bonnes initiatives un peu partout en Europe, comme le Manuscriptorium médiéval de la Bibliothèque nationale tchèque qui est un très bon exemple, pour pouvoir les reproduire ailleurs.</p> <a name="eztoc562086_2" id="eztoc562086_2" class="anchor"></a><h3>Concrètement, qu’est-ce que cela apporte aux autres chercheurs ?</h3> <div class="object-right"> <p class="illustration" style="width:266px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/saclay/actualites-images/saclay_premiere_guerre_mondiale_195x260/562045-1-fre-FR/saclay_premiere_guerre_mondiale_195x260_xml_small.jpg" width="260" height="347" alt="" title="" /> </span> <span class="legende"> Archives de l'Imperial War Museum </span> </p></div> <p> Notre but est de <strong>mettre les sciences du numérique au service des autres sciences</strong>, ici des sciences humaines et sociales. L’idée est de permettre à un chercheur d’<strong>être connecté à l’ensemble des données européennes pour pouvoir chercher une information</strong>&nbsp;sur un lieu particulier, sur une période précise, ou encore un personnage. Pour la Première Guerre Mondiale, on doit pouvoir retracer l’itinéraire d’un général russe à une certaine période, ou connaître le mode de vie des habitants d’un village autour de Verdun pendant le Chemin des Dames. On peut faire la même transposition dans la période médiévale pour comprendre comment une personne a pu se retrouver citée dans plusieurs parchemins en Europe.<br /> Pour cela, nous combinons deux thématiques complémentaires d’Inria. De mon côté, je m’occupe de la <strong>modélisation des métadonnées associées aux archives</strong>. Un fonds documentaire n’est exploitable que s’il est décrit de façon précise, c’est ce que l’on appelle les métadonnées. Je travaille pour que ces descripteurs qui vont identifier les contenus des archives soient intégrés dans un répertoire unifié où toutes les données sont normalisées : identifier les lieux, les personnes, etc. de façon harmonisée. Là encore, deux problématiques se posent. En premier lieu, qu’est-ce que l’on décrit, à quel niveau de granularité arrive-t-on : une région, un lieu, un lieu-dit... Ensuite, comment décrire de façon harmonisée des éléments si différents ? Des standards internationaux comme le <em>Text Encoding initiative (TEI)</em>&nbsp;ou <em>Encoding Archival Description (EAD)</em>&nbsp;sont utilisés pour décrire par exemple une vidéo, en mettant les bonnes « balises » sur le descriptif. En exploitant cette masse d’informations et en l’intégrant dans une énorme base de données, on parviendra ainsi à une extraction automatique d’informations. Le deuxième volet du travail d’Inria, dirigé dans ce projet par Jean-Daniel Fekete de l’équipe Aviz, est la <strong>visualisation de ces informations</strong>. En effet, face à un tel nombre de données, il est essentiel de pouvoir faire une recherche intelligente dans ces éléments, de permettre par une interface intuitive de filtrer automatiquement sur une période, sur un espace, sur un événement particulier.</p> <a name="eztoc562086_3" id="eztoc562086_3" class="anchor"></a><h3>Comment votre travail pourra-t-il servir d’autres chercheurs en sciences humaines ?</h3><p> La Commission Européenne nous a orientés sur un travail en histoire sur le Moyen-Âge et la Première Guerre Mondiale car cela nous permettait de commencer à travailler sur des exemples précis. Nous mettons les historiens dans une démarche de recherche sur le système que nous avons construit, et grâce à leurs retours nous pouvons savoir si l’interface est trop simple ou au contraire trop complexe, comment la faire évoluer, comment ils s’y retrouvent. Nous observons comment par exemple ils cherchent des corrélations de présence de deux personnes dans un même lieu, ou comment ils peuvent mettre en parallèle une décision militaire avec des actions sur le terrain. Cela nous permet d’affiner le modèle avant un élargissement, car bien sûr nos <strong>outils génériques d’exploration de fonds de données peuvent s’appliquer à d’autres périodes, et aussi à d’autres domaines en sciences humaines que l’histoire</strong>.<br /> À l’heure actuelle,&nbsp; pour les deux périodes qui nous sont confiées, nous nous concentrons sur une identification exhaustive des archives disponibles au niveau européen, un recueil maximal d’informations et un travail de standardisation optimal de ces données sur lesquelles nous testons nos méthodes. En parallèle, nous allons lancer un travail en commun avec deux autres projets liés à DARIAH, EHRI sur l’holocauste et ARIADNE sur l’archéologie. Nos méthodes de travail se rejoignent même si elles s’adressent à des communautés de recherche différentes. <strong>Comme l’intégration des données européennes dans un seul espace informationnel est un travail de longue haleine, nous souhaitons dès maintenant lancer des ponts entre nos expertises</strong>&nbsp;pour ne pas attendre la finalisation de nos projets au bout des 4 ans.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc562086_4" id="eztoc562086_4" class="anchor"></a><h3>&quot;Un haut lieu de mémoire dans l'environnement numérique&quot;</h3> <div class="object-left"> <p class="illustration" style="width:76px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/saclay/actualites-images/saclay_emiliano_degl_innocenti_70x110/562223-1-fre-FR/saclay_emiliano_degl_innocenti_70x110_medium.jpg" width="70" height="110" alt="" title="" /> </span> <span class="legende"> <cite>© Lorenza Tromboni</cite> </span> </p></div> <p><strong>Emiliano Degl'Innocenti, spécialiste des sciences humaines dans le monde numérique, responsable du laboratoire multimédia et numérique de la Società Internazionale per lo Studio del Medioevo Latino (SISMEL, organisation internationale d'étude de la culture latine médiévale) et de la Fondazione Ezio Franceschini (FEF, fondation Ezio Franceschini)</strong></p> <p>En tant que médiéviste et historien de la philosophie, je suis fasciné par l'histoire de la mnémotechnique dans le but de gérer la <strong>quantité croissante de données et de connaissances</strong>&nbsp;(impossible à gérer par un individu avec sa propre mémoire uniquement) à l'aide de moyens artificiels. La longue histoire du Moyen-Âge occidental est ponctuée de nombreuses tentatives visant à augmenter la mémoire naturelle de l'homme grâce à des systèmes de mémoire artificielle. J'ai également remarqué que nombre de nos attentes et attitudes, relatives aux informations et à l'environnement numériques dans leur ensemble, sont liées aux mêmes besoins que ceux inhérents à la gestion d'une grande quantité d'informations de plus en plus complexes.</p> <p>Finalement, en tant que chercheur dans le domaine des sciences humaines numériques, je constate chaque jour, et ce depuis des années, le fossé qui sépare les différentes sciences humaines (par ex. les médiévistes) avec leurs propres traditions, contenus et attentes, des spécialistes de l'informatique. De par sa nature et ses objectifs, je pense que CENDARI est l'emplacement idéal pour <strong>développer un type de collaboration tout aussi inédit qu'efficace</strong>&nbsp;entre les spécialistes des sciences humaines (historiens, archivistes, bibliothécaires, etc.) et les spécialistes de l'informatique. Depuis la phase de lancement du projet CENDARI, des spécialistes issus de disciplines informatiques et traditionnelles sont censés travailler en étroite collaboration et partager du contenu, des flux de tâches et des objectifs afin de créer une expérience totalement nouvelle pour les utilisateurs désireux d'effectuer des recherches dans l'environnement numérique. Je ne cesse de penser, en particulier pour les études médiévales, que pour modifier radicalement les méthodes de recherche, il nous faut basculer d'une ère centrée sur les bases de données à un nouveau genre de noosphère numérique. Des données davantage interopérables, l'annotation et l'intégration sémantiques avec différentes sources, la création de systèmes complexes de gestion des connaissances : <strong>un haut lieu de mémoire dans l'environnement numérique pour gérer, améliorer et préserver notre héritage culturel, avec la sensibilité des philosophes médiévaux et les outils de l'ère numérique</strong>.</p> </div> </div> La flotille de robots Cartomatic remporte le défi Carotte 2012 http://www.inria.fr/centre/nancy/actualites/l-equipe-maia-remporte-un-defi-robotique Thu, 4 Oct 2012 18:13:17 GMT ]]> <p>Cinq équipes participaient au défi Carotte (CArtographie par ROboT d'un &nbsp;TErritoire) lancé en 2010 et dont la troisième et dernière épreuve se déroulait du 4 au 8 juin 2012 à Bourges. Le projet Cartomatic, réunissant des chercheurs d’Angers et de Nancy, a remporté le défi.</p> <p>Entretien avec François Charpillet, responsable de l’équipe-projet Maia.</p> <p><strong>En quoi consiste le défi&nbsp;Carotte ?</strong></p> <p>Le Défi Carotte est un projet scientifique initié par l’Agence nationale de la recherche (ANR) et la Direction générale de l’armement (DGA). Son objectif consistait à développer<strong>&nbsp;</strong>un système robotisé autonome capable de fournir<strong>&nbsp;</strong>une cartographie 2D et 3D, accompagnée d'annotations sémantiques, d’un espace inconnu.<strong>&nbsp;</strong>Les cinq équipes sélectionnées pour ce projet ont travaillé pendant trois ans. &nbsp;Chaque, année l’ensemble des équipes se sont réunies à Bourges afin de présenter et confronter leurs résultats à l’occasion d’une épreuve organisée par la DGA. Les trois épreuves se sont déroulées &nbsp;dans un environnement de type appartement de 120m2.</p> <p><strong>Quelle solution avez-vous adopté?</strong></p> <p>Notre équipe étant spécialisée dans les systèmes multi-agents, &nbsp;nous avons opté pour une plateforme robotique comportant cinq robots. Notre objectif était de faire la démonstration de la supériorité de plusieurs «&nbsp;petits robots&nbsp;» simples par rapport à un robot sophistiqué. Nos robots, des MiniRex (mini robot d’exploration), ont été conçus et fabriqués par les chercheurs du Laboratoire d’ingénierie des systèmes automatisés de l’université d’Angers. &nbsp;</p> <p><strong>Quelle singularité, votre système a t il présenté pour lui permettre de remporter le défi?</strong></p> <p>Sans aucun doute, la fiabilité offerte par l’utilisation d’une flottille de robots a permis de distinguer notre projet. Cette solution nous avait pénalisé les années précédentes car il fallait résoudre des problèmes complexes de coordination entre les robots. Par exemple, lorsque plusieurs robots tentaient de passer une même porte ensemble ils se gênaient et ne pouvaient entrer dans la pièce&nbsp;! Ces problèmes de coordination ayant été résolus, le système s’est avéré plus rapide et efficace pour cartographier l’ensemble de l’environnement. Les informations sont également plus précises les perceptions des différents robots étant partagées. Au final, le système s’est révélé plus fiable que celui des autres équipes&nbsp;: ainsi, si un robot est défaillant que ce soit en raison d’une panne ou d’une difficulté, les autres robots sont prévenus et se réorganisent pour achever la mission en toute sécurité</p> <p><strong>Quel intérêt ce type de défi présente-t-il&nbsp;pour vous ?</strong></p> <p>Cette démarche est assez différente de nos recherches habituelles. D’ordinaire, on se focalise sur un problème précis, que l’on étudie scientifiquement en profondeur. Ici, l’effort a davantage porté sur l’intégration de différentes méthodes et techniques et l’expérimentation&nbsp; d’un système conçu de A à Z. Cette démarche est très intéressante car elle invite à &nbsp;réunir efficacement science et technologie.</p> <p>Au-delà de l’aspect scientifique, j’ai beaucoup apprécié l’émulation que ce projet a suscitée au sein de l’équipe mais aussi les nombreux échanges que nous avons pu avoir avec les autres équipes concurrentes. Une fois par an, pendant une semaine, les expériences sont partagées. C’est très instructif et fructueux en même temps.</p> <p><strong>Quelles applications pourraient découler aujourd’hui de ces travaux ?</strong></p> <p>Les pistes sont réelles. De grands groupes s’intéressent aux technologies de cartographie en vue de réaliser des services de localisation pour des espaces intérieurs, ou pour offrir la possibilité de se promener de façon virtuelle dans des centres commerciaux, des musées, etc. La DGA s’intéresse de son côté à cette question pour l’exploration de terrains dangereux. On pourrait aussi imaginer utiliser cette technologie pour d’autres applications encore : explorer des ruines après un séisme par exemple. A plus long terme, on pourrait concevoir des robots pour assurer des tâches logistiques dans les hôpitaux. Des robots «&nbsp;compagnons&nbsp;» pourraient &nbsp;améliorer l’autonomie des personnes âgées ou handicapées à domicile, en leur prodiguant des services.</p> <div class="highlight_box"> <div class="highlight_content"> <p>&nbsp;<strong>Le jour J</strong></p> <p>Carotte est un projet ANR conçu en partenariat avec la DGA. Comme tout projet scientifique, il se déroule sur 3 ans. Une singularité&nbsp; le caractérise : les résultats doivent être présentés tous les ans, expérimentalement à Bourges au sein d’un espace dédié aménagé pour l’occasion par la DGA. L’expérimentation dure une semaine, pendant laquelle une arène est réservée aux tests libres pratiqués par les équipes en fonction des informations délivrées aux participants. Le premier jour est dédié à l’installation des stands, la présentation des équipes et du défi ainsi qu’à la vérification de la conformité des systèmes robotisés. Le second jour est dévolu à l’étude des objets qui devront être reconnus et aux tests libres. Le troisième jour est dédié à une épreuve scientifique, consistant pour les candidats à présenter au jury les caractéristiques de leur système robotique. Le quatrième jour concerne une épreuve blanche, déterminant l’ordre de passage pour l’épreuve finale qui se déroule le cinquième jour.</p> </div> </div> Les techniques de reconnaissance vocale permettront-elles un jour de donner une empreinte vocale ? http://www.inria.fr/centre/nancy/actualites/l-empreinte-vocale-realite-ou-fiction Thu, 4 Oct 2012 15:22:29 GMT ]]> <p>On cherche depuis longtemps à confondre ou disculper des accusés via l’enregistrement de leur voix. Malgré les progrès considérables en modélisation de la parole, on est néanmoins très loin de pouvoir identifier avec certitude des voix. Yves Laprie, responsable de l’équipe-projet &nbsp;Parole (Inria Nancy - Grand Est) fait le point sur les techniques de reconnaissance vocale, leurs utilisations et les recherches de son équipe.&nbsp;</p> <a name="eztoc561280_1" id="eztoc561280_1" class="anchor"></a><h3>Où en est-on en matière de reconnaissance vocale?</h3><p>Le principal domaine d’application concerne la reconnaissance automatique de la parole. Les premiers systèmes datent de la fin des années 1970. C’est aussi à cette époque que les recherches se sont multipliées. Une des premières applications concerne la dictée, toujours très utilisée dans certaines professions. Mais c’est l’application la plus récente qui est la plus célèbre : il s’agit du système Siri qui permet aux iPhone de répondre à des questions formulées à haute voix. Preuve que les techniques de reconnaissance automatique de la parole ont considérablement progressé en 40 ans, même si c’est encore loin d’être parfait. Parallèlement, les recherches sur l’identification de la voix ont aussi bien avancé mais le taux d’erreur reste de l’ordre de quelques pourcents dans le meilleur des cas, inacceptable notamment en matière judiciaire (voir encadré).</p> <a name="eztoc561280_2" id="eztoc561280_2" class="anchor"></a><h3>Comment modélise-t-on la parole&nbsp;?</h3><p>Principalement par modélisation statistique à partir d’une base de données de parole, une technique postulée au début des années 1980. En pratique, on enregistre maintenant plusieurs milliers d’heures de parole de centaines voire de milliers de locuteurs dans une langue, à la radio ou au téléphone. Cette énorme base de données est annotée, c'est-à-dire transcrite dans la langue étudiée, par exemple en français. On utilise ensuite un système de reconnaissance de la parole pour la découper en sons afin de réaliser un nouvel apprentissage, de meilleure qualité. Chaque son est représenté sous la forme d’un automate caractérisé par la probabilité d’un état en fonction des états précédents et la &nbsp;probabilité d’émission d’un vecteur acoustique, sorte d’image acoustique de 20 à 30 millisecondes de signal sonore. Grâce aux capacités de stockage et à la puissance des ordinateurs qui ont démultiplié les possibilités de traitement numérique, ces approches statistiques sont de plus en plus correctes.</p> <a name="eztoc561280_3" id="eztoc561280_3" class="anchor"></a><h3>De telles modélisations sont-elles utilisables pour identifier une voix&nbsp;?</h3><p>Absolument pas. Comme on le voit la qualité de la base de données conditionne très fortement les résultats. Dès que les conditions de prise de son s’éloignent de celles utilisées pour enregistrer la base de données, les résultats se dégradent très fortement.&nbsp; Par exemple le système Siri a été paramétré sur des voix enregistrées par téléphone, proches des conditions d’utilisation de l’application. Un enregistrement d’aujourd’hui comparé à de vieux enregistrements serait donc inexploitable. Qui plus est, ces techniques sont inutilisables avec de courts enregistrements. D’ailleurs, de nombreuses campagnes&nbsp; d’évaluation ont été menées depuis les années 1990 pour utiliser la voix comme information biométrique, au même titre que l’empreinte digitale ou l’iris&nbsp;: elles se sont toutes soldées par un échec. Alors même que le locuteur était coopératif.</p> <a name="eztoc561280_4" id="eztoc561280_4" class="anchor"></a><h3>D’autres techniques permettront-elles un jour de définir une empreinte vocale, unique&nbsp;?</h3><p>Peut-être mais sans doute plutôt avec une autre technique - la modélisation physique de la parole - et probablement pas avant 10 ou 20 ans. Cette technique, basée sur la modélisation géométrique du conduit vocal en trois dimensions (mesuré par exemple par Imagerie par résonnance magnétique (IRM)) couplé à un modèle biomécanique de la langue, est de plus en plus étudiée. Elle permettrait peut-être d’identifier les particularités d’articulation et de prononciation de chacun, en tirant parti des puissances de calcul désormais disponibles. Mais beaucoup de difficultés restent à résoudre notamment quant à la pertinence des données du conduit vocal à retenir et à la complexité des algorithmes de biomécanique</p> <a name="eztoc561280_5" id="eztoc561280_5" class="anchor"></a><h3>Sur quoi travaille l’équipe Parole&nbsp;?</h3><p>Sur la reconnaissance de la parole et la traduction, par exemple pour l’apprentissage des langues en identifiant avec des modèles statistiques les problèmes de prononciation et d’intonation de personnes qui ne s’expriment pas dans leur langue maternelle. Nous travaillons aussi sur la traduction automatique à partir de bases de données et de modèles de langage. Ou encore sur la transcription de journaux diffusés sur la radio ou la TV, une technique efficace pour archiver et rechercher des documents, y compris à partir de noms propres. Une partie de l’équipe travaille par ailleurs sur «&nbsp;l’inversion acoustique-articulatoire&nbsp;»&nbsp;pour chercher à retrouver la forme du conduit vocal et de l’articulation d’un locuteur à partir de son enregistrement. Une solution dans l’apprentissage des langues pour montrer à l’élève comment articuler pour prononcer le son recherché ou en couplant cette synthèse vocale avec une image synchrone du visage pour avoir des systèmes plus réalistes.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc561280_6" id="eztoc561280_6" class="anchor"></a><h3>Identifier la voix du corbeau&nbsp;?</h3><p>28 ans après l’assassinat du petit Grégory, une nouvelle expertise basée sur la reconnaissance vocale a été récemment ordonnée. Les enregistrements des voix du corbeau et celles des différents protagonistes de l'affaire telles qu'elles ont été recueillies par les journalistes de l'époque à la radio ou à la télévision, seraient comparées. Les gendarmes de l'Institut de recherche criminelle de la gendarmerie nationale (IRCGN) considèrent que «<em>&nbsp;que l'expertise peut être tentée malgré les difficultés de faisabilité&nbsp;</em>».&nbsp; L'IRCGN aurait fait savoir que cela pouvait donner des résultats exploitables, selon l’avocat des parents Villemin, maître Thierry Moser. «&nbsp;<em>Cela me parait hautement improbable, rétorque Yves Laprie. Les techniques de reconnaissance vocale, même si elles ont beaucoup progressé, manquent toujours de fiabilité. Et compte tenu de la mauvaise qualité de ces vieux&nbsp; enregistrements, de l’impossibilité de réenregistrer les protagonistes encore vivants à l’identique notamment à cause du&nbsp; vieillissement, une telle identification est encore plus douteuse. Pour l’heure, de telles expertises ne me paraissent pas raisonnables dans un contexte judiciaire</em>&nbsp;» conclue-t-il.</p> </div> </div> Fête de la science 2012 : Analyse de l’image et interaction avec un monde 3D http://www.inria.fr/centre/rennes/actualites/fete-de-la-science-2012 Thu, 4 Oct 2012 12:57:25 GMT ]]> <p>À l’occasion de la Fête de la science 2012, le Village des sciences, qui se tiendra à la salle Paul Janson à Cesson-Sévigné, accueillera le stand du centre Inria Rennes – Bretagne Atlantique les vendredi 12, samedi 13 et dimanche 14 octobre. Quatre équipes de recherche présenteront leurs travaux sur ce stand autour de la thématique «&nbsp;Analyse de l’image et interaction avec un monde 3D&nbsp;».</p> <p>L’image et les mondes 3D sont mis à l’honneur cette année au stand Inria ! Les chercheurs de 4 équipes du centre vous présenteront les dernières technologies mises au point chez Inria Rennes dans ce domaine au travers de différentes démonstrations.</p> <ul> <li><a href="/domaines/perception-cognition-interaction/vision-perception-et-interpretation-multimedia/texmex" target="_self">TexMex</a>&nbsp;: un moteur de recherche d’image par l’image.
</li> <li><a href="/domaines/perception-cognition-interaction/interaction-et-visualisation/vr4i" target="_self">VR4I</a>&nbsp;: une illustration des mondes 3D interactifs.
</li> <li><a href="/domaines/perception-cognition-interaction/vision-perception-et-interpretation-multimedia/sirocco" target="_self">Sirocco</a>&nbsp;: création d’image 3D à partir d’une image 2D.</li> <li><a href="/domaines/reseaux-systemes-et-services-calcul-distribue/reseaux-et-telecommunications/dionysos" target="_self">
Dionysos</a>&nbsp;: une sonde de mesure automatique de la qualité de la vidéo.</li> </ul> <p>La Fête de la science est l'occasion de fêter toutes les sciences et d'associer les chercheurs, enseignants, entreprises, musées, associations... pour partager avec tous les publics des démonstrations, expériences, animations, visites, conférences, jeux...
Le Village des sciences de Rennes est organisé par le centre de culture scientifique et technique, l'Espace des sciences.</p> <p> <strong>Programme&nbsp;:</strong><br /> Vendredi (réservé aux scolaires)&nbsp;: 9h – 18h<br /> Samedi&nbsp;: 14h – 19h<br /> Dimanche&nbsp;: 14h – 19h</p> Thierry Priol, directeur des partenariats européens http://www.inria.fr/actualite/actualites-inria/nomination-de-thierry-priol Wed, 3 Oct 2012 10:40:41 GMT ]]> <p>Thierry Priol a été nommé directeur des partenariats européens à compter du 1er octobre 2012. Il était jusqu'alors directeur scientifique adjoint auprès de la direction de la recherche et de la direction des partenariats européens en charge du domaine &quot;réseaux, systèmes et services, calcul distribué&quot;. Il succède ainsi à Jean-Pierre Banâtre. </p> Des milliards d’objets dans le web diffus... http://www.inria.fr/actualite/actualites-inria/des-milliards-d-objets-dans-le-web-diffus Tue, 2 Oct 2012 18:12:40 GMT ]]> <p>En 2020, le nombre d’objets communicants approcherait des 24 milliards, contre 9 milliards dénombrés en 2011. Pas étonnant que «The Internet of the things» soit le thème choisi pour la prochaine édition de&nbsp;LeWeb 2012 à Paris ! Déjà, des chercheurs en informatique posent les bases d’un dialogue efficace entre les objets et nous. Un dialogue qui passera massivement par le web ou ses outils, pour constituer un nouveau monde : l’Internet des objets. Ou ce qu’il est convenu d’appeler le web diffus...&nbsp;</p> <p>Pour imaginer notre proche avenir, celui d’une <a href="http://room.sfrbusinessteam.fr/article/promesses-reelles-linternet-objets" target="_blank">communication avec les objets</a>&nbsp;et entre eux, il faut rapprocher quatre évolutions techniques majeures. D’abord, la montée en puissance et la <strong>miniaturisation</strong>&nbsp;des objets numériques, associée à la baisse de <strong>leur coût de production</strong>. Pour exemple, nos smartphones ont plus de puissance qu’un PC d’il y a 10 ans, et on en trouve désormais plus en Chine qu’aux États-Unis... Ensuite, le <strong>réseau Internet</strong>&nbsp;et télécom mondial se développe à une vitesse foudroyante. Quant aux smartphones et autres <strong>objets communicants</strong>, ils deviennent capables de « percevoir » leur environnement, grâce aux capteurs les plus divers (micros, capteurs d’image, accéléromètres, GPS, thermomètres, détecteurs de présence...). Enfin, les informations accessibles par Internet connaissent une véritable explosion (<a href="http://fr.wikipedia.org/wiki/Big_data" target="_blank">big data</a>).</p> <p class=" text-left">« Ces quatre éléments ouvrent un champ d’applications potentielles immense, que l’on appelle <strong>l’informatique diffuse</strong>. Mais il n’y a pas encore de convergence entre ces 4 éléments d’un point de vue industriel », souligne <a href="http://www-sop.inria.fr/members/Manuel.Serrano/" target="_blank">Manuel Serrano</a>, directeur de l’équipe de recherche <a href="http://www.inria.fr/equipes/indes" target="_self">Indes</a>&nbsp;(Informatique Diffuse et Sécurisée), à Inria-Sophia Antipolis. Quelques réalisations partielles, notamment en <a href="http://www.paroles-experts.fr/articles-solutions-internet/decryptage-internet/410-les-objets-connectes-zoom-sur-la-domotique.html" target="_blank">domotique</a>&nbsp;n’en illustrent que les premières possibilités... Car les difficultés techniques sont nombreuses ! «Si j’entre dans votre salon avec mon smartphone, il ne pourra généralement pas envoyer directement mes photos sur votre téléviseur : il ne « sait » même pas qu’il existe et quelles sont ses possibilités », explique Manuel Serrano pour ne donner qu’un exemple de cette « tour de Babel » que devient notre environnement quotidien, peuplés d’<strong>objets numériques incompatibles.</strong></p> <p>En fait, le web diffus semble même carrément hostile ! Surtout si on le compare à l’univers discipliné de l’informatique classique, telle qu’on la voit fonctionner dans des environnements industriels et professionnels où la compatibilité règne. Si l’informatique classique force le milieu à s’adapter - <strong>l’informatique diffuse doit s’adapter au milieu</strong>, tel qu’il est. « Ce qui impose de s’adapter à une chute de débit quand il pleut, ou quand un utilisateur s’éloigne, ou quand un appareil électrique perturbateur s’allume », remarque Manuel Serrano « le challenge est donc de concevoir des programmes qui sauront s’adapter aux conditions défavorables ! »</p> <p><strong>&nbsp;</strong></p> <div class="highlight_box"> <div class="highlight_content"> <p><strong>Et HOP... c’est programmé !</strong></p> <div class="object-left"> <p class="illustration" style="width:206px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/le-saviez-vous/images-corps/objets-connectes/560686-1-fre-FR/objets-connectes_medium.jpg" width="200" height="150" alt="Objets connectés" title="Objets connectés" /> </span> <span class="legende"> <cite>© Inspirestock/Corbis pour Corbis </cite> </span> </p></div> <p>Pour écrire un logiciel adapté à l’informatique diffuse, par exemple une application domotique, il y a désormais deux méthodes. La méthode classique consiste à écrire plusieurs programmes, un pour chaque élément (smartphone, chaudière, etc.), dans des langages différents. L’autre méthode repose sur <strong>un seul programme, écrit dans seul langage</strong>&nbsp;: le langage <a href="http://hop.inria.fr/" target="_blank">HOP</a>, inventé par l’équipe de recherche Indes&nbsp;(Informatique Diffuse et Sécurisée), dirigée par Manuel Serrano&nbsp;à Inria-Sophia Antipolis.</p> <p>« Un programme écrit en HOP se récrit lui-même pour s’adapter à chaque machine de la chaîne à contrôler », explique Manuel Serrano. Open source&nbsp;et conçu pour le <strong>web 2.0</strong>, ce langage en unifie les principales technologies : une application déjà écrite en HTML5 ou en Javascript sera réutilisable avec HOP, sans adaptations. « Nous avons placé l’effort d’adaptation du côté de HOP qui est en quelque sorte un <strong>sur-ensemble des langages et outils web</strong>. En prenant en compte l’ensemble des contraintes de sécurité qui s’imposent dans ce domaine où co-existent des données privées et publiques ».</p> <p>Avec HOP, il a été notamment démontré qu’on pouvait créer simplement des applications communicante domotiques, ou des applications multimédia similaires à iTune d’Apple, mais qui ne se limitent pas à l’environnement Apple et tourne aussi avec un environnement Androïd, un PC et une chaine hifi par exemple. « Nous voulons <strong>maintenant mêler le monde de la robotique et celui de l’informatique diffuse</strong>, ce qui pourrait donner des applications industrielles intéressantes. Autant de nouveaux problèmes, certains bien connus par les spécialistes de l’open data, comme passer d’un modèle « donnée » à un modèle « flux » afin de tenir compte de l’actualisation de cette donnée, une contrainte typique du web d’aujourd’hui&nbsp;</p> </div> </div> L'essor et l'accessibilité du calcul distribué http://www.inria.fr/centre/grenoble/actualites/l-essor-et-l-accessibilite-du-calcul-distribue Mon, 1 Oct 2012 17:52:03 GMT ]]> <p>En 10 ans, le calcul distribué sur plusieurs processeurs, c'est à dire le calcul parallèle en général, a pu se développer avec les avancées de l'algorithmique pour ce domaine. Le calcul distribué est en effet aujourd’hui utilisé dans les applications touchant la physique, la bio-informatique ou la recherche de données par des moteurs de recherche de type Google pour améliorer leurs performances. Il se loge également dans les Ipad qui, avec leurs quatre cœurs, constituent déjà une machine parallèle.</p> <p><strong>Témoignage de Frédéric Desprez</strong>&nbsp;<strong>et Yves Robert</strong>, chercheurs en algorithmique et intergiciels de calcul réparti. </p> <p>Le but de nos recherches est de trouver des algorithmiques suffisamment génériques pour effectuer des caculs sur des modèles d’architectures variés, non spécifiques à un type de réseau ou à un nombre de processeurs.</p> <p>Aujourd’hui, nous atteignons la limite des performances des ordinateurs car il devient trop difficile d'améliorer les composants sans que cela soit très coûteux. Une solution consiste donc à faire travailler les processeurs en parallèle pour les appllications qui nécessitent des calculs complexes et performants.</p> <p>Dans cette démarche, le défi principal de la fin des années 1980, a d'abord consisté à montrer qu’un assemblage de plusieurs ordinateurs pouvait fonctionner ensemble. La progression vers cette démonstration de l’algorithmique pour le calcul distribué n'a pas été rapide et régulière ! Toutes les sociétés impliquées dans ce domaine dans les années 1990 ont fait faillite, car le marché de l’époque n’était qu’une niche. Les réseaux n’étaient pas aussi performants pour permettre des calculs à distance et, surtout, le parallélisme était réservé à la simulation numérique dans des grands centres de calculs nationaux. C'était vraiment une démarche de précurseur car, à l’époque, les composants continuaient de s’améliorer.</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>Le cloud computing et les machines Exascale prennent le relai.</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <div class="object-right"> <p class="illustration" style="width:206px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/autres-formats/grappe-pc/561344-1-fre-FR/grappe-pc_medium.jpg" width="200" height="133" alt="" title="" /> </span> <span class="legende"> La grappe de PC conçue par HPLaboratories Grenoble et Inria en 2001 - <cite>© Inria / Photo R. Lamoureux </cite> </span> </p></div> <p>Une des voies de développement du calcul distribué réside dans le cloud computing. Certes très commercial aujourd’hui, il soulève toutefois de nombreux axes fondamentaux de recherche. Nous y travaillons depuis quelques années au sein d’Inria, particulièrement sur la gestion dynamique des ressources, la virtualisation, le stockage, et la gestion de l’énergie car des centaines de milliers de processeurs multi-cœurs doivent travailler efficacement et simultanément ensemble. Ce modèle va plus loin que la simulation numérique «&nbsp;classique&nbsp;» avec des applications dans tous les domaines. Il faut cependant être capable de gérer l’échelle de ces plateformes, leur dynamique et enfin les quantités de données à traiter.</p> <p>Un autre axe de recherche réside dans les machines Exascale (10^18 opérations/seconde) qui devraient voir le jour d’ici 2020. Nous disposons déjà de systèmes dans lesquels plusieurs milliers de processeurs réalisent chacun un milliard d’opérations/seconde. Mais nous voyons encore plus grand et souhaiterions atteindre un milliard de milliards d’opérations/seconde, voire plus. Cependant de nombreuses problématiques seront à résoudre&nbsp;car le développement de nouveaux algorithmes pouvant fonctionner pour ces processeurs en parallèle, requiert de tolérer les pannes inexorables de certains composants, et accroît mécaniquement la consommation d’énergie.</p> <div class="highlight_box"> <div class="highlight_content"> <p><strong>ET DANS 20 ANS ? </strong></p> <div class="object-left"> <p class="illustration" style="width:73px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/autres-formats/frederic-desprez-portrait_small.jpg/560294-1-fre-FR/frederic-desprez-portrait_small.jpg_small.jpg" width="67" height="100" alt="Frédéric Desprez" title="Frédéric Desprez" /> </span> </p></div> <p><strong>Frédéric Desprez, </strong>directeur de Recherche Inria, équipe <a href="/domaines/reseaux-systemes-et-services-calcul-distribue/calcul-distribue-et-applications-a-tres-haute-performance/avalon" target="_self">Avalon </a></p> <p>« Mon rêve reste de collaborer avec des chercheurs d’autres disciplines, de participer à des transferts vers l’industrie et comme toujours d’explorer des nouvelles voies et algorithmes qui auront peut être des applications dans un futur lointain » </p> <br class="clear" /> <div class="object-left"> <p class="illustration" style="width:73px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/autres-formats/yves-robert-portrait_small.jpg/560298-1-fre-FR/yves-robert-portrait_small.jpg_small.jpg" width="67" height="100" alt="Yves Robert" title="Yves Robert" /> </span> </p></div> <p><strong>Yves Robert, </strong>professeur à l’Ecole Normale Supérieure de Lyon, équipe <a href="/domaines/reseaux-systemes-et-services-calcul-distribue/calcul-distribue-et-applications-a-tres-haute-performance/roma" target="_self">Roma</a></p> <p>« C'est une chance de pouvoir travailler dans un domaine dont les avancées ont un réel impact. Ceci dit, j'aimais autant l'algorithmique parallèle quand elle ne servait à rien&nbsp;! Mon plus grand espoir est que la recherche fondamentale continue à être soutenue et financée par Inria et les autres institutions.» </p> </div> </div> Les calculs sur ordinateurs de plus en plus fiables et sûrs http://www.inria.fr/centre/grenoble/actualites/les-calculs-sur-ordinateurs-de-plus-en-plus-fiables-et-surs Mon, 1 Oct 2012 16:58:07 GMT ]]> <p>Il est devenu indispensable aujourd’hui d’étudier la façon dont on représente les nombres sur les ordinateurs, la façon dont on effectue les opérations arithmétiques et tous les problèmes qui en découlent. Nous devons maîtriser les erreurs provoquées par ces calculs et réaliser les opérations le plus rapidement possible et avec une fiabilité extrême. Ceci est important parce que tous les calculs numériques sur ordinateur sont construits à partir de quelques opérations mathématiques et toute erreur dans ces opérations peut agir sur l’ensemble des calculs.</p> <p><strong>Témoignage de Jean-Michel Muller,</strong>&nbsp;directeur de recherche au CNRS et membre de l’équipe <a href="/domaines/algorithmique-programmation-logiciels-et-architectures/algorithmique-calcul-certifie-et-cryptographie/aric" target="_blank">Aric</a>.</p> <p>La manière dont on représente les nombres sur les ordinateurs a une importance primordiale pour des applications critiques comme les avions, car toute erreur peut agir sur l’ensemble des calculs avec des répercutions qui peuvent être catastrophiques. Le travail des 20 dernières années sur ce sujet aboutit aujourd’hui à des applications de plus en plus fiables et sûres.</p> <p> Même lorsqu'on se contente de jouer sur un ordinateur ou une console de jeux, la machine effectue de très nombreuses opérations arithmétiques. Une erreur, dans ces cas là, ne sera pas forcément bien grave. Par contre, le calculateur de bord d'un avion ou le système de pilotage d'un métro automatique, qui eux aussi effectuent de nombreuses opérations, n'ont pas droit à l'erreur. C’est un problème qui s’est révélé crucial (ou dont on a pris pleinement conscience) en 1994 avec le bug de Pentium. C'est probablement cette erreur dans un algorithme de division qui a conduit Intel et d'autres constructeurs à proposer des preuves formelles des algorithmes arithmétiques des processeurs qui ont suivi, comme par exemple l'Itanium). </p> <div class="object-right"> <p class="illustration" style="width:206px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/chapo/iphone/560410-1-fre-FR/iphone_medium.jpg" width="200" height="150" alt="IPhone" title="IPhone" /> </span> <span class="legende"> <cite>© Inria / Photo H. Raguet</cite> </span> </p></div> <p>En collaboration avec des collègues du monde entier, l'équipe <a href="/domaines/algorithmique-programmation-logiciels-et-architectures/algorithmique-calcul-certifie-et-cryptographie/arenaire" target="_self">Arénaire</a>&nbsp;a construit des algorithmes et des preuves montrant qu'il était possible de faire facilement certains calculs (par exemple les calculs de fonctions trigonométriques) avec une précision qu'on ne pensait auparavant pas pouvoir atteindre sans perdre beaucoup de temps. Cette collaboration internationale a débouché sur des recommandations, émises dans une norme qui devra maintenant être respectée par les constructeurs.</p> <p>Je suis assez satisfait du chemin que nous avons parcouru dans ce domaine, même si on espère toujours aller plus vite&nbsp;! En ce qui me concerne, mon but serait d’arriver à prédire et à garantir le comportement de programmes mathématiques complexes avec encore plus de fiabilité. C’est un travail qui requiert des équipes pluridisciplinaires. Car, au-delà de notre expertise dans la recherche arithmétique, nous avons besoin de chercheurs d’autres disciplines, en logique notamment. </p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>Les algorithmes arithmétiques se trouvent désormais partout</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p>Un des défis majeurs de ces 20 dernières années a consisté à mettre au point des algorithmes arithmétiques - par exemple des algorithmes de division, ou de calcul de fonctions trigonométriques - plus fiables, désormais déployés dans des applications quotidiennes. Par exemple, dans le cadre d’une collaboration avec le géant ST Microelectronics, certains de nos algorithmes ont été introduits dans le «&nbsp;compilateur&nbsp;» de leurs circuits. Ils sont invisibles pour l’utilisateur mais on les trouve partout, dans les lecteurs de DVD et dans les téléphones portables notamment.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc560103_0_1" id="eztoc560103_0_1" class="anchor"></a><h4>ET DANS 20 ANS ?</h4><p><strong>Jean-Michel Muller,</strong>&nbsp;directeur de recherche au CNRS et membre de l’équipe <a href="/domaines/algorithmique-programmation-logiciels-et-architectures/algorithmique-calcul-certifie-et-cryptographie/aric" target="_blank">Aric</a>.</p> <div class="object-left"> <p class="illustration" style="width:73px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/autres-formats/jean-michel-muller-portrait_small.jpg/560115-1-fre-FR/jean-michel-muller-portrait_small.jpg_small.jpg" width="67" height="100" alt="Jean-Michel Müller" title="Jean-Michel Müller" /> </span> </p></div> <p>Notre domaine va devoir s'intéresser à des calculs de plus en plus complexes, et à leur vérification. Il faudra être capable d'introduire de la rigueur là ou parfois des «&nbsp;recettes de cuisine&nbsp;» sont appliquées. Pour pouvoir s'adapter très vite (à un nouveau processeur, à de nouvelles contraintes en termes de vitesse, de précision, et de consommation d'énergie), on ne cherche plus à concevoir des «&nbsp;opérateurs arithmétiques&nbsp;», mais plutôt des «&nbsp;générateurs d'opérateurs&nbsp;», c'est-à-dire des programmes qui fabriquent des opérateurs spécialement adaptés au problème traité. Dans 20 ans, j'aimerais pouvoir monter dans un train, un avion, ou une automobile, dont l'informatique est complètement validée, du transistor au programme le plus complexe.</p> </div> </div> La Société HiKoB en démonstration sur le plateau Inria http://www.inria.fr/centre/lille/actualites/une-nouvelle-demo-sur-le-plateau-inria Mon, 1 Oct 2012 16:23:21 GMT ]]> <p>Depuis février 2010, le centre de recherche a ouvert un plateau de 175m² sur le site d’EuraTechnologies pour favoriser les relations entre équipes de recherche et entreprises. Le plateau propose notamment des démonstrateurs issus de recherche mais également de start-up Inria. A ce titre, HiKoB présente son offre gestion du trafic routier et du stationnement, de suivi du cycle de vie des structures basée sur la technologie des réseaux de capteurs.</p> <p>Fondée par une équipe de chercheurs aguerris issus d'Inria et de l’INSA de Lyon, HiKoB s’appuie sur un savoir-faire et une expertise cumulée de plus de 15 ans dans le domaine des réseaux de capteurs sans fil et une expérience plus de 2000 nœuds capteurs déployés opérationnellement.</p> <p>HiKoB fournit des systèmes d’instrumentation de nouvelle génération, sans fil, autonomes et évolutifs pour la capture d’informations liées à un environnement et à des ressources physiques et pour leur acheminement vers un système d’informations. Les solutions HiKoB sont au cœur d’applications critiques pour les infrastructures de transport, le génie civil et le bâtiment, la défense et la sécurité.</p> <p>La jeune start-up issue de la recherche publique propose des solutions innovantes d’instrumentation autonome et sans-fil ont été conçues pour tirer le meilleur parti de la technologie des réseaux de capteurs communicants :</p> <ul> <li>s’affranchir de la nécessité de câbler,</li> <li>permettre une exploitation centralisée et efficace d’informations distribuées spatialement.</li> </ul> <p>La démo HiKoB sur le plateau Inria à EuraTechnologies, met en scène l'offre et les technologies de l'entreprise de manière agréable et ludique. Venez nombreux la découvrir !</p> Medical image analysis: a subject for the future? http://www.inria.fr/centre/sophia/actualites/medical-image-analysis-a-subject-for-the-future Fri, 28 Sep 2012 17:23:44 GMT ]]> <p>We spoke to Christof Seiler, a doctoral student in the ASCLEPIOS project-team in Inria Sophia Antipolis (near Nice) and the ISTB of the University of Bern in Switzerland, whose advisors are Xavier Pennec (Inria) and Mauricio Reyes (ISTB). Christof’s research focuses on medical image analysis, and in particular analysing 3D images of human mandibles. He is presenting a paper at MICCAI 2012, for the second year running, this time on “Simultaneous Multiscale Polyaffine Registration by Incorporating Deformation Statistics”.</p> <p>Medical imaging has been around for over a hundred years now, but modern 3D techniques, such as CT scans and MRI, are a far cry from the 2D X-ray methods that were the mainstay for most of the 20<sup>th</sup> &nbsp;century. CT scans and MRI yield much more information than simple 2D scans and, as a consequence, there are vast amounts of data to analyse. The scans can also be taken over time to analyse how a patient’s situation evolves, something that introduces a temporal aspect to the images.</p> <a name="eztoc559635_1" id="eztoc559635_1" class="anchor"></a><h3>Helping medical practitioners</h3><blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>Our goal is to help medical practitioners analyse these 3D images,” explains Christof. “Instead of simply looking at the images and inferring certain details, these images can now be analysed automatically thanks to computer programmes and algorithms based on sophisticated mathematical theories.</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p>Christof’s work involves analysing images of mandibles in an effort to ultimately design better implants for patients that require reconstructive surgery. The human mandible is a complex structure that varies greatly on many length scales – from centimetres to microns. Christof and his colleagues therefore employ so-called locally affine (polyaffine) image registration methods that can pick up non-linear deformations across this range of length scales. This approach is quite different to traditional analysis techniques that rely on sequential coarse to fine registration to decipher multiscale deformations.</p> <p>The researchers analyse thousands of 2D image slices taken from around 40 patients. The models are based on statistical analysis of the images and involve a set of parameters whose correct values need to be defined. “<em>A lot of our work depends on how powerful the computer we are using is</em>,” explains Christof. “<em>Analysing the ‘answers’ produced by the computer are a challenge in itself because we need to make our results intelligible to medical practitioners, who usually have much less experience in computers or programming</em>.”</p> <a name="eztoc559635_2" id="eztoc559635_2" class="anchor"></a><h3>Interdisciplinary collaboration</h3><p>Christof says he is lucky to be studying at two different institutions at once, in Sophia Antipolis and Bern. The work is interdisciplinary and involves computer science, geometry, topology, statistics and probability theory. “<em>It is really interesting to see how much mathematics is actually involved,” </em>he says<em>, “and everyday, I have the impression of tackling and learning about a different subject, which makes my research extremely diverse</em>.</p> <p>I very much wanted to work at Inria because of this interdisciplinary aspect, and the fact that collaborations between the different disciplines are so strong here. My supervisors, colleagues and myself constantly liaise with each other and share ideas that we can all follow up afterwards, independently or as a team. It’s often hard to say who came up with such and such an idea, because we work so closely together!”</p> Glossaire de l'imagerie cérébrale http://www.inria.fr/centre/sophia/actualites/glossaire-de-l-imagerie-cerebrale Fri, 28 Sep 2012 15:00:05 GMT ]]> <p>Sylvain Merlet prépare sa thèse dans l'équipe-projet ATHENA sur le thème de l'IRM de diffusion, modalité d'imagerie particulièrement adaptée à la reconstruction in-vivo et non invasive des fibres de la matière cérébrale. Il nous propose un glossaire reprenant quelques termes propres à l'imagerie cérébrale, sujet qui fait l'objet de deux articles qu'il présentera à la conférence MICCAI 2012</p> <ul> <li> <strong>IRM de diffusion (IRMd)</strong>&nbsp;: <br /> l'IRMd est une technique non invasive d'imagerie médicale permettant de reconstituer les structures fibreuses de la matière blanche ainsi que certaines microstructures non visibles par d'autres techniques. Elle permet de détecter des anomalies de la matière blanche dont certaines pourraient être des précurseurs de maladies neuro-dégénératives comme la maladie de Parkinson ou d’Alzheimer. Plusieurs équipes de recherche se concentrent sur la recherche de bio-marqueurs permettant de diagnostiquer ces signes précurseurs. Une autre application de l’IRM de diffusion est la tractographie.</li> <li> <strong>Tractographie</strong>&nbsp;: <br /> La tractographie consiste à reconstruire, par des logiciels appropriés, la trajectoire des fibres de matière blanche à partir de l'information obtenue par l’IRMd. Ces fibres relient les zones cérébrales entre elles.</li> <li> <strong>Non invasif</strong>&nbsp;: <br /> Les techniques d'imagerie médicale non invasives, comme l'IRMd, ne nécessitent aucune injection d’agent contrastant dans le corps, à l’inverse des techniques invasives, comme la scintigraphie qui requiert l'administration d'isotopes radioactifs.</li> <li> <strong>Techniques d'apprentissage</strong>&nbsp;: <br /> Ces techniques consistent à apprendre à identifier de façon automatique les caractéristiques communes à un nombre très important de données.&nbsp; Par exemple, un algorithme d'apprentissage qui traitera un grand nombre de données cérébrales provenant d’un grand nombre de patients atteints de tumeur permettra de révéler des caractéristiques propres à cette pathologie. Ces caractéristiques pourront ensuite être utilisées pour détecter d'autres tumeurs.</li> <li> <strong>Recalage</strong>&nbsp;: <br /> En imagerie médicale, le recalage consiste à «&nbsp;superposer&nbsp;» des images médicales ayant des structures communes afin de pouvoir les comparer. Il faut pour cela que les structures apparaissant dans les images soient disposées de la même manière, soient à la même échelle, etc., ce qui n’est jamais le cas&nbsp;! On est donc amené à appliquer un certain nombre de transformations à l’une des images afin de la «&nbsp;recaler&nbsp;» sur l’autre&nbsp;: déplacement sur un des axes, changement d'échelle (grossissement, amincissement de l'image), etc. Il est alors possible de comparer des résultats de patients différents ou les images d’un patient avec une image de référence, issue d’un atlas par exemple, afin d’identifier une anomalie.</li> <li> <strong>Atlas</strong>&nbsp;: <br /> Un atlas du cerveau est un ensemble d’images du cerveau qui sert de référence. Certains atlas sont aujourd’hui numérisés afin de pouvoir comparer directement par recalage une image médicale avec une image de référence de la même zone cérébrale. L’atlas peut également être utilisé pour identifier les zones cérébrales reliées par les fibres reconstruites par tractographie par exemple. L’atlas le plus célèbre est celui décrivant les aires cérébrales sur le cortex, réalisé par Korbinian Brodmann en 1903.</li> </ul> Le développement des services en ligne http://www.inria.fr/centre/grenoble/actualites/le-developpement-des-services-en-ligne Fri, 28 Sep 2012 12:18:39 GMT ]]> <p>La recherche des 20 dernières années en infrastructure de serveur a permis l’émergence d’une activité économique intense bâtie sur le web, dont Amazon est un exemple de réussite avec un chiffre d’affaire dépassant 30 milliards de dollars. Elle a permis également l’essor actuel des sites d’information comme Wikipédia et les réseaux sociaux.</p> <p><strong>Témoignage de Jean-Bernard Stefani</strong>, responsable de l’équipe Sardes et co-fondateur du consortium ObjectWeb.</p> <p>L’avènement du web a permis d’envisager le développement de nombreuses applications web, notamment le commerce en ligne. Les services les plus populaires comptent aujourd’hui un très grand nombre d’utilisateurs et peuvent faire face à des pics importants de requêtes. Un site comme celui d’Amazon, par exemple, peut atteindre plusieurs dizaines de millions de sessions d’utilisateurs par jour&nbsp;à la période de Noël ! Traiter un tel trafic sans entraîner l’écroulement des systèmes ne va pas sans poser de nombreuses questions de recherche. Je dirais qu’au cours de ces 20 dernières années nous avons commencé à comprendre les problèmes liés à la gestion de ces très grands serveurs web et donc à savoir comment bâtir de telles infrastructures pour gérer les ressources de façon performante et évolutive. Aujourd’hui, ces serveurs sont distribués, c’est-à-dire que les différentes tâches sont effectuées sur des machines séparées, et une infrastructure logicielle permet de répartir les charges en fonction des besoins, de contrôler l’admission des requêtes pour les refuser le cas échéant, d’assurer la fiabilité du systèmes en prévoyant de basculer sur une autre machine en cas de panne, et d’exploiter les mémoires cache pour limiter le coût calcul de l’accès aux bases de données.</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>Mettre en commun les ressources pour améliorer la performance des services</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p>Depuis une dizaine d’années a émergé un autre concept, le Cloud Computing&nbsp;ou «&nbsp;calcul en nuages&nbsp;». Cela consiste à mettre à disposition (par exemple à la location) des machines sur le réseau et d’allouer ces ressources aux applications selon leur besoins, et ce de façon dynamique et automatique. Là, comme pour les serveurs distribués, la question est de savoir comment administrer de très grands ensembles de machines avec leurs applications en assurant disponibilité, fiabilité et sécurité. Le Cloud Computing&nbsp;est une approche doublement intéressante pour les entreprises qui veulent créer leur site web. Elles externalisent ainsi les coûts de gestion des machines et elles sont par ailleurs assurées de disposer de ressources qui s’ajusteront à la popularité croissante de leur site. Il est clair aujourd’hui que les infrastructures délocalisées sont amenées à se développer car elles permettent de mobiliser de grandes ressources à moindre coût. Amazon l’a très bien compris, qui a initié depuis 5 ans une offre de service Cloud, EC2.</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>Des outils pour construire des serveurs web</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <div class="object-left"> <p class="illustration" style="width:106px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/autres-formats/logo_objectweb/554146-1-fre-FR/logo_objectweb_small.jpg" width="100" height="41" alt="Logo_ObjectWeb" title="Logo_ObjectWeb" /> </span> </p></div> <p>L’équipe Sardes a beaucoup contribué au développement des infrastructures de web distribuées, notamment en créant en 2002 avec Bull et Télécom R&amp;D, le consortium international Objectweb, hébergé au centre de recherche Inria de Grenoble. Aujourd’hui le consortium accueille de nombreux partenaires académiques et industriels et a été rebaptisé OW2 suite à sa fusion avec son homologue chinois Orientware. L’objectif du consortium est de constituer un ensemble de logiciels sous licence libre permettant de construire ces grands serveurs web ainsi que des infrastructures de type Cloud. C’est une très grande satisfaction de voir des réalisations du consortium comme le serveur Jonas utilisées mondialement aujourd’hui. France Telecom / Orange, par exemple, est un grand utilisateur de&nbsp;Jonas, que ce soit pour ses plateformes de services ou son portail web notamment.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc559275_0_1" id="eztoc559275_0_1" class="anchor"></a><h4>ET DANS 20 ANS ?</h4><p><em>Jean-Bernard Stefani</em>: &quot;Le développement du Cloud Computing pose des problèmes d’administration et de gestion de ressources sans précédent par leur ampleur et qui nécessiteront de mobiliser d’autres domaines que l’informatique, comme l’automatique ou même la physique.&quot;</p> </div> </div> Des outils pour mieux tirer parti de l’imagerie cérébrale http://www.inria.fr/centre/saclay/actualites/des-outils-pour-mieux-tirer-parti-de-l-imagerie-cerebrale Fri, 28 Sep 2012 11:06:21 GMT ]]> <p>L’imagerie cérébrale a beaucoup progressé ces dernières années, fournissant des données toujours plus nombreuses et de meilleure qualité.&nbsp; Développer des outils logiciels performants et fiables pour améliorer l’exploitation de ces images est aujourd’hui une nécessité. C’est là un rôle important d’Inria. L’équipe Parietal présente 4 articles sur ce thème à MICCAI 2012 et 4 contributions à des ateliers spécialisés, sans compter une démonstration sur le stand Inria.</p> <p>Bertrand Thirion, responsable de l'équipe Parietal, Inria Saclay - Île-de-France</p> <a name="eztoc559166_1" id="eztoc559166_1" class="anchor"></a><h3>Quelles sont les grandes avancées en imagerie cérébrale de ces dernières années ?</h3><p>L’imagerie cérébrale a beaucoup progressé grâce à l’amélioration des performances des équipements et au développement de techniques d’analyse des images de plus en plus sophistiquées. L’avènement de l’IRM à haut champ permet d’obtenir de très bonnes images de l’activation cérébrale. La résolution est aujourd’hui de 1 mm alors qu’elle était de 3 mm il y a seulement 5 ans. Les données sont donc de meilleure qualité et autorisent une étude plus fine des connexions fonctionnelles entre différentes régions du cerveau.</p> <p>Cette étude est facilitée de son côté par le développement de nouvelles techniques d’analyse de ces images qui estiment des modèles de plus en plus précis des connexions corticales. Ces techniques reposent sur des méthodes de calcul assez complexes qui doivent encore être améliorées.</p> <p>Un troisième aspect important de ce domaine de recherche se développe actuellement avec l’émergence de bases de données recueillant les énormes quantités de données sur le cerveau qui s’accumulent au fil des ans. Je pense qu’un grand défi pour le futur est de créer les outils nécessaires pour gérer ces bases de données d’imagerie. </p> <a name="eztoc559166_2" id="eztoc559166_2" class="anchor"></a><h3>Quels types d’outils sont nécessaires pour exploiter ces grandes bases de données ?</h3><p> Nous avons besoin de développer des outils informatiques permettant de réutiliser ces données, par exemple pour des méta-analyses. C’est intéressant, par exemple, pour comparer des données obtenues par des protocoles différents ou bien pour combiner des données d’expériences similaires afin de confirmer un résultat ou construire des hypothèses plus précises et plus objectives. La principale difficulté associée à la réalisation de ce type d’outils est de savoir comment gérer l’information associée aux images, notamment le protocole utilisé pour leur obtention. Une fois les données organisées, les technologies d’apprentissage trouvent leur place ici en permettant d’identifier automatiquement les caractéristiques communes à un grand nombre de données. Notre équipe présente, sur le stand Inria de MICCAI, une démonstration d’un logiciel qui offre les outils nécessaires à cette approche, Scikit learn.<br /> Un autre défi pour les informaticiens est d’être capable d’utiliser des images obtenues de modalité différente (anatomiques, fonctionnelles, etc.) pour offrir une information plus complète et précise sur une partie du cerveau. Nous présentons à MICCAI un travail qui porte sur la manière de mettre en commun deux sources d’informations : l’une, fournie par l’imagerie fonctionnelle, sur la formation dynamique de réseaux d’activation, et l’autre, apportée par l’IRM de diffusion, sur les fibres reliant différentes régions du cerveau. Le but est de combiner les deux types d’image pour faire un lien entre les fibres nerveuses et les réseaux d’activation et construire ainsi un meilleur modèle. Il est aussi possible d’utiliser une modalité pour guider l’interprétation de l’autre.</p> <a name="eztoc559166_3" id="eztoc559166_3" class="anchor"></a><h3>Peut-on envisager des applications médicales de ces avancées ?</h3><p>A moyen terme, ces travaux serviront pour l’étude de cohortes de patients, par exemple pour identifier des marqueurs de risque de maladie neuro-dégénérative dans une perspective de diagnostic et de pronostic. </p> Des outils modulaires et efficaces d’aide à l’interprétation des images médicales http://www.inria.fr/centre/saclay/actualites/des-outils-modulaires-et-efficaces-d-aide-a-l-interpretation-des-images-medicales Fri, 28 Sep 2012 10:18:41 GMT ]]> <p>L’imagerie médicale, scanner ou IRM, fournit de nombreuses données mais identifier l’évolution d’une maladie ou détecter une tumeur peu évolutive n’est pas chose aisée. L’équipe Galen développe des algorithmes visant à aider les médecins à identifier ces évolutions le plus tôt possible. Un travail avant tout méthodologique que l’équipe applique avec succès à de nombreuses applications comme en témoigne la forte contribution de ces chercheurs à MICCAI’2012 ainsi qu’aux colloques précédents.</p> <p>Nikos Paragios, responsable de l’équipe Galen, Inria Saclay – Île-de-France</p> <a name="eztoc559026_1" id="eztoc559026_1" class="anchor"></a><h3>Vous présentez quatre travaux à MICCAI 2012, qu’ont-ils de commun ?</h3><p>Notre contribution à ces quatre articles est méthodologique. Nous concevons des programmes intelligents capables d’aider les médecins à mieux interpréter les données médicales pour identifier les maladies et les traiter. Depuis une dizaine d’années, nous avons développé un cadre générique d’analyse des données basé sur la théorie des graphes qui permet d’obtenir des solutions avec de bonnes propriétés en ce que concerne leur optimalité, et efficaces au niveau du temps de calculs nécessaire. Il présente aussi l’avantage de pouvoir être décliné sur des problèmes qui touchent différents types de données, de maladies ou de populations. Ces travaux ont un impact direct sur les pratiques car nous résolvons ainsi des problèmes scientifiques très proches des préoccupations cliniques et plusieurs applications ont déjà fait l’objet de transferts technologiques et sont utilisées actuellement en milieu hospitalier.</p> <a name="eztoc559026_2" id="eztoc559026_2" class="anchor"></a><h3>Deux contributions touchent en effet directement l’interprétation d’images de malades ?</h3><p>Le premier travail, réalisé en collaboration avec le CHU de Montpellier et la société INTRASENSE, concerne la détection des tumeurs cérébrales et plus particulièrement des gliomes de type II, à partir des données fournies par les images scanner ou IRM des patients. Notre approche permet de trouver les correspondances entre un cerveau malade et un cerveau sain pour détecter les anomalies, et aussi d’établir ces correspondances dans le temps pour suivre l’évolution de la tumeur. Les outils que nous avons développés aident le médecin à identifier la tumeur et à décider du moment propice pour l’intervention.</p> <p>Un second travail, effectué avec les médecins des hôpitaux Henri Mondor et de la Pitié Salpêtrière et l’institut de Myologie, applique la méthodologie des graphes à la mesure du volume musculaire de patients atteints de myopathies. Ces maladies provoquent la fonte des muscles qui sont alors remplacés par des graisses. Etablir des correspondances dans le temps entre les images scanner ou IRM, permet de suivre l’évolution de la maladie mais aussi d’identifier les muscles touchés pour mieux cibler les traitements, comme la thérapie génique.</p> <a name="eztoc559026_3" id="eztoc559026_3" class="anchor"></a><h3>Quelles sont les applications visées dans les deux autres présentations que vous faites à MICCAI ?</h3><p>L’une d’elle applique la méthodologie à des populations de cellules dans une expérience effectuée par des biologistes et des informaticiens de l’université de Houston. Dans ce cas, la théorie des graphes est utilisée pour identifier les gènes actifs dans une cellule de souris en établissant des correspondances avec un modèle de base.</p> <p>Dans le dernier travail, la part de cette méthodologie est plus congrue. Il s’agit, pour General Electric, de développer des scanners ultra rapides en adoptant un mouvement intelligent du capteur qui permette de réduire le temps d’acquisition — donc d’exposition des patients aux rayonnements — pour une même qualité de reconstruction. Pour cela, des outils sophistiqués de reconstruction ont été développés (Sparsité/ méthodes parcimonieuses) qui intègreront la théorie des graphes pour prendre en compte les mouvements du patient ou des organes comme le cœur, afin de réduire les artefacts de reconstruction.</p> Ivan Laptev : Faire progresser la vision par ordinateur http://www.inria.fr/centre/paris-rocquencourt/actualites/ivan-laptev-faire-progresser-la-vision-par-ordinateur Thu, 27 Sep 2012 11:41:27 GMT ]]> <p>Ivan Laptev est l’un des quatre candidats Inria retenus pour une subvention du Conseil européen de la recherche (CER) dans la catégorie des jeunes chercheurs. Son sujet, la «&nbsp;vision par ordinateur&nbsp;», consiste à simuler le système visuel humain au moyen d’algorithmes analysant le mouvement, détectant des événements et reconnaissant des objets dans des séquences vidéo. Il nous explique son travail plus en détail et présente quelques-unes des applications potentielles.</p> <p>Selon Ivan, «&nbsp;La vision par ordinateur est une branche de l’informatique liée à plusieurs disciplines – dont les mathématiques, les sciences cognitives, l’infographie et l’apprentissage automatique. Son objectif est d’interpréter des images et vidéos d’une façon similaire à celle du système visuel humain et donc d’élaborer des algorithmes dans ce but.&nbsp;»</p> <p>La subvention de l'ERC – 1,5&nbsp;million&nbsp;d’euros – aidera Ivan et ses collègues à approfondir leurs recherches et, en particulier, à dépasser la simple reconnaissance d’objet, pour atteindre un stade plus utile. Par exemple, dans la rue, l’algorithme conçu serait non seulement capable d’identifier les voitures et les gens comme des objets distincts mais, en plus, il pourrait prédire ce que ces objets seraient susceptibles de faire l’instant d’après. Cela par l’analyse des interactions entre les objets et le développement de modèles statistiques décrivant ces interactions.</p> <a name="eztoc558701_1" id="eztoc558701_1" class="anchor"></a><h3><strong>Élaboration de modèles statistiques</strong></h3><p>Dans l’idéal, les informations non pertinentes – ou «&nbsp;bruit&nbsp;» – seraient éliminées de la scène, de sorte à ne pas interférer avec les interprétations. «&nbsp;Nous apprendrions ce qui est pertinent en observant de nombreuses personnes interagissant avec un même objet dans des vidéos d’événements relativement prolongés – tels qu’une fête dans une maison ou le ménage dans une habitation – enregistrées par une caméra statique&nbsp;» explique Laptev. Ce type de données servirait alors à construire des modèles statistiques décrivant la façon dont les personnes interagissent typiquement avec certains objets ou dans certaines scènes. Par exemple, un modèle pour cuisine pourrait identifier une personne assise sur une cuisinière comme une chose inhabituelle et potentiellement dangereuse.</p> <p>«&nbsp;Le simple fait d’identifier les images ne suffit pas.&nbsp;» explique-t-il. «&nbsp;Nous aimerions que les ordinateurs soient en mesure d’interpréter des scènes complexes en vidéo&nbsp;; comme lorsque des gens ouvrent des portes, s’asseyent, se serrent la main et tout un tas d’autres activités, de manière à reconnaître leurs intentions et à les alerter s’ils sont sur le point de faire quelque chose d’éventuellement dangereux, à l’instar du modèle précédent. Nous aimerions aussi pouvoir leur suggérer des actions utiles qu’ils puissent accomplir dans une scène donnée.&nbsp;»</p> <a name="eztoc558701_2" id="eztoc558701_2" class="anchor"></a><h3><strong>Analyser des films et vidéos réels </strong></h3><p>Jusqu’à récemment, ces analyses n’étaient réalisées que dans des conditions précises, avec des étudiants du groupe d’Ivan jouant des rôles bien définis. Mais la recherche a désormais atteint un stade où un ordinateur peut correctement analyser de vrais films et de vraies vidéos.</p> <p>Toutefois, quelles sont les applications potentielles de cette recherche&nbsp;? «&nbsp;L’INA en France et la BBC au Royaume-Uni sont très intéressés par notre travail, car il pourrait les aider à indexer l’énorme quantité de vidéos que ces organisations ont en archive.&nbsp;» a déclaré Ivan. «&nbsp;On pourrait faire la même chose avec les vidéos de YouTube, dont le contenu augmente chaque jour.</p> <p>«&nbsp;La santé pourrait également en profiter ; par exemple en surveillant les personnes âgées afin d'éviter les accidents par la prédiction des situations dangereuses. Des caméras intelligentes à la maison pourraient aussi nous faciliter la vie&nbsp;; notamment en enregistrant où nous avons laissé nos clefs la veille au soir pour ne pas perdre de temps à les chercher le matin.&nbsp;»</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc558701_3" id="eztoc558701_3" class="anchor"></a><h3><strong>Ivan Laptev</strong>&nbsp;</h3><p>Ivan est actuellement au centre Inria Paris-Rocquencourt, une unité de l’Institut national français pour la recherche en informatique et automatique. Il travaille au sein du groupe de recherche WILLOW associé au service Informatique de l’École normale supérieure, dirigé par Jean Ponce. Il a obtenu son doctorat à l’institut royal de technologie de Stockholm, en Suède, dans le laboratoire de vision par ordinateur et perception active (CVAP).</p> </div> </div> Neuroimaging and computing for better diagnosis and treatment of Alzheimer’s disease http://www.inria.fr/centre/sophia/actualites/neuroimaging-and-computing-for-better-diagnosis-and-treatment-of-alzheimer-s-disease Thu, 27 Sep 2012 08:49:11 GMT ]]> <p>Inria is organising MICCAI 2012, the 15<sup>th</sup> &nbsp;International Conference on Medical Image Computing and Computer Assisted Intervention, which takes place from the 1st to the 5th of October. </p> <p>We spoke to Prof. Giovanni Frisoni, neurologist at IRCCS Fatebenefratelli in Italy, and Marco Lorenzi, doctoral student in the ASCLEPIOS project-team (whose advisors are Xavier Pennec and Nicholas Ayache), both of whom are presenting a paper about brain image analysis for better diagnosis and treatment of Alzheimer’s disease.</p> <p>When analysing brain images, doctors look for regions of the brain that show abnormal amounts of atrophy, which can be caused by neurodegenerative diseases like Alzheimer’s. A new computer analysis method to help better analyse these images, devised by Marco Lorenzi, is based on an existing dynamic model that now includes time-sequenced cerebral images.</p> <a name="eztoc558525_1" id="eztoc558525_1" class="anchor"></a><h3>A virtual neuroimaging laboratory</h3><p>The researchers are developing a “virtual laboratory” of sorts for imaging the brains of patients with Alzheimer’s disease. They are currently analysing around 1000 images (taken from 300 patients and 200 control subjects) but hope to have ten times as many images soon. Analyses on databases of this size require high-performance computing and a number of user-friendly algorithms.</p> <div class="object-left"> <p class="illustration" style="width:116px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/sophia-antipolis/actualites-images/corps/corps-prof-grisoni/558537-1-fre-FR/corps-prof-grisoni_xml_vignette.jpg" width="110" height="153" alt="" title="" /> </span> </p></div> <p>“<em>We can ‘see’ if a patient has Alzheimer’s by looking at the images and by using so-called imaging biomarkers</em>,” explains Prof. Frisoni. “<em>Such techniques are very recent and it will take another five years or so, we believe, before patients can routinely be diagnosed this way. There are three main biomarkers: the first is brain atrophy (which is the most dramatic phenomenon) because the tissue in some parts of the brain can shrink by up to 30%, even in the early stages of the disease. We can see this shrinking using high-resolution magnetic resonance imaging.</em></p> <p><em>The second marker is glucose hypometabolism in some brain regions, while the third is the accumulation of beta-amyloid plaques in the cortex. Both these phenomena can be seen with PET. “For instance, we can observe the plaques, thought to be the main culprit behind Alzheimer’s, by injecting small molecules into the brain that selectively bind to the amyloid.”</em></p> <a name="eztoc558525_2" id="eztoc558525_2" class="anchor"></a><h3>Better understanding Alzheimer’s disease</h3><p>Marco Lorenzi has a degree in mathematics and writes the complex algorithms and software to help doctors like Prof. Frisoni better analyse the digital brain images by focusing on the biomarkers. These algorithms will also allow researchers to understand the mechanisms behind Alzheimer’s, and in particular how the brain structure changes as the disease progresses.</p> <div class="object-left"> <p class="illustration" style="width:116px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/sophia-antipolis/actualites-images/corps/corps-marco-lorenzi/558541-1-fre-FR/corps-marco-lorenzi_xml_vignette.png" width="110" height="128" alt="" title="" /> </span> </p></div> <p>“<em>Our main challenge is that the numerical tools we develop must address the needs of doctors at all times, and the mathematics should always target the clinical problem</em>,” explains Marco. “<em>We must thus work in close collaboration and provide each other with constant feedback</em>.”</p> <p>Marco will finish his PhD by the end of this year. “<em>During my PhD, we succeeded in developing a set of instruments that have shown promising results when it comes to analysing digital brain images of Alzheimer’s disease patients</em>,” he says. “<em>These instruments are mainly based on non-rigid registration of magnetic resonance images - a computational technique for modelling the structural changes of the brain through deformations of its shape and size. In particular, we have improved how the model statistics are computed, something that will help us better understand the pathology. We have also developed different methods for interpreting the disease and for quantifying its severity in a given patient. This might help a doctor to see which of his patients has Alzheimer’s and at what stage it is, so he can take the appropriate action</em>.”</p> <a name="eztoc558525_3" id="eztoc558525_3" class="anchor"></a><h3>Avoiding costly clinical trials</h3><p>The main goals of the research are to use the software and images to help develop effective drugs that stop the progression of the disease - or better still, preventative drugs that might be given to healthy subjects.</p> <p>“<em>Pharmaceutical companies currently develop drugs by undertaking large clinical trials. In the case of Alzheimer’s, these can involve hundreds of patients that are followed over a time period of several years</em>,” explains Prof. Frisoni. “<em>This is expensive and time-consuming. By analysing a large number of images with the help of specific algorithms and by using the specific biomarkers mentioned above, we might be able to reduce the number of patients studied by ten-fold and the time span to months rather than years.”</em></p> Personnaliser les modèles du cœur pour mieux cibler les thérapies http://www.inria.fr/centre/sophia/actualites/personnaliser-les-modeles-du-caeur-pour-mieux-cibler-les-therapies Tue, 25 Sep 2012 22:12:43 GMT ]]> <p>Les maladies cardiaques sont les premières causes de décès dans le monde occidental. Depuis 10 ans, de nombreux travaux portent sur la modélisation cardiaque dans le but de mieux adapter les traitements aux patients et d’optimiser leurs effets. Un intérêt qui s'est manifesté à MICCAI par une session entière dédiée à la modélisation cardiaque et une intervention du Professeur Michel Haïssaguerre, un pionnier des thérapies cardiaques.</p> <p>Stéphanie Marchesseau, doctorante dans l’équipe ASCLEPIOS (sous la direction de Hervé Delingette et Nicholas Ayache) nous parle de ses travaux pour lesquels elle a reçu le Prix du jeune chercheur à MICCAI 2012.</p> <a name="eztoc557297_1" id="eztoc557297_1" class="anchor"></a><h3>Quels sont les enjeux médicaux associés aux recherches sur la modélisation cardiaque ?</h3><p>Cette recherche intéresse beaucoup les cardiologues car si l’on arrivait à modéliser le fonctionnement du cœur d’un patient, il serait possible d’améliorer la fiabilité des diagnostics, de prédire l’effet de différentes thérapies et d’en optimiser les effets, notamment en guidant le geste chirurgical. L’enjeu est de taille puisque, par exemple, l’Europe déplore près de 1000 morts par jour par arrêt cardiaque&nbsp;! Or, les décisions des médecins reposent aujourd’hui sur des critères largement qualitatifs et empiriques&nbsp;: la thérapie de resynchronisation du cœur par la pose d’un pacemaker n’est couronnée de succès que dans 70% des cas. Il est en effet difficile d’identifier les patients qui répondront bien à cette thérapie et, le cas échéant, de savoir où positionner l’appareil pour rétablir l’harmonie de la vague électrique régissant le cœur. L’objectif des chercheurs est d’apporter des critères quantitatifs complémentaires utiles pour guider leurs décisions.</p> <a name="eztoc557297_2" id="eztoc557297_2" class="anchor"></a><h3>Quels sont les principaux défis actuels de la modélisation cardiaque&nbsp;?</h3><p>Le principal défi actuel réside dans la personnalisation des modèles, c’est-à-dire l’adaptation d’un modèle générique, construit à partir des connaissances biologiques et physiques sur le fonctionnement du cœur, au cas particulier du patient. Cela veut dire utiliser les informations fournies par l’électrocardiogramme, la cartographie endocardique (pour les caractéristiques électriques à l’intérieur du cœur), l’échographie, les séquences d’images IRM, etc. afin d’obtenir les paramètres représentant correctement les caractéristiques physiques et géométriques de ce cœur autant que ses anomalies de fonctionnement. Les images IRM en particulier ne sont pas toujours faciles à interpréter et beaucoup de chercheurs travaillent sur la manière d’en extraire des informations quantitatives sur le mouvement du cœur et sur son anatomie, des caractéristiques indispensables pour personnaliser le modèle.</p> <p>Mais pour que ces modèles soient utiles aux médecins, il faut être en mesure d’extraire automatiquement les paramètres individuels qui assureront cette personnalisation. C’est là un versant complémentaire qui représente un enjeu à part entière.</p> <a name="eztoc557297_3" id="eztoc557297_3" class="anchor"></a><h3>Quelles sont les avancées récentes dans ce sens&nbsp;?</h3><p>En modélisation, les chercheurs Inria sont parmi les premiers à prédire avec un modèle personnalisé des résultats correspondant aux mesures effectivement réalisées par les médecins. Cela signifie que le modèle arrive à bien représenter le cœur et les maladies, que l’on est passé de l’étape de «&nbsp;chercher les paramètres&nbsp;» à celui «&nbsp;d’utiliser le modèle pour voir ce qu’on obtient en sortie&nbsp;». Bien que prometteur, ce modèle doit encore être validé sur un nombre beaucoup plus important de patients.</p> <p>Le travail que je présente à MICCAI illustre par ailleurs une avancée sur le versant de la personnalisation automatique. J’ai développé une méthode qui permet d’obtenir automatiquement de bons paramètres du fonctionnement du cœur à partir des courbes de volume et de pression de cet organe pendant les battements cardiaques. Le test réalisé sur 8 cas (6 volontaires sains et 2 patients) nous a permis de voir que ces paramètres permettaient de distinguer des personnes normales de personnes présentant une pathologie. C’est une bonne avancée pour prédire et optimiser les thérapies de resynchronisation cardiaque. D’ici quelques années par exemple, nous devrions être capable de dire où placer les pacemakers et avec quel réglage &nbsp;pour améliorer le fonctionnement du cœur, ainsi que d'automatiquement détecter ses pathologies.</p> Assises de la recherche : résultats des premières auditions http://www.inria.fr/actualite/actualites-inria/premier-retour-sur-les-auditions-des-assises Tue, 25 Sep 2012 17:05:19 GMT ]]> <p>Lancées le 11 juillet dernier par Geneviève Fioraso, la ministre de l’enseignement supérieur et de la recherche, les Assises de l'enseignement supérieur et de la recherche donnent leurs premiers résultats suite à la première phase de consultations. Le comité de pilotage a dressé un premier bilan des auditions réalisées auprès d'organisations représentatives et institutionnelles. Les consultations se poursuivent...</p> L’apparition de systèmes informatiques autorégulés et plus verts http://www.inria.fr/centre/grenoble/actualites/l-apparition-de-systemes-informatiques-autoregules-et-plus-verts Tue, 25 Sep 2012 10:06:31 GMT ]]> <p>La conception intégrée de l’automatique avec l’informatique temps réel a renouvelé la science de la régulation des systèmes,&nbsp;qu’il s’agisse d’avions, de machines outils ou d’ordinateurs. Elle est à l’origine d’une technologie invisible aux utilisateurs mais qui permet d’améliorer le contrôle, les performances et la consommation énergétique des dispositifs informatisés.</p> <p><strong>Témoignage de Daniel Simon</strong>, chercheur de l'équipe <a href="/domaines/mathematiques-appliquees-calcul-et-simulation/modelisation-optimisation-et-controle-de-systemes-dynamiques/necs" target="_self">Necs</a>, l’une des rares équipes dans le monde à travailler sur cette thématique.</p> <p>Le passage au 21e siècle s’est accompagné pour moi d’un changement radical dans la manière d’aborder la commande automatique de systèmes dynamiques. À cette époque une équipe suédoise a publié plusieurs articles précurseurs démontrant l’intérêt d’une co-conception de ces lois de commande par l’automaticien et l’informaticien temps réel. Jusqu’alors les activités de l’automaticien, pour la conception, et de l’informaticien, pour l’implémentation, étaient distinctes. L’intérêt de la nouvelle approche était de pouvoir prendre en compte très tôt les contraintes contradictoires suscitées par l’évolution de la microélectronique et de l’informatique en réseau. En particulier, les systèmes embarqués doivent être économes en énergie mais ils doivent également être fiables et robustes aux incertitudes du système et de son environnement. La co-conception permettait à la fois d’améliorer les performances de ces systèmes et de diminuer leur consommation énergétique. Comment&nbsp;? En ajustant les vitesses de calcul à la charge de travail et à la qualité des composants de silicium.</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>La conception conjointe est à l’origine de solutions originales dans des domaines d’application nouveaux</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p>La co-conception s’est avérée très fructueuse. Les commandes par rétroaction ont été introduites dans des domaines où elles n’étaient pas utilisées jusqu’à présent, par exemple pour contrôler le fonctionnement de certaines parties d’un système informatique ou encore, en électronique, pour contrôler le fonctionnement d'une puce en coordonnant les variations de la tension d’alimentation, des fréquences d'horloge et la cadence d’exécution de tâches répétitives. C’est ainsi que dans le cadre du projet Aravis coordonné par ST Microelectronics (2007-2010) — un des premiers projets industriels sur le sujet—, notre collaboration avec l’équipe Inria Sardes, TIMA et le CEA/Leti a permis de réduire jusqu'à 25% la consommation énergétique d’un décodeur vidéo. Cette prouesse a été réalisée en adaptant en temps-réel la fréquence de calcul du décodeur, et ce pour un coût négligeable&nbsp;!</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>Réguler la circulation ou les centres de données avec des lois de commande</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <div class="object-right"> <p class="illustration" style="width:206px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/le-saviez-vous/images-chapo/autoroute/527285-1-fre-FR/autoroute_medium.png" width="200" height="150" alt="embouteillage sur l'autoroute" title="embouteillage sur l'autoroute" /> </span> <span class="legende"> <cite>© digitalstock - Fotolia.com</cite> </span> </p></div> <p>L’approche intégrée automatique/informatique a donné naissance à une nouvelle génération de modèles, dits fluides, s’inspirant des modèles de mécanique des fluides utilisés, par exemple, pour modéliser l’écoulement d’une rivière. Le trafic automobile peut ainsi être modélisé comme un flux et les feux et signalisations comme des robinets qui peuvent s’ouvrir ou se fermer pour réguler le flux. La start-up Inria Karrus, créée en 2010, utilise cette approche pour proposer des systèmes de régulation de vitesse sur la rocade sud à Grenoble. Ces modèles sont également appliqués à la gestion du flot de requêtes en entrée d’un serveur informatique pour éviter son écroulement en cas de surcharge.</p> <div class="highlight_box"> <div class="highlight_content"> <p><strong>ET DANS 20 ANS ?</strong></p> <p><strong>Daniel Simon,</strong>&nbsp;chargé de recherche, équipe <a href="/domaines/mathematiques-appliquees-calcul-et-simulation/modelisation-optimisation-et-controle-de-systemes-dynamiques/necs" target="_self">Necs</a></p> <div class="object-left"> <p class="illustration" style="width:86px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/autres-formats/daniel_simon-portrait/554959-1-fre-FR/daniel_simon-portrait_medium.jpg" width="80" height="120" alt="Daniel Simon" title="Daniel Simon" /> </span> </p></div> <p>&quot;L’idée de relâcher les contraintes temps-réel dans les boucles de rétroaction rencontre encore des résistances culturelles, mais c’est une voie d’avenir et de plus en plus d’acteurs s'y intéressent. Il y a deux ans encore je ne pouvais pas imaginer que des techniques de commande robuste aux variations d'horloges puissent être acceptées en avionique, notamment du fait des problèmes de certification et d’industrialisation. Cela a été un grand bonheur pour moi de constater que des ingénieurs d’Airbus sont maintenant convaincus de leur importance pour optimiser l'informatique embarquée dans les avions, et que des applications pourraient naître dans ce domaine d’ici une dizaine d’années.&quot;</p> </div> </div> Les robots apparaissent dans l’espace de vie des humains http://www.inria.fr/centre/grenoble/actualites/les-robots-apparaissent-dans-l-espace-de-vie-des-humains Tue, 25 Sep 2012 10:01:39 GMT ]]> <p>Les robots industriels feront bientôt figure de dinosaures devant les systèmes autonomes et «&nbsp;intelligents&nbsp;» en préparation. Certains, comme les systèmes d’assistance à la conduite, les métros automatiques ou encore les robots pour les blocs opératoires sont déjà familiers&nbsp;; beaucoup d’autres sont dans les cartons, notamment dans le domaine des services et dans celui de l’assistance aux personnes âgées ou handicapées. Ces premières réalisations marquent le début d’une ère où les robots seront capables de partager l’espace de vie des humains et d’interagir avec eux d’une manière sûre et socialement acceptable.</p> <p><strong>Témoignage de Christian Laugier</strong>, responsable de l’équipe <a href="/domaines/perception-cognition-interaction/robotique/e-motion" target="_self">E-Motion</a></p> <p>Je pense qu’un changement radical s’est opéré en robotique au cours des 20 dernières années&nbsp;: nous avons dépassé le stade de la machine outils dédiée à une tâche précise dans un environnement fixe pour concevoir de plus en plus d’applications en environnement dynamique et en interaction avec des humains. C’était un objectif inenvisageable il y a vingt ans car les technologies nécessaires au niveau de l’électronique, des capteurs, de l’automatique, de la miniaturisation des composants et de l’informatique n’étaient pas suffisamment avancées. Il était en particulier utopique d’envisager la conception de systèmes de perception permettant aux robots d’appréhender en temps réel les caractéristiques essentielles de leur environnement. Il aurait été dangereux de laisser un robot fonctionner dans un environnement humain&nbsp;!</p> <div class="object-right"> <p class="illustration" style="width:206px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/chapo/robot-assistance/562158-1-fre-FR/robot-assistance_medium.jpg" width="200" height="150" alt="Robot pour assistance à la personne" title="Robot pour assistance à la personne" /> </span> <span class="legende"> Faire naviguer un robot dans un environnement réel en tenant compte de contraintes &quot;humaines&quot; - <cite>© Inria / Photo Kaksonen </cite> </span> </p></div> <p>Aujourd’hui, les systèmes autonomes ont fait leur apparition dans le quotidien avec par exemple des systèmes d’assistance à la conduite automobile de plus en plus sophistiqués, des métros automatiques, ou encore des robots dans les blocs opératoires. De nombreux travaux visent par ailleurs à concevoir des systèmes en forte interaction avec les humains, par exemple pour l’assistance aux personnes âgées ou handicapées. Je pense que ce saut qualitatif, couplé à de grandes avancées en matière de miniaturisation et d’intégration du logiciel et du matériel, ouvre la voie à l’ère de la robotique&nbsp;: les robots vont entrer dans notre quotidien de la même manière que l’ont fait les ordinateurs par le passé.</p> <br class="clear" /> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>Des systèmes qui s’inspirent aussi des modes de fonctionnement des humains</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p>Cette nouvelle perspective s’appuie sur des innovations datant de moins d’une dizaine d’années. Tout d’abord, les systèmes de perception combinent maintenant plusieurs sortes de capteurs&nbsp;(caméra, lidar, ultrasons, centrales inertielles, …), à la manière dont l’humain intègre les informations provenant de l’ensemble de ses sens. L’avantage d’un tel système (fusion des données hétérogènes) est qu’il est beaucoup moins sensible aux informations bruitées, ambiguës, voire erronées. </p> <p>Cependant, pour prendre une décision, le robot doit également considérer que le monde dans lequel il évolue est dynamique car c’est précisément l’évolution de ce monde qui va déterminer l’action. Une manière de faire est d’utiliser ce qui s’est produit juste avant, afin de prédire avec une bonne chance de ne pas se tromper ce qui va se produire ensuite. Le calcul probabiliste est à la base de ce mode de raisonnement. Cette approche permet, par exemple, de faire des prédictions relativement fiables à 3 secondes à partir des informations fournies par des capteurs fixés sur un véhicule et de quelques connaissances antérieures portant notamment sur les comportements typiques des acteurs routiers (véhicules, cyclistes, piétons). Il est alors possible de calculer en continu la probabilité que le véhicule puisse entrer en collision dans un proche futur et de lancer une alerte au conducteur ou d’opérer un freinage d’urgence le cas échéant. </p> <p>Mon équipe de recherche est l’une des pionnières de cette approche qui a débuté il y a 5-6 ans et qui a conduit à un brevet commun avec Toyota en 2010. Pour aller plus loin, il est nécessaire de peaufiner les modèles de comportement auxquels se réfère le système pour anticiper l’action. Les chercheurs tablent aujourd’hui sur les méthodes d’apprentissage automatique qui permettraient au système de s’adapter en continu à son environnement, autant physique que humain. Il reste beaucoup à faire sur le sujet&nbsp;!</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>Une conduite assistée pour un créneau assuré&nbsp;!</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <div class="object-right"> <p class="illustration" style="width:206px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/chapo/praxicar/562154-1-fre-FR/praxicar_medium.jpg" width="200" height="150" alt="Véhicule autonome Praxicar - 1996" title="Véhicule autonome Praxicar - 1996" /> </span> <span class="legende"> Véhicule autonome Praxicar en 1996 pour manoeuvres de parking automatique - <cite>© Inria / Photo A. Eidelman </cite> </span> </p></div> <p>L’équipe e-Motion est à l’origine du <a href="http://videotheque.inria.fr/videotheque/doc/408" target="_blank">premier système de parking automatique</a>&nbsp;pour voiture fondée sur le couplage de données perceptives embarquées avec un système de contrôle automatique des manœuvres nécessaires. Une démonstration sur un véhicule Ligier électrique instrumenté a été présentée à la principale conférence internationale de robotique IROS organisée en 1997 à Grenoble. </p> <p>Toyota est le premier constructeur automobile à avoir dans les années 2000 commencé à équiper ses véhicules haut de gamme avec ce type de technologie permettant de proposer une fonction évoluée d’assistance au parking. Dans cette configuration, la manœuvre est enclenchée par le conducteur et arrêtée dès qu’il lâche l’accélérateur. </p> <p>Aujourd’hui, de nombreuses voitures sont équipées de capteurs de recul ultra-sons pour prévenir d’une collision imminente lors d’une manœuvre, et les modèles haut de gamme offrent également des fonctions d’assistance active au parking.</p> <div class="highlight_box"> <div class="highlight_content"> <p><strong>ET DANS 20 ANS ?</strong></p> <p><strong>Christian Laugier,</strong>&nbsp;responsable de l’équipe <a href="/domaines/perception-cognition-interaction/robotique/e-motion" target="_self">E-Motion</a></p> <div class="object-left"> <p class="illustration" style="width:73px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/autres-formats/christian-laugier-portrait.jpg/559781-1-fre-FR/christian-laugier-portrait.jpg_small.jpg" width="67" height="100" alt="Christian Laugier" title="Christian Laugier" /> </span> </p></div> <p>La prochaine étape pour les dispositifs mobiles est d’intégrer le matériel et le logiciel car, aujourd’hui, les équipements nécessaires pour une voiture autonome prennent toute la place dans le coffre&nbsp;! A l’horizon 2020, on devrait réussir à produire des dispositifs à la fois plus performants et ayant un faible encombrement, faible poids, faible coût et étant économe en énergie. Ces avancées permettront d’envisager toutes sortes d’applications, notamment pour la sécurité dans les&nbsp; transports, la robotique domestique, l’assistance à la personne, ou encore les robots d’intervention après des accidents ou des désastres naturels.</p> <p>Par ailleurs, pour que les robots trouvent réellement leur place dans la vie quotidienne, il faut que leur comportement soit conforme aux attentes sociales et qu’il y ait une sorte de compréhension mutuelle entre le robot et l’humain&nbsp;: l’humain doit être en mesure de comprendre ce que le robot est en train de faire, et inversement le robot doit être capable d’interpréter ce que font les humains afin de pouvoir décider de quelle manière agir. Ces deux pans de l’interaction avec l’humain reposent en grande partie sur l’apprentissage et sur la modélisation des comportements et activités humaines. </p> <p>Je pense que d’ici 2020, on devrait être capable de prendre en compte certaines normes sociales, comme faire en sorte que le fauteuil roulant autonome ne passe pas entre deux personnes qui discutent ou ne pénètre pas l’espace personnel d’un humain.</p> </div> </div> Le web devient un outil universel aux fonctionnalités croissantes http://www.inria.fr/centre/grenoble/actualites/le-web-devient-un-outil-universel Tue, 25 Sep 2012 09:42:44 GMT ]]> <p>Le web a beaucoup évolué depuis l’époque où l’on pouvait consulter quelques pages écrites sans aucun contenu graphique à partir de son ordinateur. Aujourd’hui, il est possible d’éditer facilement des pages riches en style et en iconographie et d’y accéder au travers de multiples dispositifs, comme les mobiles, les tablettes ou les smart TV. Grâce à cette diversité de contenus et de terminaux d’accès, le web est devenu une véritable plateforme pour toutes sortes d’applications nouvelles.</p> <p><strong>Témoignage de Vincent Quint, </strong>coordonnateur des travaux du W3C&nbsp;sur les langages de représentation d’informations et de documents (1996-2003) et&nbsp;co-animateur du W3C TAG de 2005 à 2007.</p> <p>L’idée géniale du web était de relier le domaine des documents électroniques avec liens hypertextes et celui de l’Internet qui se développait parallèlement. Dès 1990, Tim Berners-Lee avait posé les bases du web que l’on connaît aujourd’hui avec trois apports originaux&nbsp;: un système d’adressage unique permettant de faire le pont entre des documents (url), un langage qui assure un format de document commun et accessible par toutes sortes de terminaux (html) et un protocole de transmission (http). Depuis, le travail du W3C, créé en 1994 pour fédérer les efforts de développement des technologies web, a permis d’enrichir et d’étendre le web pour créer toutes sortes de contenus et y accéder à partir de terminaux de plus en plus divers.</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>Des affichages de plus en plus riches et performants</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p>Dans ce contexte, mon équipe a largement contribué au développement d’outils permettant de créer du contenu sur le web. En particulier nous avons réalisé, dès le début des années 1990, le navigateur et éditeur Amaya qui a longtemps servi de banc d’essai et de démonstrateur pour les développements du W3C.</p> <div class="object-right"> <p class="illustration" style="width:206px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/chapo/smile_vignette.jpg/554791-1-fre-FR/smile_vignette.jpg_medium.jpg" width="200" height="150" alt="SMILE" title="SMILE" /> </span> <span class="legende"> <cite>© Inria / Photo S. Ephraim </cite> </span> </p></div> <p> Mais la réalisation dont je suis le plus fier est sans doute notre contribution, impulsée par Nabil Layaïda, au langage SMIL dont la première version a été publiée en 1998. SMIL permet l’affichage de graphismes, de vidéos et de documents multimédia. Il a eu un fort impact sur le passage des documents statiques aux documents dynamiques et, même s’il n’est pas très visible aujourd’hui sur le web, nombreuses sont les fonctionnalités qui ont été intégrées dans d’autres langages très populaires, comme&nbsp;HTML5, SVG ou CSS3.&nbsp; <br /> Nous avons également contribué aux développements autour d’XML, un langage destiné à traiter des informations très spécialisées et complexes (des 
_données_ financi_ères_ ou _des __documents_ techniques par exemple). Ce langage et les technologies associées ont trouvé un domaine d’application important&nbsp;: ils sont utilisés par les serveurs web pour transformer en HTML, de façon simple et efficace, des données conçues en XML, dans les bases de données notamment.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc556648_0_1" id="eztoc556648_0_1" class="anchor"></a><h4>ET DANS 20 ANS ?</h4><p><strong>Vincent Quint</strong>, coordonnateur des travaux du W3C sur les langages de représentation d’informations et de documents (1996-2003) et&nbsp;co-animateur du W3C TAG de 2005 à 2007.</p> <div class="object-left"> <p class="illustration" style="width:73px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/autres-formats/vincent_quint-portrait/554955-2-fre-FR/vincent_quint-portrait_small.jpg" width="67" height="100" alt="Vincent Quint" title="Vincent Quint" /> </span> </p></div> <p>&quot; C’est impossible à dire. Il y a seulement dix ans, on n’aurait pas su imaginer les réseaux sociaux par exemple&nbsp;! En revanche, il me semble qu’il faut anticiper les dangers déjà perceptibles qui pèsent sur l’évolution du web. Des acteurs majeurs comme Facebook, Google ou Apple sont tentés de développer des systèmes propriétaires et autonomes qui créent des enclaves et risquent de mener à une balkanisation du web. De telles menaces sur l’universalité du web ont déjà eu lieu par le passé, par exemple avec la guerre des navigateurs (Netscape contre Internet Explorer) ou la technologie WAP proposée par l’industrie des télécommunications pour les téléphones portables. Ces tentatives ont pu être déjouées, mais il faut rester vigilants&nbsp;! &quot;</p> </div> </div> L’émergence d’un web des connaissances http://www.inria.fr/centre/grenoble/actualites/l-emergence-d-un-web-des-connaissances Tue, 25 Sep 2012 09:16:33 GMT ]]> <p>L’idée d’un web sémantique qui permettrait une recherche plus précise et pertinente dans l’immense quantité d’informations disponibles sur le web a été lancée par Tim Berners-Lee en 1998. Sur cette voie, le web des données, qui applique les outils du Web sémantique, est en pleine expansion grâce, notamment, à l’ouverture des données publiques à la consultation.</p> <p><strong>Témoignage de Jérôme Euzenat</strong>, responsable de l’équipe <a href="/domaines/perception-cognition-interaction/representation-et-traitement-des-donnees-et-des-connaissances/exmo" target="_self">Exmo</a></p> <p>Le Web sémantique est l’idée de créer un web où la connaissance est représentée formellement, de manière manipulable par une machine, de telle sorte que l’utilisateur puisse obtenir des réponses plus pertinentes à ses requêtes. Autrement dit, l’ordinateur dispose de connaissances précises, comme «&nbsp;Hercule Poirot est un personnage de roman&nbsp;», «&nbsp;Agatha Christie est un auteur&nbsp;» et «&nbsp;Poirot est une création d’Agatha Christie&nbsp;». L’ensemble de ces relations constitue un gigantesque graphe, une sorte de réseau semblable à celui formé par les liens hypertextes du web, qui autorise des raisonnements et des appariements plus pertinents entre requêtes et réponses.</p> <p>Dès le début des années 1990,&nbsp; au sein de l’équipe Sherpa d’Inria, j’utilisais le web pour rendre accessibles les bases de connaissances que je développais, par exemple pour des biologistes. A l’instar de nos collègues de Karlsruhe et de College Park notamment, nous avions créé des outils collaboratifs qui permettaient aux contributeurs de naviguer, d’éditer, de confronter et d’intégrer des données dans des bases de connaissances sur le web. Le web sémantique était, en quelque sorte, un prolongement de cette approche et je m’y suis naturellement associé pour participer à son élaboration.</p> <p>Aujourd’hui, la représentation de connaissance est intégrée dans l’infrastructure du web&nbsp;; les pages web peuvent héberger des fragments de graphes représentant leur contenu. Mon équipe a largement contribué au développement de certains des outils permettant d’élaborer ces graphes, y compris indirectement en organisant la communauté du web sémantique. Je dirige notamment les travaux sur l’alignement d’ontologies, c’est à dire la mise en correspondance des vocabulaires utilisés dans les graphes, par exemple reconnaître qu’un auteur est une personne qui écrit des livres. Cette activité est indispensable aujourd’hui pour assurer l’universalité du web sémantique.</p> <blockquote> <div class="open"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_open.png" alt="" /> </div> <p>Première application d’ampleur&nbsp;: le web des données</p> <div class="close"> <img src="/extension/site_inria/design/site_inria/images/pictos/picto_quote_close.png" alt="" /> </div> </blockquote> <p>Donner des indications sur le sens des documents reste cependant difficile à réaliser et la première application de ces outils a concerné les données plutôt que les documents, en partie grâce au mouvement OpenData qui encourage les gouvernements à mettre leurs données à la disposition du public. Des acteurs privés ont également pris la mesure de ce qu’apportent les technologies sémantiques. Facebook par exemple a développé l’Opendata graph à partir du langage de description RDF, une démarche qui lui procure des moyens efficaces de profilage des utilisateurs et donc la possibilité d’afficher des propositions commerciales mieux ciblées. De même, les moteurs de recherche Google, Yahoo et Bing se sont groupés pour créer schema.org avec le même objectif.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc556547_0_1" id="eztoc556547_0_1" class="anchor"></a><h4>ET DANS 20 ANS ?</h4><p><strong>Jérôme Euzenat,</strong>&nbsp;responsable de l’équipe <a href="/domaines/perception-cognition-interaction/representation-et-traitement-des-donnees-et-des-connaissances/exmo" target="_self">Exmo</a>, principal acteur français du domaine avec les équipes Accacia et Orpailleur.</p> <div class="object-left"> <p class="illustration" style="width:73px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/grenoble/actualites-images/autres-formats/jerome_euzenat-portrait/554951-1-fre-FR/jerome_euzenat-portrait_small.jpg" width="67" height="100" alt="Jérôme Euzenat" title="Jérôme Euzenat" /> </span> </p></div> <p>&quot; Le nouveau défi est de faire en sorte que tout marche ensemble&nbsp;! Non seulement que les données soient liées et les ontologies alignées, mais aussi que ces outils soient utilisés pour découvrir l’inconsistance entre sources d’information (données erronées, évolutives, etc.) et gérer cette inconsistance en révisant les ontologies, les alignements ou les liens, afin d’améliorer la qualité des réponses aux requêtes.&quot;</p> </div> </div> MICCAI invente la médecine de demain http://www.inria.fr/centre/sophia/actualites/miccai-invente-la-medecine-de-demain Mon, 24 Sep 2012 15:47:39 GMT ]]> <p>La 15<sup>e</sup> &nbsp;édition de la conférence internationale MICCAI se déroule du 1<sup>er</sup> &nbsp;au 5 octobre 2012 à Nice. Organisée par Inria, cette manifestation accueille des chercheurs, des ingénieurs et des médecins du monde entier qui viennent découvrir les dernières avancées de la recherche dans le domaine de l’analyse informatique des images médicales et de l’intervention médicale assistée par ordinateur. «&nbsp;Patient virtuel&nbsp;» et «&nbsp;réalité augmentée&nbsp;» s’affirment comme les points forts de la médecine de demain.</p> <p>Nicholas Ayache, responsable de l’équipe Asclepios du centre Inria à Sophia Antipolis, membre fondateur et membre du comité de direction de MICCAI, Président de la conférence MICCAI2012, nous en parle.</p> <a name="eztoc556147_1" id="eztoc556147_1" class="anchor"></a><h3><strong>Quelle est la spécificité de la conférence Miccai&nbsp;?</strong></h3><p>MICCAI est née de notre volonté de rapprocher des domaines séparés dont nous pressentions le grand bénéfice à tirer de leur synergie. C’est une vision moderne qui trouve sa justification aujourd’hui dans l’intrication de plus en plus serrée des deux composantes de la conférence&nbsp;: l’analyse informatique des images médicales et les interventions médicales assistées par ordinateur. La première composante vise à traiter de façon automatique la quantité croissante d’images fournies par des technologies d’imagerie modernes afin d’en extraire l’information réellement pertinente pour leur interprétation. Depuis quelques années, on est capable d’utiliser les informations sur la forme, la texture et le mouvement d’un organe du patient pour personnaliser le modèle numérique, d’un patient virtuel. Cette construction fait le lien avec la deuxième composante de MICCAI car ce patient virtuel peut dès lors être utilisé pour faire de la simulation, de la planification ou du contrôle d’interventions médicales. Par exemple, la reconstitution virtuelle en 3-D de l’organe malade est déjà utilisée au quotidien dans certains services pour préparer des opérations mini-invasives qui utilisent de petits instruments introduits par de petites incisions. Il est ainsi possible de déterminer à l’avance où placer les mini-caméras et les instruments pour éviter qu’ils ne se gênent mutuellement pendant l’intervention.</p> <a name="eztoc556147_2" id="eztoc556147_2" class="anchor"></a><h3><strong>Qu’est-ce qui explique son succès ?</strong></h3><p>Ce succès est lié au fait que le domaine de MICCAI s’est constitué à l’intersection des sciences informatiques, des technologies et de la médecine, au moment où la révolution numérique touchait tous les domaines scientifiques. Cette combinaison s’est révélée extrêmement fructueuse, avec des domaines d’application clinique très variés, concernant aussi bien la neurologie et la cardiologie que la chirurgie digestive ou orthopédique, ou encore l’histologie.</p> <p>La pertinence de cette approche n’est plus à démontrer et attire beaucoup de chercheurs. La conférence précurseur que nous avons organisée en 1995 sur la vision par ordinateur, la réalité virtuelle et la robotique en médecine (CVRMed) avait déjà eu un succès relativement inattendu à l’époque, avec 250 participants et des comptes-rendus, publiés dans une série prestigieuse, plusieurs fois réédités. MICCAI 2012 accueille cette année 1200 participants dont près de 40% sont des étudiants doctorants ou post-doctorants, ce qui est un signe de la très grande vitalité de ce secteur&nbsp;! Trois volumes sont nécessaires aujourd’hui pour publier les comptes-rendus de la conférence. De plus, 32 événements satellites — ateliers, cours, défis —se sont constitués autour de la conférence et donnent lieu aujourd’hui à la publication de comptes-rendus séparés.</p> <a name="eztoc556147_3" id="eztoc556147_3" class="anchor"></a><h3><strong>Voit-on de nouvelles tendances se dessiner dans cette 15<sup>e</sup> &nbsp;édition&nbsp;? des nouveautés&nbsp;?</strong></h3><p>On voit plutôt des tendances se confirmer. Le nombre de présentations touchant la construction de patients virtuels numériques est en augmentation. On note également une généralisation des techniques de réalité augmentée, de simulation et de robotique médicale appliquées à des procédures de radiologie interventionnelle ou en chirurgie mini-invasive guidée par l’image. Ces technologies visent à fournir des informations supplémentaires pour guider le geste chirurgical.&nbsp;</p> <a name="eztoc556147_4" id="eztoc556147_4" class="anchor"></a><h3><strong>Quelle est la contribution d’Inria à MICCAI et au domaine en général&nbsp;?</strong></h3><p>Inria est très présent et reconnu dans le domaine, notamment grâce au soutien apporté par Gilles Kahn† lorsqu’il était directeur scientifique puis président d’Inria, et poursuivi par l’actuel président Michel Cosnard. En 1995, mon équipe était la seule à travailler dans ce domaine à Inria. Aujourd’hui, l’informatique appliquée au domaine médical et biologique est devenue un thème à part entière. L’institut s’est aussi fortement impliqué dans trois des six instituts hospitalo-universitaires retenus dans le cadre du programme « Investissements d'Avenir » lancé par le ministère de l'Enseignement supérieur et de la recherche en 2010, et son apport y est reconnu et apprécié. Les deux conférences invitées sont d’ailleurs données par les professeurs de renommée internationale, Jacques Marescaux et Michel Haïssaguerre, respectivement directeurs de l’<a href="http://www.ircad.fr/ihu/" target="_blank">IHU MIX-Surg</a>&nbsp;de Strasbourg et l’<a href="http://fondation.univ-bordeaux.fr/content/pr%C3%A9sentation-de-lihu" target="_blank">IHU LIRYC</a>&nbsp;de Bordeaux, avec qui les équipes Inria collaborent étroitement.</p> <p>Cette implication des chercheurs d’Inria dans le domaine se manifeste également à MICCAI. Une dizaine d’équipes présentent leurs travaux à la conférence&nbsp;; elles sont également présentes dans les événements satellites de la conférence que sont les ateliers et les cours mais aussi les défis qui tiennent une place particulière en permettant aux chercheurs de comparer les performances de leurs logiciels sur les données fournies par les organisateurs et de gagner une reconnaissance scientifique supplémentaire.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc556147_5" id="eztoc556147_5" class="anchor"></a><h3>MICCAI 2012, la 15ème du nom</h3><p>Née de la fusion de trois conférences indépendantes, MICCAI réunit les scientifiques, ingénieurs et médecins d’un grand nombre de disciplines impliquées dans l’analyse informatique de l’imagerie médicale et l’intervention médicale assistée par ordinateur. Elle se déroule chaque année dans une ville et un continent différent. La première édition en 1998 s’est tenue au MIT, à Boston. Elle se déplacera au Japon l’année prochaine, aux Etats-Unis en 2014 puis en Europe, à Munich, en 2015.</p> <p>Cette année, MICCAI accueille à Nice 1200 participants de 45 pays et de 338 villes et a sélectionné 252 contributions (sur 780 soumises) — en majorité nord américaines (48%) et européennes (40% dont un quart française) — qui sont présentées au cours de conférences plénières ou de séances de posters. Des événements satellites accompagnent également la conférence et occupent deux journées : 20 ateliers, 4 cours spécialisés et 8 défis.</p> </div> </div> Et si on augmentait la réalité, tous ensemble ? http://www.inria.fr/actualite/actualites-inria/et-si-on-augmentait-la-realite-tous-ensemble Wed, 19 Sep 2012 16:36:40 GMT ]]> <p>Profiter de la réalité augmentée, c’est bien... mais la produire, c’est mieux ! Avec une cartographie provenant d’OpenStreetMap par exemple, on peut s’orienter dans des villes et des bâtiments du monde entier. Mais le projet est encore jeune et il manque d’informations précises telles que les adresses. Les visiteurs sont donc invités à les collecter et à les publier. Petit à petit, une intelligence collective des lieux se dessine.</p> <p>À la manière de Wikipedia, le projet <a href="http://wiki.openstreetmap.org/wiki/Main_Page" target="_blank">OpenStreetMap</a>&nbsp; est ouvert aux <strong>contributions</strong>, et dispose de sa <a href="http://openstreetmap.fr/" target="_blank">version française</a>. Chacun peut donc apporter des précisions, corriger des erreurs, et indiquer des points d’intérêt (statues, monuments...). Ces informations proviennent souvent des données publiques de type cadastre par exemple, mais aussi de promeneurs équipés d’un smartphone, avec la possibilité de publier toutes sortes de points d’intérêt en plus des données de type routes, chemins et bâtiments. Et pour consulter des cartes, il suffit de les télécharger sur son smartphone, son GPS ou son ordinateur et d'utiliser un navigateur adapté.</p> <p>&nbsp;Les cartographies classiques, telles que celles proposées dans Google Maps, ne sont pas « <strong>intelligentes</strong>&nbsp;» dans le sens où ce ne sont que des images. Par contre, avec OpenStreetMap, un navigateur spécialisé peut utiliser directement les données géographiques&nbsp; et produire les images en temps réel en fonction du <strong>contexte</strong>, augmentant ainsi la réalité de la ville. En France, OpenStreetMap utilise les données cadastrales (avec une précision de l’ordre du mètre) mais dans une ville comme Grenoble la précision pourrait atteindre 15 cm en utilisant les données télémétriques de la ville. Une précision utile, notamment en situation de handicap, puisqu’elle permet de connaître les dénivelés des trottoirs et les inclinaisons, toutes choses importantes pour se déplacer sur une chaise roulante. Et là où on ne dispose pas de données précises - concernant un sentier dans un parc par exemple - ce sont des contributeurs volontaires d’OpenStreetMap qui complètent. Une démarche <strong>citoyenne</strong>&nbsp;de co-construction, qui repose sur des valeurs d’entraide et de partage...</p> <p>Tout semble donc aller pour le mieux puisque chacun contribue. Mais la Réalité Augmentée est aussi un marché prometteur sur lequel s’opposent de grands groupes (<a href="http://www.01net.com/editorial/563110/google-devoile-project-glass-des-lunettes-a-realite-augmentee/" target="_blank">Google</a>, <a href="http://www.tomsguide.fr/actualite/sony-lunettes,3988.html" target="_blank">Sony</a>, <a href="http://www.slashgear.com/olympus-meg4-0-google-glass-rival-revealed-05237247/" target="_blank">Olympus</a>, <a href="http://www.actinnovation.com/innovation-automobile/projet-woo-general-motors-vitres-voitures-ecrans-interactifs-tactiles-4270.html" target="_blank">General Motors</a>...) et de jeunes pousses (<a href="http://www.inria.fr/innovation/secteurs-industriels/energie-transport-developpement-durable/demos/artefacto-realite-augmentee-et-urbanisme" target="_self">Artefacto</a>, <a href="http://www.inria.fr/actualite/actualites-inria/interview-d.groten-j.lemordant" target="_self">Layar</a>, <a href="http://www.metaio.com/" target="_blank">Metaio</a>, <a href="http://www.visioglobe.com/" target="_self">Visioglobe</a>...). Si une <strong>guerre des standards</strong>&nbsp;se déclenche, les utilisateurs pourraient en être les grands perdants !</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc554697_1" id="eztoc554697_1" class="anchor"></a><h3><strong>Vers un langage universel pour la R</strong><strong>é</strong><strong>alit</strong><strong>é</strong><strong>&nbsp;Augment</strong><strong>é</strong><strong>e</strong></h3> <div class="object-left"> <p class="illustration" style="width:206px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/le-saviez-vous/images-corps/carto/554686-1-fre-FR/carto_medium.jpg" width="200" height="150" alt="Carte augmentée" title="Carte augmentée" /> </span> <span class="legende"> <cite>© ferkelraggae - Fotolia.com</cite> </span> </p></div> <p>On trouve sur le marché plusieurs kits de développement permettant de créer assez facilement ses applications de Réalité Virtuelle. À Inria Grenoble, l’équipe-projet <a href="/domaines/perception-cognition-interaction/representation-et-traitement-des-donnees-et-des-connaissances/wam" target="_self">WAM</a>&nbsp;(Web Adaptation et Multimédia) s’est attelée à un vaste projet open source : créer un <strong>langage universel</strong>, qui permettrait de décrire des parcours dans la ville. Comme l’explique <a href="http://www.inria.fr/centre/grenoble/innovation/jacques-lemordant-realite-augmentee-urbaine" target="_self">Jacques Lemordant</a>, chercheur dans l’équipe WAM : « Notre <a href="http://wam.inrialpes.fr/publications/2012/EANQueriesAugmentedTown.pdf" target="_blank">différence</a>&nbsp;par rapport aux autres approches de la Réalité Augmentée est de pousser très loin les technologies issues du web. Nous croisons trois types de documents : OpenStreetMap pour la cartographie collaborative, <a href="http://fr.wikipedia.org/wiki/HTML5" target="_blank">HTML5</a>&nbsp;pour la programmation des interfaces mobiles et le contenu culturel, et un dernier pour la représentation des données de navigation notamment audio.</p> <p>&nbsp;L’équipe a donc développé le navigateur mobile IXE (<strong>Interactive XML Engine</strong>) capable de lire et de jouer ces documents composites. Ces documents peuvent décrire des visites culturelles mais aussi des réseaux de navigation accessibles aux personnes en situation de handicap visuel ou moteur, IXE permettant notamment un guidage et une orientation par le <a href="http://www.youtube.com/watch?v=h2b8yfCauZ8" target="_blank">son 3D</a>. La navigation piétonne, si elle se veut précise, nécessite une description au niveau des trottoirs et non pas des rues. On retrouve donc ici tout l'intérêt d'une <strong>cartographie collaborative</strong>&nbsp;du type OpenStreetMap. Autre difficulté en passe d’être maîtrisée : le calcul en <strong>temps r</strong><strong>é</strong><strong>el</strong>&nbsp;de la position du piéton, grâce à une détection du nombre de pas effectués (captés par le smartphone), des modèles physiologiques de la marche et une estimation de l'orientation basée sur les données issues des gyroscopes.</p> <p>&nbsp;Très <strong>modulaires</strong>, les solutions proposées par l’équipe WAM sont adaptées à des parcours en extérieur ou dans des bâtiments cartographiés. Ces solutions ont été notamment utilisées lors de l’événement <a href="http://www.inria.fr/centre/grenoble/actualites/lancement-experience-grenoble-ville-augmentee" target="_self">Grenoble, ville augmentée</a>. En été 2012, elles ont été expérimentées dans deux stations de métro d’Osaka, afin d’aider les personnes malvoyantes à mieux se repérer dans les réseaux des pistes tactiles, réseaux très développés au Japon.</p> <p>&nbsp;En 2013, il est prévu de doter le navigateur IXE de fonctions supplémentaires. La détection d’obstacles, le recalage de la navigation type centrale d'inertie par spots radio et la vision par ordinateur sont au programme !</p> </div> </div> Le Centre Pompidou adopte le web sémantique http://www.inria.fr/actualite/actualites-inria/le-centre-pompidou-adopte-le-web-semantique Fri, 14 Sep 2012 13:59:40 GMT ]]> <p>« Au Centre Pompidou, l’approche du numérique consiste à accompagner le visiteur avant, pendant et après sa visite du musée. Ceci implique plusieurs projets ayant un versant communautaire et une approche de co-création », explique Gonzague Gauthier, chargé de projet numérique au Centre Pompidou. Principale réalisation, le nouveau site web du Centre Pompidou s’ouvrira très prochainement. Le web sémantique lui donnera des possibilités inédites.&nbsp;</p> <p>Projet complexe, le nouveau site est en cours de conception et de développement depuis près de 3 ans. Il a pour ambition de présenter tous les contenus exposés au <a href="http://www.centrepompidou.fr/pompidou/communication.nsf/0/88d31bdb4fe7ab60c1256d970053fa6f?opendocument&amp;sessionm=8.1&amp;l=1" target="_blank">Centre Pompidou</a>&nbsp;à destination du public. « L’idée est d’agencer ces contenus grâce à une <strong>structure sémantique</strong>. Le principe est de partir d’un concept - typiquement une exposition ou une œuvre d’art - et de le <strong>relier</strong>&nbsp;à toutes les ressources documentaires le concernant », poursuit <a href="http://gonzagauthier.wordpress.com/curriculum-vitae/" target="_blank">Gonzague Gauthier</a>. Le site n’a donc pas vocation à produire un contenu éditorial supplémentaire, les ressources étant suffisamment riches et nombreuses (affiches d’exposition, bandes-annonce, descriptifs, catalogues, conférences, documents d’archive, présentations pédagogiques...).</p> <p>Au final, un graphe de ressources, directement inspiré par les techniques du <a href="http://www.inria.fr/actualite/le-saviez-vous/bienvenue-dans-la-3eme-revolution-du-web" target="_blank">web sémantique</a>, se constitue autour d’une exposition ou d’une œuvre. « Cette structure nous permet de proposer des « <strong>parcours de sens</strong>&nbsp;» à l’internaute et au visiteur. On cherche à faciliter la compréhension sensible de l’œuvre : selon son niveau d’intérêt et sa disponibilité, le visiteur pourra consulter les ressources qui lui conviennent. L’idée n’est pas de remplacer la visite - en étant bien conscients que tous internautes ne viendront pas forcément à une exposition », précise Gonzague Gauthier. Le site a une mission d’<strong>accompagnement</strong>&nbsp;avant, pendant et après la visite.</p> <p>La notion de « parcours de sens » s’applique en effet dans ces trois temps. En amont, il permet la création individuelle d’un chemin de visite. « Pour répondre à ce besoin de découverte, on propose une sorte de <strong>sérendipité</strong>&nbsp;: au-dessus de l’œuvre, la navigation affiche les ressources documentaires disponibles. Et en-dessous, on affiche les ressources qui correspondent plutôt à un besoin d’approfondissement et à l’après-visite », souligne Gonzague Gauthier. Ce second niveau exploite les <strong>liens sémantiques du graphe de ressources</strong>. De proche en proche, les rubriques ou rebonds sémantiques proposés vont amener vers d’autres ressources, liées à d’autres concepts, œuvres et artistes.</p> <p>Pendant la visite, des outils complémentaires prévus pour 2013 seront consultables sur smartphone ou tablette (iOS ou Androïd). En effet, grâce à un espace personnel créé sur le site, on pourra stocker ses favoris. Ces favoris auront été sélectionnés avant la visite et permettront de se souvenir d’y rechercher telle ou telle œuvre. « Cet espace personnel sera co-construit avec les publics du Centre Pompidou et diverses communautés. Nous ne voulons rien imposer, notre démarche repose sur des ateliers d’expérimentation publique et une analyse statistique des pratiques », précise Gonzague Gauthier. D’où le choix technique de <strong>l’open source</strong>, permettant à tout développeur d’améliorer les outils proposés.</p> <p>Également prévue pour 2013, la nouvelle appli permettra de photographier une œuvre lors d’une visite, afin de la retrouver dans son espace personnel, et replacée dans ses contextes sémantiques. « Déjà, nos visiteurs sont invités à twitter sur certaines expos. À terme, nous aimerions qu’à la manière de Wikipedia nos différents publics puissent produire des contenus. Fidèles à notre principe, nous essaierons d’imaginer ces outils avec eux », conclut Gonzague Gauthier.</p> Le numérique peut-il refonder l’éducation ? http://www.inria.fr/actualite/actualites-inria/le-numerique-peut-il-refonder-l-education Thu, 13 Sep 2012 11:55:38 GMT ]]> <p>«&nbsp;On ne peut pas refonder l'École de la République si nous ne prenons pas en compte pleinement, volontairement, efficacement la dimension nouvelle introduite par le numérique dans notre culture et dans notre civilisation » : ainsi s’exprimait le ministre de l'éducation nationale, Vincent Peillon, pendant l'université d'été <a href="http://www.ludovia.com/" target="_blank">Ludovia</a>. L’analyse de Christine Vaufrey, spécialiste en matière d’enseignement par le numérique.</p> <p>« Les établissements scolaires et universitaires devraient se précipiter sur les opportunités d’<strong>expérimentation</strong>&nbsp;qui leurs sont ouvertes par les Académies. Rappelons que l’organisation scolaire, telle qu’on la rencontre dans la plupart des établissements, n’est pas inamovible ! Pourtant, ce droit à l’<strong>innovation</strong>&nbsp;est très peu utilisé en France : il y a une vraie opportunité à saisir au niveau des établissements », explique <a href="http://blog.educpros.fr/christine-vaufrey/" target="_blank">Christine Vaufrey</a>, rédactrice en chef de <a href="http://cursus.edu/" target="_blank">Thot Cursus</a>, un site web francophone, fondé à Québec en 1997 et consacré aux usages du numérique dans tous les aspects de l’enseignement.</p> <p>On peut distinguer deux utilisations du numérique : améliorer ce qu’on estime imparfait à l’intérieur des dispositifs éducatifs dominants, ou inventer des approches nouvelles. « Ce premier courant semble véritablement revitalisé par le numérique ! », constate Christine Vaufrey. Pour preuve, de nombreuses <strong>initiatives</strong>&nbsp;d’enseignants qui essaient de changer leurs pratiques après avoir vérifié, pour eux-mêmes, les bénéfices de certains outils numériques. On en trouve beaucoup sur Internet, ainsi que de vastes communautés d’enseignants. Parmi les Français&nbsp; les plus écoutés, on peut citer : <a href="http://www.brunodevauchelle.com/blog/" target="_blank">Bruno Devauchelle</a>, formateur d'enseignant et chercheur en sciences de l'éducation, <a href="http://tipes.wordpress.com/" target="_blank">Jean-Marie Gilliot</a>, professeur d'informatique à Télécom Bretagne, <a href="http://profjourde.wordpress.com/" target="_blank">François Jourde</a>, enseignant en philosophie dans le secondaire. « Le risque est que les initiatives individuelles finissent par s’épuiser : on ne peut pas espérer que le système éducatif français se réforme intégralement du bas vers le haut. Il y a des <strong>freins structurels</strong>&nbsp;», prévient Christine Vaufrey.</p> <p>Prenons donc les outils numériques comme prétextes pour faire enfin <strong>changer les choses</strong>&nbsp;! Pour exemple, le temps de cours est resté de 50 minutes, ce qui est beaucoup trop court pour que chacun ait le temps de faire des travaux pratiques sur ordinateur. Autre exemple, les pratiques d’évaluation de l’élève ne tiennent pas compte de sa capacité, nouvelle, à accéder à de vastes ressources informatives. « En France, on continue d’évaluer à travers des devoirs pour vérifier que telle connaissance est bien restituée par l’élève. Au contraire, au <strong>Danemark</strong>, l’accès à Internet est autorisé au baccalauréat, et cela depuis près de 3 ans. On est loin d’une simple restitution de savoir : on évalue plutôt les <strong>processus de recherche, l’esprit critique, la synthèse</strong>, etc. Là, l’évaluation a changé ! Plus généralement, en France, force est de constater que le discours de méfiance envers Internet reste très présent au niveau des autorités éducatives », regrette Christine Vaufrey.</p> <p>Les mentalités et les structures sont donc largement en retrait par rapport aux possibilités du numérique. « Les outils numériques apportent une <strong>conception radicalement nouvelle</strong>&nbsp;de ce qu’est apprendre : c’est un monde ouvert, plus collaboratif qu’individuel, où la hiérarchie n’existe pas a priori, où le jeu permet la <a href="http://www.inria.fr/actualite/le-saviez-vous/quand-gamers-et-chercheurs-se-battent-ensemble" target="_self">découverte</a>, où l’on peut échanger avec des centaines d’autres apprenants, où on peut apprendre par l’erreur, etc. ».</p> <p>Autre tendance prometteuse et en fort développement, celle de l’open education : le MIT, Harvard et d'autres universités américaines prestigieuses mettent en ligne gratuitement des cours de haut niveau, et commencent même à les certifier. À noter que <a href="http://www.journees-elearning.com/index.php?option=com_content&amp;view=article&amp;id=199:atelier-de-sophie-touze-lopen-education--utopie-ou-business-model-&amp;catid=50:ateliers-2012&amp;Itemid=121" target="_blank">Sophie Touzé</a>&nbsp;est actuellement la seule représentante de la France dans le consortium <a href="http://ocw.mit.edu/index.htm" target="_blank">OpenCourseWare du MIT</a>.</p> <p>Dans le monde de l’enseignement, l’une des pistes les plus explorées actuellement est celle de la <strong>lutte contre l’ennui et la démotivation</strong>&nbsp;en classe. « Un problème qui prend une importance telle qu’il ne sera peut-être plus gérable ! Commençons par nous interroger sur nos façons d’enseigner », recommande Christine Vaufrey.</p> Gérard Berry titulaire de la nouvelle chaire « Algorithmes, machines et langages » du collège de France http://www.inria.fr/actualite/actualites-inria/informatique-au-college-de-france Wed, 12 Sep 2012 14:35:50 GMT ]]> <p>Récemment nommé professeur au Collège de France, Gérard Berry assure désormais le plein exercice de la toute nouvelle Chaire « Algorithmes, machines et langages ». Ses responsabilités l'ont amené à cesser ses activités à la Commission d'évaluation d'Inria. Bernard Chazelle, titulaire pour l'année 2012-2013 de la chaire &quot;Informatique et sciences numérique&quot;, mettra également l'algorithmique à l'honneur. Jamais les sciences numériques n'ont été si présentes dans les programmes du Collège de France ! </p> <p>Chercheur de renommée internationale et grand pédagogue, Gérard Berry se préoccupe depuis de nombreuses années de transmettre les rudiments des sciences numériques aux publics les moins avertis. La Chaire «<strong>&nbsp;innovation technologique Lilianne Bettencourt</strong>&nbsp;» du Collège de France avait tout juste un an lorsqu'il en est devenu le titulaire, se donnant pour mission d'expliquer &quot;<em>comment et pourquoi notre monde est devenu numérique</em>&quot;.</p> <p>Il est ensuite devenu le tout premier titulaire de la Chaire «<strong>&nbsp;Informatique et sciences numériques </strong>» en 2009-2010, et a ainsi inauguré l'entrée des sciences numériques dans la liste des sciences enseignées au Collège. Depuis Martin Abadi et Serge Abiteboul lui ont succédé. C'est Bernard Chazelle qui fera vivre cet enseignement pour l'année 2012-2013. Le cours qu'il propose s'intitule &quot;L'algorithmique et les sciences&quot; et la leçon inaugurale sera prononcée le <strong>18 octobre.</strong></p> <p>Nommé Professeur permanent, Gérard Berry animera la toute nouvelle Chaire «<strong>&nbsp;Algorithmes, machines et langages </strong>», ultime étape dans l'avènement des sciences numériques au rang des sciences canoniques. Il donnera sa leçon inaugurale le 28 mars 2013. Le cours, intitulé <strong>« Traitement du temps et des événements dans les circuits et programmes »</strong>&nbsp;sera ensuite dispensé&nbsp;chaque mercredi matin.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc553467_0_1" id="eztoc553467_0_1" class="anchor"></a><h4>&nbsp;Et aussi....</h4><a name="eztoc553467_0_2" id="eztoc553467_0_2" class="anchor"></a><h4> <div class="object-left"> <p class="illustration" style="width:116px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/actualites/generales/images-corps/bernard-chazelle/553932-2-fre-FR/bernard-chazelle.jpg" width="110" height="83" alt="" title="" /> </span> </p></div> </h4><p><strong>Bernard Chazelle</strong>, nouveau titulaire pour l'année 2012-2013 de la chaire &quot;Informatique et sciences numérique&quot;, mettra également l'algorithmique à l'honneur. </p> <br class="clear" /> <div class="object-right"> <p class="illustration" style="width:116px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/inria/images-chapo/philippe-nain/551381-1-fre-FR/philippe-nain_vignette_resume.jpg" width="110" height="83" alt="Philippe Nain" title="Philippe Nain" /> </span> <span class="legende"> <cite>©Inria</cite> </span> </p></div> <p>Depuis le 1er septembre <a href="/actualite/actualites-inria/nomination-philippe-nain" target="_self"><strong>Philippe Nain</strong></a>,<strong>&nbsp;</strong>responsable de l'équipe-projet Maestro à Sophia Antipolis - Méditerranée, remplace Gérard Berry amené à cesser ses activités à la Commission d'évaluation d'Inria qu'il présidait depuis 3 ans.</p> </div> </div> Le Laboratoire d'Excellence DigiCosme fait son inauguration http://www.inria.fr/centre/saclay/actualites/le-labex-digicosme-fait-son-inauguration Tue, 11 Sep 2012 17:30:44 GMT ]]> <p>À l'occasion du colloque d'inauguration du Labex DigiCosme les 12 et 13 septembre 2012, retour sur les origines et les ambitions de ce projet avec une interview de Christine Paulin-Mohring, en charge de son pilotage.</p> <a name="eztoc553351_1" id="eztoc553351_1" class="anchor"></a><h3>Le Labex DigiCosme* ne part pas de rien…</h3><p> Depuis les années 2000, différentes évolutions ont contribué à mieux structurer sur le Plateau de Saclay la recherche et la formation en informatique.<br /> &nbsp;L’arrivée d’Inria a marqué un premier tournant en favorisant des coopérations entre l’École Centrale, l’École Polytechnique, l’ENS Cachan et l’Université Paris-Sud, à travers des équipes-projets mixtes. Il en a résulté le Pôle Commun de Recherche en Informatique (PCRI). Ces projets Inria ont pour particularité de s’inscrire dans la durée. Les chercheurs se fréquentent régulièrement, travaillent ensemble, en mettant à profit la proximité de leurs locaux respectifs, sur des durées un peu longues (une dizaine d’années en moyenne). Il y a eu ensuite l’étape Digiteo avec une extension des collaborations à d’autres partenaires, comme le CEA List. Le Labex devrait permettre de renforcer la structuration de l’informatique dans un contexte où les laboratoires impliqués se rapprochent géographiquement. Il regroupe 300 chercheurs et autant de doctorants, répartis sur les sites des 11 établissements : CEA, CNRS, l’École Polytechnique, Supélec, Inria, Université Paris-Sud, l’École Centrale Paris, l’ENS de Cachan, l’ENSTA ParisTech, l’Institut Mines-Télécom, et enfin l’Université de Versailles St Quentin.</p> <a name="eztoc553351_2" id="eztoc553351_2" class="anchor"></a><h3>En principe un Labex se doit d’être un pluridisciplinaire, or vous avez fait le choix de privilégier l’informatique…</h3><p> C’est vrai : l’interdisciplinarité était un des critères, mais manifestement pas le plus décisif, comme en témoigne notre sélection. En faisant le choix d’un Labex disciplinaire, nous ne renonçons pas à l’interdisciplinarité. Dans le cadre de l’Idex, des équipes pourront poursuivre des recherches transversales avec des biologistes, des physiciens, etc. Nous avons déjà des relations intéressantes avec des labos de physique pour observer les systèmes de calcul comme un système physique.<br /> &nbsp;Mais, à la différence d’autres disciplines, comme la physique ou les mathématiques, les sciences de l’information (informatique et communication) sont encore une discipline jeune. Elle doit trouver sa place et être reconnue en tant que science à part entière même si elle joue un rôle important au service des autres sciences. Les informaticiens sont le plus souvent tirés vers les interfaces, mais doivent &nbsp;faire reconnaître un noyau scientifique spécifique. Nous assistons à une explosion de la société de l’information, c’est une évidence, mais si on veut en tirer les bénéfices, il faut une réflexion de fond et susciter des modèles nouveaux. Avec ce Labex, nous avons donc voulu défendre le cœur des sciences de l’information.</p> <p>Il ne s’agit pas de couvrir toutes les problématiques, mais de travailler sur des axes fondamentaux : la programmation, les données et les communications, soit le cœur de notre discipline. Pour chacun de ces axes, on a cherché à identifier des défis. À l’heure actuelle, le principal défi concerne les données : de plus en plus volumineuses et hétérogènes, distribuées. On est également passé du temps des calculateurs autonomes à celui des systèmes décentralisés. Les modèles changent, les algorithmes s’en trouvent modifiés.</p> <a name="eztoc553351_3" id="eztoc553351_3" class="anchor"></a><h3>Ce retour au cœur implique-t-il de se retrouver entre informaticiens&nbsp; ? Ou solliciterez-vous d’autres compétences ?</h3><p>De fait, nous nous retrouvons essentiellement autour de projets resserrés car c’est le gage d’une meilleure implication des chercheurs. Du point de vue universitaire, les aspects informatique et communication dans les réseaux ne relèvent pas des mêmes sections, ni des mêmes laboratoires. Le Labex a pour vertu de renforcer les synergies entre ces deux domaines au cœur des systèmes informatiques actuels. Cependant, nous comptons aussi mobiliser les compétences d’autres disciplines. Les systèmes numériques ont tant gagné en gigantisme que les techniques d’observation et de modélisation se rapprochent de la physique. Les collaborations avec des physiciens s’imposent donc. Nous souhaitons aussi développer des liens avec les sciences sociales et humaines.</p> <a name="eztoc553351_4" id="eztoc553351_4" class="anchor"></a><h3>Se centrer sur le cœur de l’informatique&nbsp; : est-ce à dire que vous privilégierez une recherche plus fondamentale qu’appliquée ?</h3><p>Je ne ferais pas ce distingo. Le chemin entre recherche fondamentale et recherche appliquée est très court en informatique. Toutes les thématiques que nous avons proposées sont en lien direct avec les applications. Comme par exemple les problèmes de certification et de correction qui vont des capteurs jusqu’aux modèles abstraits les plus élaborés et s’appuient sur des résultats avancés en logique et algorithmique.</p> <p>* Le projet a été labellisé par l’ANR sous le nom de DigiWorlds, pour des raisons de conflit avec une marque déposée, ce nom a été abandonné en septembre 2012 et le Labex renommé&nbsp; DigiCosme.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc553351_4_1" id="eztoc553351_4_1" class="anchor"></a><h4>Une experte du multi-institutionnel</h4><p>Après des études à l’ENS de jeunes filles qu’elle intègre en 1982, Christine Paulin-Mohring soutient en 1989 &nbsp;une thèse de l’Université Paris 7, &nbsp;préparée en partenariat avec Inria et l’ENS. « J’ai toujours évolué dans un cadre multi-institutionnel ! ». De fait, chargée de recherche au CNRS, puis professeur en informatique à l’Université Paris-Sud en 1997, elle participe aux premiers projets communs entre laboratoires. Avec son ex-directeur de thèse, elle monte la première équipe commune entre Inria et le LIP, un laboratoire CNRS à l'ENS Lyon, équipe qui deviendra un des premiers projets commun d’INRIA Futurs impliquant également Paris-Sud, le CNRS et l’école Polytechnique .</p> </div> </div> <p><strong>Extrait de l'interview &quot;Un Labex pour une discipline sans frontières : l’informatique. Rencontre avec Christine Paulin-Mohring&quot; sur le site <em>Media Paris Saclay</em></strong></p> Sylvain Petitjean est nommé Directeur du Centre de Recherche Inria Nancy – Grand Est http://www.inria.fr/centre/nancy/actualites/sylvain-petitjean-nouveau-directeur Mon, 10 Sep 2012 10:53:03 GMT ]]> <p>Michel Cosnard, Président-directeur général d'Inria, nomme Sylvain Petitjean, directeur du centre de recherche Inria Nancy - Grand Est.</p> <p> Diplômé de l’École Nationale Supérieure des Mines de Nancy et docteur en informatique, Sylvain Petitjean a débuté sa carrière au CNRS en 1995 en tant que chargé de recherche. Directeur de recherche Inria depuis 2007, responsable permanent de l’équipe-projet Vegas, c'est un spécialiste de géométrie des courbes et surfaces et de calcul géométrique et algébrique. Il est l'auteur de contributions reconnues internationalement dans son domaine de recherche.<br /> Au fil des années, il s'est progressivement investi dans des fonctions d'animation de la recherche et de management. Il fait ainsi partie de l'équipe de direction du centre Inria Nancy - Grand Est depuis 2008 et en est devenu le délégué scientifique, supervisant l'évolution et la création de nouvelles équipes, en 2009.</p> <p>Sylvain Petitjean assurera la fonction de directeur dans l'attente du recrutement du futur directeur.</p> Ambition logicielle Grenoble : un programme dédié à l'innovation dans la filière logicielle http://www.inria.fr/centre/grenoble/actualites/lancement-du-programme-ambition-logicielle-grenoble Fri, 7 Sep 2012 10:37:10 GMT ]]> <p><strong>Ambition Logicielle Grenoble</strong>&nbsp;s'adresse aux entreprises du secteur du logiciel ayant un projet d'innovation basé sur des technologies logicielles. Ce programme est porté par Inria, OSEO, Minalogic, l’institut Carnot LSI et Grenoble Ecole de Management, avec le soutien des collectivités locales et des acteurs nationaux de l’innovation.</p> <p>Ambition Logicielle est un programme d'accompagnement à l'innovation conçu pour répondre aux enjeux spécifiques de l’innovation de la filière logicielle :</p> <ul> <li>réactivité à l’évolution constante et rapide de la demande</li> <li>valeur des entreprises essentiellement portée par les hommes</li> <li>faiblesse de la propriété intellectuelle</li> <li>importance des besoins en capitaux dans des phases précoces du développement.</li> </ul> <p>Concrètement, une entreprise accompagnée par Ambition Logicielle Grenoble, peut bénéficier d’intervention multiples, par exemple :</p> <ul> <li>accès à des technologies logicielles issues de laboratoires académiques, au travers d’actions de développement et de transfert de logiciels et brevets,</li> <li>transfert de connaissances et de compétences</li> <li>expertises scientifiques</li> <li>accès à des plateformes d’expérimentation</li> <li>formation continue d’ingénieurs et «product managers»</li> <li>développement, développement international</li> <li>accompagnement des dirigeants</li> <li>recrutement de personnels et d’experts</li> <li>accompagnement dans la recherche d’aides financières, subventions, financements, levées de fonds publics ou privés</li> </ul> <p>Le programme Ambition Logicielle Grenoble est une initiative conjointe de partenaires économiques et académiques dont les fondateurs sont Inria, OSEO, Minalogic, Carnot LSI, et Grenoble Ecole de Management. </p> <p>Le programme Ambition Logicielle Grenoble est porté opérationnellement par Inria pour l’ensemble des partenaires et s’inscrit dans le cadre du dispositif en faveur de la croissance des PME animé par le pôle de compétitivité Minalogic. </p> <a name="eztoc552610_0_1" id="eztoc552610_0_1" class="anchor"></a><h4>Partenaires</h4> <ul> <li>Fondateurs et permanents : Grenoble Ecole de Management, Inria, Institut Carnot LSI, Minalogic, OSEO Rhône Alpes </li> </ul> <ul> <li>Acteurs des réseaux régionaux de l’innovation : Chambre de commerce et d’industrie de Grenoble, ARDI, UJF, Grenoble INP, CNRS, GRAIN/GRAVIT/PETALE,&nbsp; Cluster Edit, GRILOG, GREX, Réseau entreprendre Isère, Grenoble Business Angels, Rhône-Alpes Création.</li> </ul> Pour apprendre l’informatique... débranchez l’ordinateur ! http://www.inria.fr/actualite/actualites-inria/pour-apprendre-l-informatique-debranchez-l-ordinateur Thu, 6 Sep 2012 17:21:43 GMT ]]> <p>C’est la rentrée pour 12 millions d’élèves, de la maternelle au lycée. Parmi les nouveautés, une matière sera enseignée dans certaines terminales S : Informatique et Science du Numérique, pendant 2 heures chaque semaine. Comme le souligne Roberto Di Cosmo, professeur à l'Université Paris Diderot : « la compréhension de l’informatique est devenue un enjeu sociétal important qui concerne &nbsp;toutes les activités humaines ». Explications.</p> <p>Du paiement de l’impôt à la réservation d’un billet de train, de l’email au dossier médical... tout passe désormais par l’informatique. Omniprésente, elle peut même apparaître comme une contrainte, un passage obligé. « C’est oublier que l’informatique et les sciences du numérique ouvrent <strong>de</strong><strong>&nbsp;magnifiques</strong><strong>&nbsp;opportunités, </strong>et cela dans tous les domaines, même ceux qui ne relèvent pas directement de l’informatique», précise <a href="http://www.dicosmo.org/" target="_blank">Roberto Di Cosmo.</a>&nbsp;« Une population mieux formée à l'Informatique pourra y avoir recours pour donner une réalité concrète à sa créativité, et &nbsp;verra mieux où sont les opportunités pour créer de la valeur, des nouvelles activités et même de nouvelles entreprises.»</p> <p>On peut dès lors regretter que l’enseignement de l’Informatique et des Sciences du Numérique ne commence <strong>qu</strong><strong>’en</strong><strong>&nbsp;terminale</strong><strong>&nbsp;S</strong>&nbsp;! « Certains principes fondamentaux sont accessibles dès la maternelle. Et un ordinateur n’est même pas nécessaire comme l’a prouvé le projet <a href="http://csunplugged.org/" target="_blank">Computer Science Unplugged</a>&nbsp;», poursuit Roberto Di Cosmo, qui a &nbsp;écrit la préface de la &nbsp;version française, <a href="http://csunplugged.org/sites/default/files/books/CS_Unplugged-fr.pdf" target="_blank">téléchargeable</a>, dont la traduction a été coordonnée par Inria (<a href="http://interstices.info/jcms/c_47072/enseigner-et-apprendre-les-sciences-informatiques-a-lecole" target="_blank">Interstices</a>).</p> <p>Un papier et un crayon suffisent pour expliquer et comprendre les <a href="http://www.inria.fr/recherches/culture-numerique/l-informatique-de-a-a-z/cartes-postales/a-comme-algorithme" target="_blank">algorithmes</a>, les langages de <strong>programmation</strong>, la structure d’un ordinateur ou d’un processeur, <strong>la</strong><strong>&nbsp;logique</strong><strong>&nbsp;binaire</strong>... Et quelques petits jeux permettent de comprendre des opérations simples mais fondamentales comme la capacité d’un ordinateur à faire un <strong>tri</strong><strong>&nbsp;numérique</strong><strong>&nbsp;ou</strong><strong>&nbsp;alphabétique</strong>&nbsp;(voir à ce sujet le projet <a href="http://scratch.mit.edu/" target="_blank">Scratch</a>&nbsp;du MIT).</p> <p>Le projet Unplugged est l’une des manifestations d’un courant de pensée pour lequel il existe des raisonnements spécifiques, une « <a href="http://www.cs.cmu.edu/afs/cs/usr/wing/www/ct-french.pdf" target="_blank">pensée informatique</a>&nbsp;» ou « Computational thinking ». En effet, comme l’explique <a href="http://fr.wikipedia.org/wiki/Jeannette_Wing" target="_blank">Jeannette Wing</a>, professeur d’informatique à l’Université Carnegie Mellon : « Penser en informaticien signifie beaucoup plus que savoir programmer, cela requiert de penser <strong>à</strong><strong>&nbsp;plusieurs</strong><strong>&nbsp;niveaux</strong><strong>&nbsp;d'abstraction</strong>&nbsp;».</p> <p>Pour Roberto Di Cosmo : « L’une des particularités de l’informatique est de permettre des « <strong>calculs</strong>&nbsp;» sur des objets qui ne sont pas forcément des nombres mais des <strong>structures</strong><strong>&nbsp;de</strong><strong>&nbsp;données</strong>&nbsp;(listes, tableaux, arbres, images...). Et il faut absolument en faire comprendre les limites ! D’une part, un calcul doit s’effectuer dans un <a href="http://interstices.info/jcms/int_63553/non-les-ordinateurs-ne-seront-jamais-tout-puissants" target="_blank">temps raisonnable</a>&nbsp;et, d’autre part, la calculabilité a ses impossibilités comme l’a démontré <a href="http://www.inria.fr/actualite/le-saviez-vous/une-trop-breve-histoire-d-alan-turing" target="_self">Alan Turing</a>. » On sait, par exemple, qu'on ne peut créer un logiciel capable de vérifier &nbsp;la correction de tous les &nbsp;logiciels...</p> <p>La méconnaissance des <a href="http://interstices.info/jcms/int_63553/non-les-ordinateurs-ne-seront-jamais-tout-puissants" target="_blank">limites de l’informatique</a>&nbsp;peut se traduire par une <strong>confiance</strong><strong>&nbsp;exagérée</strong>&nbsp;: « une question aussi importante que le vote électronique n’a pas suscité suffisamment de <a href="http://www.inria.fr/actualite/le-saviez-vous/le-vote-electronique-est-il-anti-democratique-par-essence" target="_self">réactions critiques</a>&nbsp;», regrette Roberto Di Cosmo, avant de donner un autre exemple : l’acharnement des entreprises et parfois des gouvernements à établir des <strong>protections</strong><strong>&nbsp;logicielles</strong>&nbsp;fiables contre la copie : « c’est un combat perdu d'avance. Les informaticiens le savent : copier &nbsp;l'information est l’un des comportements de base d’un processeur, c’est dans son ADN ! ».</p> Assises de l'enseignement supérieur et de la recherche : ouverture de l'appel à contributions http://www.inria.fr/actualite/actualites-inria/assises-de-la-recherche-2012 Wed, 5 Sep 2012 00:00:03 GMT ]]> <p>Les Assises de l'enseignement supérieur et de la recherche ont été lancées cet été par la ministre de l'Enseignement supérieur et de la Recherche, Geneviève Fioraso. Après une phase de consultation nationale, les Assises sont depuis le 3 septembre entrées dans la phase de recueil des contributions. De la quantité et de la qualité de ces contributions dépendra la portée du Rapport général, qui sera remis en décembre. A vos claviers! &nbsp;</p> <p>&nbsp;Les Assises ont été lancées le 11 juillet dernier par la ministre de l’Enseignement supérieur et de la Recherche, Geneviève Fioraso, avec trois chantiers thématiques principaux :&nbsp;</p> <ul> <li>la réussite des étudiants,</li> <li>la réorganisation de la Recherche,</li> <li>la révision de la gouvernance des établissements et des politiques de sites et de réseaux.</li> </ul> <p>Ces Assises sont animées par un comité de pilotage indépendant du ministère présidé par madame Françoise Barré-Sinoussi, Prix Nobel de médecine. Le Professeur Vincent Berger est Rapporteur Général de ce travail collectif.<strong>&nbsp;</strong></p> <p>Les Assises se déroulent selon le calendrier suivant : &nbsp;</p> <ul> <li><strong>Juillet à septembre 2012&nbsp;:</strong>&nbsp;consultation nationale&nbsp;</li> <li><strong>3 septembre&nbsp;:&nbsp;</strong>ouverture de l’espace &quot;Contribution&quot; sur le site des Assises</li> <li><strong>18 et 19 septembre&nbsp;:&nbsp;</strong>phase 2 de la consultation nationale</li> <li><strong>Jusqu’à mi-octobre</strong><strong>&nbsp;2012&nbsp;:</strong>&nbsp;Assises territoriales</li> <li><strong>26 et 27 novembre 2012&nbsp;:</strong>&nbsp;Assises nationales</li> </ul> <p>A ce jour, 53 organisations représentatives et institutionnelles de la Recherche et de l'Enseignement supérieur ont déjà été auditionnées, parmi lesquelles Inria. </p> <p>La phase de recueil des contributions a été ouverte en début de semaine. Acteurs, bénéficiaires et partenaires,&nbsp;toutes les personnes concernées sont désormais invitées à déposer leurs contributions sur l'espace réservé à cet effet sur le site des Assises. Ces contributions seront transmises directement au rapporteur du territoire et viendront enrichir le débat.<strong>&nbsp;</strong>A l’issue de cette concertation,&nbsp;<strong>un rapport sera remis à la ministre en décembre</strong>&nbsp;<strong>2012</strong>. Les nouvelles dispositions seront soumises au Parlement début 2013.</p> Marie Doumic-Jauffret : modéliser les maladies amyloïdes http://www.inria.fr/centre/paris-rocquencourt/actualites/marie-doumic-jauffret-modeliser-les-maladies-amyloides Tue, 4 Sep 2012 17:40:55 GMT ]]> <p>Marie Doumic-Jauffret fait partie des 4 candidats Inria sélectionnés dans la catégorie jeune chercheur de l’appel à projet européen ERC 2012. Son projet, baptisé Skipper, vise à mieux comprendre les maladies amyloïdes, dont font partie les maladies à prions et l’Alzheimer, afin d’aider les biologistes à identifier des solutions thérapeutiques.</p> <a name="eztoc552341_1" id="eztoc552341_1" class="anchor"></a><h3><strong>Comment avez-vous embrassé la recherche à Inria&nbsp;?</strong></h3><p><strong>Marie Doumic-Jauffret : </strong>Je ne me destinais pas à la recherche. Certains en rêvent depuis qu’ils sont petits, ce n’est pas mon cas&nbsp;! Après ma formation en mathématiques appliquées, j’ai fait une thèse dans le domaine des équations aux dérivées partielles appliquées aux lasers. Mais j’avais envie d’un métier concret, de me plonger dans ce qui me semblait la «&nbsp;vraie&nbsp;» vie. J’ai alors décidé de me tourner vers les métiers d’ingénieur. C’est comme cela que j’ai dirigé pendant 3 ans un service d’ingénierie, aux Voies Navigables de France, qui s’occupait de construction de barrages et d’écluses.</p> <p>Cela m’a beaucoup appris. A la fin de ce poste de trois ans, je me suis dit que je devais pouvoir faire de la recherche de façon tout aussi opérationnelle. Je m’étais également aperçue que ma thèse, qui me paraissait abstraite à l’époque, avait été reprise par d’autres et utilisée pour faire des simulations de rayons laser. En 2007, comme j’étais ingénieur des Ponts et Chaussées, j’ai pu rejoindre Inria en détachement. J’ai intégré l’équipe Bang à cause de ses applications à la biologie qui m’avaient parues fascinantes.</p> <a name="eztoc552341_2" id="eztoc552341_2" class="anchor"></a><h3><strong>Quel est le sujet de votre projet ERC&nbsp;Skipper ?</strong></h3><p><strong>Marie Doumic-Jauffret : </strong>Il s’agit d’appliquer la famille d’équations sur lesquelles une partie de l’équipe BANG travaille, qui sont des équations décrivant l’évolution en temps des populations, à la modélisation des maladies amyloïdes. Ces dernières, comme les maladies à prion ou l’Alzheimer, sont caractérisées par le dépôt d’agrégats de protéines dans les tissus du cerveau. Pour une raison mal comprise, les protéines changent de configuration et deviennent capables de polymériser, de s’attacher les unes aux&nbsp; autres et de former de gros agrégats ressemblant à de l’amidon, d’où le nom de fibres amyloïdes qui leur a été donné. Cette polymérisation s’apparente en fait aux mécanismes de croissance et de division étudiés dans l’équipe pour les cellules ou les bactéries, dans la mesure où les polymères croissent par ajout de monomères et se divisent par fragmentation. Avec les progrès de la technologie, les biologistes ont accumulé une quantité énorme de données dont il faut tirer le maximum. J’espère que mes modèles mathématiques pourront les aider en faisant ressortir des informations inédites des mesures dont ils disposent, qu’ils leur permettront de tirer le meilleur parti de ces mesures et d’identifier celles qui apporteront le plus d’informations.</p> <a name="eztoc552341_3" id="eztoc552341_3" class="anchor"></a><h3><strong>C’est un projet multidisciplinaire. Travaillez-vous avec des biologistes&nbsp;?</strong></h3><p><strong>Marie Doumic-Jauffret : </strong>C’est indispensable pour assurer la pertinence du modèle développé. Un biologiste de l’Inra, Human Rezaei, spécialiste des prions, est d’ailleurs impliqué dans le projet. Sa participation permet de confronter le modèle aux résultats d’expériences in vitro, mais pas seulement. La relation est scientifiquement enrichissante dans les deux sens. Le regard du mathématicien amène le biologiste à renouveler ses questions et à explorer de nouvelles pistes. A l’inverse, le biologiste me pose des problèmes mathématiques inédits, dévoile un aspect nouveau d’une équation pourtant très étudiée. Ce n’est pas facile car chacun raisonne avec l’apport de sa discipline mais c’est très stimulant. Cela demande en revanche un réel investissement, c’est-à-dire du temps, ce qui n’est généralement pas bien valorisé au sein de chaque discipline. C’est une grande richesse d’Inria d’accepter des profils vraiment multidisciplinaires. Le fait que l’ERC ait apprécié cette interaction avec la biologie donne une reconnaissance à cette pluridisciplinarité et offre une certaine liberté de recherche. Cela dit, je ne me suis pas faite biologiste pour autant, et ma place reste les mathématiques appliquées&nbsp;!</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc552341_4" id="eztoc552341_4" class="anchor"></a><h3><strong>«&nbsp;Un défi&nbsp;: modéliser la polymérisation à partir de données partielles et agrégées&nbsp;»</strong>&nbsp;</h3><p>L’application des équations aux dérivées partielles à la biologie est relativement&nbsp; récente car les problèmes sont beaucoup plus complexes encore qu’en physique. Il est par conséquent difficile de faire «&nbsp;coller&nbsp;» un modèle à une expérience. Il faut nécessairement faire des simplifications de sorte qu’il soit suffisamment simple pour pouvoir être étudié et assez complexe pour capturer l’essentiel du comportement biologique. Mais là n’est pas la seule difficulté. Dans le cas des maladies amyloïdes, les mesures sont nombreuses mais partielles ou agrégées, comme la mesure du nombre total de polymères au cours du temps. Le défi est de parvenir à développer des modèles qu’on puisse valider ou invalider à partir de ces données. Pour cela, Marie Doumic s’appuie sur les équations aux dérivées partielles (modèles de type croissance/fragmentation/coagulation), et confronte cette approche avec des approches statistiques et probabilistes — une rencontre riche d’enseignement et bien adaptée à ce type de problèmes —, ainsi que sur des techniques de problèmes inverses qui permettent, à partir des mesures d’un phénomène, de sélectionner le modèle auquel ce phénomène obéit. Dans le projet Skipper, l’étude est appliquée aux protéines, mais les méthodes dégagées doivent être suffisamment universelles pour avoir des retombées dans d’autres domaines.</p> </div> </div> La spécialité ISN fait sa rentrée ! http://www.inria.fr/centre/lille/actualites/la-specialite-isn-fait-sa-rentree Tue, 4 Sep 2012 14:42:14 GMT ]]> <p>L'enseignement ISN (informatique et sciences du numérique) fait sa rentrée au lycée&nbsp;! Les sciences du numérique ont envahi nos vies professionnelles et personnelles. Elles ont entraîné des mutations profondes dans nos sociétés (culture, sciences, économie, politique, etc.). Pourtant, seule une faible partie de la population maîtrise les mécanismes de ces mutations et en mesure&nbsp;les enjeux sociétaux.</p> <p>Avec sa page fan dédiée aux élèves, un manuel disponible, une plateforme spécifique à l'attention des enseignants, la spécialité ISN débarque en grande pompe dans les lycées de la région.</p> <p>L’objectif de l’enseignement de la <strong>spécialité Informatique et Sciences du Numérique</strong>&nbsp;en classe de terminale, série S n’est pas de former des experts en informatique, mais plutôt de fournir aux élèves quelques notions fondamentales et de les sensibiliser aux questions de société.</p> <p>L'Académie de Lille, l’Université Lille1 et le centre de recherche Inria Lille – Nord Europe accompagnent les établissements de la région vers un enseignement d’ouverture et de découverte des problématiques actuelles, qui valorise la créativité et la culture numérique.</p> Du risque dans l’air ? http://www.inria.fr/actualite/actualites-inria/du-risque-dans-l-air Mon, 3 Sep 2012 14:16:19 GMT ]]> <p>Près de 12 millions de Français ont vécu dans des zones n’ayant pas respecté les valeurs limites annuelles de particules PM10 dans l’air. C’est l’une des conclusions du Bilan de qualité de l’air 2011, publié en août 2012 par le Ministère de l’écologie, du développement durable et de l’énergie. Ces particules peuvent causer des décès ou des hospitalisations. Comme d’autres polluants, elles sont placées sous étroite surveillance scientifique.</p> <p>« L’amélioration de la <strong>qualité de l’air</strong>&nbsp;est une <a href="http://www.gouvernement.fr/gouvernement/qualite-de-l-air-publication-du-bilan-2011" target="_blank">priorité majeure</a>&nbsp;pour le Gouvernement », comme l’a souligné Delphine Batho, Ministre de l’Écologie. Une préoccupation partagée par l’<a href="http://www.who.int/mediacentre/factsheets/fs313/fr/index.html" target="_blank">OMS</a>&nbsp;- qui estime que la pollution atmosphérique en milieu urbain serait responsable d’<strong>1,3 million de décès annuels</strong>&nbsp;dans le monde - et par l’Union européenne, à travers différents programmes et notamment <a href="http://www.aphekom.org/c/document_library/get_file?uuid=78d7f516-cf7b-4092-b89f-36b41f8e2646&amp;groupId=10347" target="_blank">Aphekom</a>. Les principaux polluants incriminés sont des <strong>gaz</strong>&nbsp;(<a href="http://www.developpement-durable.gouv.fr/L-ozone.html" target="_blank">ozone</a>, dioxyde d’azote, dioxyde de soufre...), des <strong>métaux lourds</strong>&nbsp;(plomb, cadmium...), ou des <strong>particules en suspension</strong>&nbsp;dans l’air.</p> <p>Invisibles et dangereuses, les particules <a href="http://www.airparif.asso.fr/_pdf/publications/synthese_particules_110914.pdf" target="_blank">PM10 et PM2,5</a>&nbsp;sont définies par leur diamètre (inférieur à 10 ou 2,5 micromètres resp.). Elles sont si fines qu’elles <a href="http://sante.lefigaro.fr/actualite/2012/06/13/18377-particules-fines-porter-masque-ne-sert-rien" target="_self">traversent</a>&nbsp;les masques filtrants. En zone urbaine, elles proviennent notamment du <strong>trafic routier</strong>&nbsp;- les véhicules diesel étant <a href="http://www.lepoint.fr/auto-addict/qualite-de-l-air-baupin-appelle-a-une-de-dieselisation-du-parc-07-08-2012-1493687_646.php" target="_blank">spécialement incriminés</a>, notamment en raison des <a href="http://www.lepoint.fr/auto-addict/securite/pollution-pourquoi-le-bonus-ecologique-risque-d-aggraver-la-situation-07-08-2012-1493888_657.php" target="_self">bonus</a>&nbsp;dont ils bénéficient. Si l’on <strong>réduisait les concentrations</strong>&nbsp;de particules PM10 de 70 à 20 microgrammes par m3, la mortalité liée à la qualité de l’air pourrait baisser de 15%, selon l’OMS. Les seules particules PM2,5 auraient causé près de <a href="http://www.developpement-durable.gouv.fr/Quels-sont-les-impacts-sur-la.html" target="_blank">42 000 décès</a>&nbsp;en France en 2005 et plusieurs grandes villes étudient des mesures de réduction (zones d'actions prioritaires pour l'air ou <a href="http://fr.wikipedia.org/wiki/Zone_d'actions_prioritaires_pour_l'air" target="_blank">ZAPA</a>).</p> <p>En France, la <strong>surveillance</strong>&nbsp;de la qualité de l’air est assurée par des associations indépendantes agréées par l’État, telles <a href="http://www.airparif.fr/" target="_blank">Airparif</a>&nbsp;pour l’Île-de-France. Pour sa part, l’Union européenne émet régulièrement des bilans : le dernier en date atteste que <a href="http://www.eea.europa.eu/highlights/eleven-member-states-exceed-air" target="_blank">11 États membres</a>, dont la France, dépasseraient les plafonds d’émission de polluants atmosphériques. Mais il y a de nombreux signes d’espoir puisque la tendance sur&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; plusieurs années voire décennies est à l'amélioration pour plusieurs polluants, dont le dioxyde de soufre, les composés organiques volatils et même les particules PM2,5 !</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc551982_1" id="eztoc551982_1" class="anchor"></a><h3><strong>Prédire les pics de pollution</strong></h3> <div class="object-left"> <p class="illustration" style="width:206px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/le-saviez-vous/images-corps/voitures_arret/552127-1-fre-FR/voitures_arret_medium.jpg" width="200" height="150" alt="voitures arrêtées en files " title="voitures arrêtées en files " /> </span> <span class="legende"> <cite>© Tetra Images / Getty Images</cite> </span> </p></div> <p>Placée sous la haute surveillance de nombreux <strong>observatoires</strong>&nbsp;nationaux et internationaux, la qualité de l’air que nous respirons peut être estimée à l’avance, comme en météo. «&nbsp;Notre travail consiste à estimer au mieux les concentrations de polluants présents dans l’atmosphère que nous respirons, donc au voisinage du sol. Néanmoins cela nous oblige à <strong>simuler en 3D</strong>&nbsp;les premiers kilomètres de l’atmosphère. Les polluants y sont mélangés par turbulence, transportés par les vents et transformés par</p> <p>réactions chimiques.», explique <a href="http://vivienmallet.net/fr-index.php" target="_blank">Vivien Mallet</a>, chargé de recherche au sein de l'équipe de recherche <a href="/domaines/stic-pour-les-sciences-de-la-vie-et-de-l-environnement/observation-et-modelisation-pour-les-sciences-de-l-environnement/clime" target="_self">Clime </a>d’Inria (Paris-Rocquencourt) en commun avec l’École des Ponts ParisTech, au sein du Centre d'Enseignement et de Recherche en Environnement Atmosphérique (<a href="http://cerea.enpc.fr/fr/" target="_blank">Cerea</a>). Le Centre développe un système en modélisation et simulationde la <strong>qualité de l'air</strong>&nbsp;<a href="http://cerea.enpc.fr/polyphemus/" target="_blank">Polyphemus</a>, placé sous la responsabilité de Vivien Mallet.&nbsp;</p> <p>Certains modèles effectuent des calculs fins à l'échelle d'une ville : ils peuvent estimer le niveau de pollution d’une rue donnée. C’est le cas sur le site « <a href="http://votreair.airparif.fr/" target="_blank">votre air</a>&nbsp;» de l’association <a href="http://www.airparif.asso.fr/" target="_blank">Airparif</a>, encore au stade de prototype. Il <strong>cartographie la qualité de l’air</strong>&nbsp;au cœur de Paris, et montre les concentrations de 3 polluants : dioxyde d’azote, ozone et particules fines PM10. L’équipe de recherche Clime est intervenue pour le couplage avec les observations.&nbsp; Le modèle sous-jacent est commercialisé et développé par une PME partenaire d'Inria, la société <a href="http://www.numtech.fr/" target="_blank">Numtech</a>, experte dans l’étude des événements atmosphériques et de leurs conséquences. Il existe des modélisations opérationnelles pour d’autres <a href="http://www.atmo-alsace.net/site/Accueil-2.html" target="_blank">villes françaises</a>. Au niveau national et européen, des prédictions et observations sont disponibles sur les sites <a href="http://www.prevair.org/fr/index.php" target="_blank">Prev’air</a>&nbsp;ou <a href="http://www.atmo-france.org/fr/" target="_blank">Atmo-France</a>.</p> <p>&nbsp;«Ces prévisions sont exploitables pour des prévisions à 2 ou 3 jours, avec une fiabilité variable selon les polluants&nbsp;», souligne Vivien Mallet. Il existe en effet une <strong>multitude d’incertitudes</strong>&nbsp;: données météorologiques mal prévues, émissions difficiles à quantifier précisément, processus physiques mal connus, description partielle des mécanismes chimiques... auxquelles s’ajoutent les simplifications des modèles numériques pour réduire les temps de calcul. «&nbsp;Pour réduire les incertitudes des prévisions, nous exploitons des observations et nous combinons aussi plusieurs modèles de prévision. Nous essayons enfin de quantifier le niveau de confiance que nous pouvons avoir dans les prévisions résultantes.&nbsp;» Complexes et coûteuses, les recherches en modélisation sur la qualité de l’air pourraient améliorer notre santé mais aussi éviter à la France le paiement de lourdes <a href="http://www.atmo-france.org/fr/index.php?/20120615363/les-particules-emises-par-le-diesel-classees-cancerogene-par-lorganisation-mondiale-pour-la-sante/id-menu-120.html" target="_blank">amendes européennes</a>&nbsp;!&nbsp;</p> <p>Et de nouveaux challenges surgissent : « on aimerait exploiter des <strong>données satellite</strong>&nbsp;mais les satellites ne permettent pas d'observer avec précision les concentrations près du sol.», précise Vivien Mallet. Autre défi, l'assimilation des données provenant d’une foule de <strong>capteurs mobiles</strong>&nbsp;portés par des voitures, des bus, des montres... et de petits capteurs fixes répartis dans les villes ou les habitations.&nbsp;</p> </div> </div> Philippe Nain, président de la Commission d'évaluation d'Inria http://www.inria.fr/actualite/actualites-inria/nomination-philippe-nain Mon, 3 Sep 2012 10:59:38 GMT ]]> <p>Le président directeur-général, Michel Cosnard, après avis du Conseil scientifique d'Inria, a nommé Philippe Nain à la présidence de la Commission d'évaluation d'Inria à compter du 1er septembre 2012. </p> <p>Responsable de l'équipe-projet Maestro à Sophia Antipolis - Méditerranée, <strong>Philippe Nain</strong>&nbsp;succède à Gérard Berry récemment nommé Professeur au Collège de France. Par ailleurs, Philippe Nain sera entouré d'<strong>Hélène Barucq</strong>&nbsp;et de <strong>Nicolas Sendrier</strong>, Vice-présidents de la Commission d'évaluation à compter du 1er septembre 2012.</p> Bruno Wierzbicki, Directeur des ressources humaines http://www.inria.fr/actualite/actualites-inria/bruno-wierzbicki-nouveau-drh Fri, 31 Aug 2012 10:31:52 GMT ]]> <p>Bruno Wierzbicki est nommé directeur des ressources humaines à compter du 1er septembre 2012. Il succède ainsi à Muriel Sinanidès. </p> <p>Ancien officier de l'armée de l'air, <strong>Bruno Wierzbicki</strong>&nbsp;arrive du Conseil général de l'Oise, où il était directeur des ressources humaines. Il devient le nouveau DRH d'Inria.<em>&nbsp;&quot;Je suis&nbsp; enthousiasmé de rejoindre ce bel institut. Le fonctionnement de l'institut n'est pas sans rappeler celui de l'armée de l'air avec une DRH centrale et des services RH de sites en régions</em><em>.&quot;&nbsp;</em>&nbsp;Les ressources humaines étant sa vraie passion, Bruno Wierzbicki est engagé dans de nombreuses activités extra-professionnelles en relation avec son domaine. Il intervient notamment à <a href="http://www.sciencespo-rennes.fr/" target="_blank">Sciences Po Rennes</a>. Il a donné des cours aux universités de Paris VIII et Paris XIII ainsi qu'à l'IGS (école spécialisée en RH), où il est membre du comité scientifique. Il est également membre de l'<a href="http://www.andrh.fr/" target="_blank">ANDRH</a>&nbsp;(Association Nationale des DRH) et membre du comité de rédaction de sa revue pour laquelle il écrit des articles. Parallèlement, actif sur le web, Il rédige des articles pour le site <a href="http://www.rhinfo.com/" target="_blank">rhinfo.com</a>.</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc551392_1" id="eztoc551392_1" class="anchor"></a><h3>Son parcours</h3><p>Après des classes préparatoires,&nbsp;<strong>&nbsp;Bruno Wierzbicki</strong>&nbsp;a intégré l'armée de l'air. Il a obtenu un diplôme d'ingénieur à l'école de l'air de Salon-de-Provence. Devenu pilote de chasse, il a poursuivi son cursus dans l'armée en tant qu’officier. Il a pris ainsi plus de responsabilités en management et conduite de projets. Il s'est ensuite orienté vers les Ressources Humaines <em>&quot;C'est quelque chose qui touche à mes valeurs profondes&quot;</em>. Afin d’avoir des bases théoriques dans ce nouveau champ d’activités, il s'est formé à la Sorbonne où il a décroché un Master 2 en Ressources Humaines. Puis, Bruno Wierzbicki a intégré la direction des ressources humaines de l'armée de l'air. Il était alors responsable de la mobilité des 45 000 sous-officiers et militaires du rang de l'armée de l'air. Plus tard, il a rejoint la DRH du ministère de la défense en tant que responsable fonctionnel d'une mission d'harmonisation des processus RH des armées et directions. Enfin, Bruno Wierzbicki quitte son uniforme et le monde de la Défense pour rejoindre celui des collectivités locales en intégrant le Conseil général de l'Oise comme Directeur des Ressources Humaines. Il y passe un peu moins de deux années avant de rejoindre Inria.</p> </div> </div> Les robots s’invitent à la cocktail party http://www.inria.fr/actualite/actualites-inria/les-robots-s-invitent-a-la-cocktail-party Fri, 24 Aug 2012 16:39:39 GMT ]]> <p>Lors d’un cocktail, une personne dialogue avec un petit groupe. Soudain, c’est à vous qu’elle s’adresse. Vous engagez la conversation. Facile ? Des millions d’années d’évolution ont pourtant été nécessaires pour que votre cerveau adopte ce comportement social basique ! Ce problème d’attention sélective est appelé « cocktail party effect » par les psychologues. Le résoudre est un point décisif pour que des robots interagissent avec les humains.</p> <p>Puissants, rapides et précis, beaucoup de robots impressionnent par leurs performances surhumaines. Mais il faut reconnaître que la plupart sont un peu « autistes », au sens où il leur manque de nombreuses compétences sociales. <strong>Des robots sociaux</strong>, &nbsp;plus « conviviaux », devront tenir compte de l’environnement sonore et notamment de la parole. Certes, la reconnaissance de la parole est proposée aujourd’hui par de nombreux dispositifs, en particulier des téléphones. « Mais il suffit de placer le microphone à quelques mètres de la personne et les performances du système vont s’effondrer. Des bruits divers et la simple réverbération de la parole sur les murs de la pièce vont parasiter fortement le signal reçu par le microphone », explique&nbsp;<strong>Radu Horaud,</strong><strong>&nbsp;responsable de l’équipe de recherche <a href="/domaines/perception-cognition-interaction/vision-perception-et-interpretation-multimedia/perception_hidden" target="_self">Perception</a>, chez Inria </strong>(Grenoble), et du <strong>projet européen <a href="http://humavips.inrialpes.fr/" target="_blank">Humavips</a></strong>.</p> <p>L’idée de départ du projet Humavips (Humanoids with Auditory and Visual Abilities In Populated Spaces) est d’adapter un robot à la situation « cocktail party ». Dans ce but, l’équipe se focalise sur <strong>l’analyse des signaux électriques</strong>&nbsp;issus des deux microphones et des deux capteurs d’images : les « oreilles » et les « yeux » du robot. Il est placé dans un lieu où se trouvent plusieurs personnes, engagées dans différentes conversations, à quelques mètres d’elles. « Il faut d’abord que le robot soit capable de voir combien de personnes sont devant lui et à quelle distance. Ensuite, il doit détecter si l’une d’elles semble lui prêter attention. Puis s’avancer vers elle afin de se placer dans une position optimale permettant d’identifier si les sons qu’elle émet lui sont destinés ou pas. Y parvenir serait un beau succès ! », poursuit Radu Horaud.&nbsp;</p> <p>Ces recherches se placent donc <strong>en amont de la compréhension du langage </strong>et de la conversation elle-même<strong>&nbsp;</strong>- ces derniers domaines étant explorés par de nombreuses équipes de recherche internationales. « Trop souvent, on assimile<strong>&nbsp;l’intelligence</strong>&nbsp;à la seule compréhension du langage. Or l’intelligence s’apparente aussi à la<strong>&nbsp;capacité d’extraire les informations, </strong>utiles à l’accomplissement d’une action, parmi un nombre immense d’informations inutiles. » Là où commence la sociabilité, il faut donc déjà beaucoup d’intelligence !</p> <div class="highlight_box"> <div class="highlight_content"> <a name="eztoc551017_1" id="eztoc551017_1" class="anchor"></a><h3>Les robots sociaux, enjeu européen</h3> <div class="object-left"> <p class="illustration" style="width:206px;"> <span class="visu"> <img src="/var/inria/storage/images/medias/le-saviez-vous/images-corps/robot-seul/551262-2-fre-FR/robot-seul_medium.png" width="200" height="150" alt="robot seul" title="robot seul" /> </span> <span class="legende"> <cite>© Inria / Photo H. Raguet</cite> </span> </p></div> <p>Le projet Humavips, lancé en février 2010 pour 3 ans, entre dans le <a href="http://cordis.europa.eu/fp7/home_fr.html" target="_blank">7ème programme-cadre</a>&nbsp;européen. Quatre équipes universitaires de France, République Tchèque, Suisse et Allemagne, ainsi qu’un industriel français spécialiste des robots humanoïdes, <a href="http://www.aldebaran-robotics.com/fr/" target="_blank">Aldebaran Robotics</a>, sont impliqués dans ce projet. « Nous faisons le pari que les robots peuvent sortir des labos. Nous avons cette idée un peu folle : vous achetez un robot et pouvez ensuite <strong>télécharger les applis qui vous sont utiles</strong>, comme on le fait avec un ordinateur ou un smartphone : c’est ça notre modèle », explique <strong>Radu Horaud</strong>, responsable du projet Humavips. Concrètement, une <a href="https://code.humavips.eu/" target="_blank">plateforme</a>&nbsp;open source met les résultats des recherches à disposition des chercheurs et contributeurs du monde entier. Elle s’organise autour de l’architecture du robot humanoïde <a href="http://fr.wikipedia.org/wiki/NAO_(robotique)" target="_blank">NAO</a>, industrialisé par Aldebaran Robotics.</p> <p>« Il est devenu assez facile de localiser une source sonore à l’aide de 2 microphones. L’un d’eux est généralement plus proche de la source que l’autre : ceci introduit un léger décalage dans le temps entre les 2 signaux reçus. Des logiciels de traitement numérique comparent les 2 signaux, détectent le décalage, et on peut ainsi faire tourner la tête du robot vers la source (ce qui se traduit par l’annulation du décalage). De cette manière, on finit par localiser les différentes sources sonores, même lorsque deux personnes parlent en même temps, par exemple », explique Radu Horaud.</p> <p>Reste une grande difficulté : « le même mot peut être véhiculé par des signaux électro-acoustiques très différents, suivant le ton propre à la voix de la personne et à ses intonations. Et le problème se complique encore si on est à distance et qu’il y a plusieurs sources sonores qui s’additionnent au signal ». Le projet Humavips va se clore en 2013 mais Radu Horaud est confiant : « on prépare déjà la suite ».</p> </div> </div>