Le réseau Arpanet, 50 ans déjà

Date:
Mis à jour le 23/09/2020
Précurseur de l’Internet d’aujourd’hui, le réseau Arpanet a été créé par le ministère américain de la Défense en 1969. C’est néanmoins en France et dans les laboratoires d’Inria que certaines bases du protocole de commutation de paquets ont été inventées quatre ans plus tard. Partie prenante de ce projet dirigé alors par Louis Pouzin, le chercheur Gérard Le Lann revient en détails sur ces recherches pionnières qui ont permis la construction du protocole TCP/IP, brique fondamentale de l’Internet depuis lors !
IoT Nancy
Scuba : une chaine d'outils pour la sécurité des objets connectés © Inria / Photo D. Betzinger

Genèse du projet Arpanet

De quelle manière avez-vous participé au projet Arpanet ?

J'ai commencé à participer au projet ARPANET alors que le protocole TCP/IP était en cours de définition, et je me suis intéressé aux problèmes de synchronisation et de contrôle des flux dans les protocoles dits "de bout en bout". Dès 1972, mon travail était centré sur les premiers protocoles conçus pour ARPANET, comme le protocole NCP, et pour le réseau Cyclades.
J'avais rejoint le projet Cyclades pour créer une équipe à Rennes, où je bénéficiais d'un centre informatique bien organisé. J'ai décidé de mettre en place un programme de travail spécifique après avoir appris qu'un compilateur Simula-67 était disponible. Pourquoi ne pas développer un simulateur basé sur les événements pour révéler les causes des dysfonctionnements présentés par les premiers protocoles Cyclades, inspirés en partie par le protocole NCP ? L’idée s’est révélée bonne. Simula-67 était le premier langage orienté objet jamais créé et la programmation dans ce langage s'est avérée incroyablement plaisante et efficace. Les simulations ont été centrées sur la couche de transport (couche 4), tandis que du côté d'ARPANET, ils étudiaient les problèmes des couches 3 et 4 (l'organisation des couches n'était pas encore très claire). J'ai choisi de ne prendre en compte que les connexions de bout en bout entre les ordinateurs, et non pas les nœuds de commutation de paquets (nœuds Cigale ou IMP ARPANET). Cela nous a permis de nous pencher sur les problèmes de synchronisation de bout en bout sans nous exposer aux limitations artificielles propres à une couche réseau en particulier.

J'ai ensuite contacté les équipes ARPANET. Quand Louis Pouzin m'a engagé, il m’a dit qu'il voulait quelqu'un issu du projet Cyclades qui pourrait travailler en immersion sur un site ARPANET. C'était en effet une perspective idéale.

Avant de rejoindre Cyclades, j'avais passé trois ans au CERN, où je travaillais dans un environnement international et où je partageais mon bureau avec un collègue anglais. Je voulais me confronter à un défi plus important, du point de vue scientifique et sociétal.

J'ai donc entamé une tournée des centres ARPANET au printemps 1973. La DARPA (Washington), BBN (Cambridge, MA), l'université de Stanford (Palo Alto, CA), et l’UCLA (Los Angeles, CA) figuraient sur ma liste.

Vinton Cerf venait juste d'être nommé professeur au Digital Systems Lab de Stanford. Quand je l'ai rencontré, j'ai su que mon choix était fait, tant pour les échanges scientifiques haut niveau que pour le contact humain. J'avais apporté les résultats de mes simulations et Vint m'a dit qu'ils étaient très utiles, car le protocole NCP devait être remplacé par d'autres (TCP et IP étaient en préparation). Je me suis donc rendu à Stanford en juin 1973 pour y passer une année, afin de travailler sur les problèmes de synchronisation, le contrôle des flux, le contrôle des erreurs et les défaillances anormales des connexions de bout en bout.

 

La guerre des protocoles

Vinton Cerf venait juste d'être nommé à Stanford. Disposait-il déjà d'une équipe ?

Oui. Peu après avoir obtenu son PhD à UCLA, Vint a commencé à enseigner à Stanford et il a reçu une subvention de la DARPA. Il a rapidement établi sa propre équipe (une demi-douzaine de doctorants et un ou deux ingénieurs en charge de la logistique, de l'installation de l'IMP, du FTP et du logiciel de messagerie électronique).

Vous évoquez un financement de la DARPA

Oui, le financement venait du Département de la Défense par l'intermédiaire de la DARPA. À la fin des années soixante, encouragé par les travaux de Leonard Kleinrock (alors au MIT) et de la Rand Corporation, la DARPA a lancé le projet ARPANET. Plus tard, quand il devenait évident que la commutation de paquets ouvrait des opportunités immenses, la National Science Foundation et l'industrie informatique ont joint leurs forces à celles de la DARPA. Le protocole TCP/IP est devenu un modèle de base en 1983, quand la DARPA a décidé de mettre cette technologie dans le domaine public.

Le financement était militaire, mais le projet n'était pas confidentiel ; de plus, les chercheurs étrangers étaient les bienvenus dans les équipes…

Durant les années ARPANET, des financements de la DARPA ont aussi été accordés à des équipes non américaines ayant des liens avec ARPANET, aux Norvégiens notamment. Les Britanniques et les Français avaient leur propres budgets nationaux. L'intégration d'autres chercheurs a toujours été une politique de la DARPA et des États-Unis. Pour autant que je sache, les développements d'ARPANET n'étaient pas classés secret défense. Il a pu y avoir des clauses de confidentialité ou des brevets confidentiels liés aux travaux menés par BBN ou quelques équipes ARPANET.

Une manière de penser spécifique à la Silicon Valley

Quand vous êtes arrivé à Stanford, après avoir été employé par le CERN en France, avez-vous découvert une ambiance de travail différente ?

Oui. Le CERN est une organisation très internationale. Mais c'est une énorme machine. J'ai été engagé pour rejoindre une équipe déjà structurée, et on ne me demandait pas vraiment de me montrer innovant.

La grosse différence avec Stanford était que j'y étais pour apporter quelque chose d'entièrement nouveau. Toute l'équipe de Vint lançait des idées en permanence, s'interrogeait sur des questions fondamentales concernant la communication interprocessus variable dans le temps et génératrice d'erreurs. En fait, sans le savoir à l'époque, nous étions en train de découvrir une terre inconnue qui allait prendre le nom d' "informatique distribuée" des années plus tard. Dans une certaine mesure, nous découvrions que notre discipline s'était jusqu'alors concentrée sur un cas particulier, les systèmes centralisés, et que l'heure était venue d'une révolution mentale comparable à la physique relativiste : il fallait abandonner l'hypothèse selon laquelle les processus devaient partager le même référentiel espace/temps. Dans les systèmes distribués, il n'existe pas de locus de contrôle central. Un "état global" étant nécessaire pour doter tout système des propriétés souhaitées, des algorithmes spécifiques (distribués) devaient être conçus à cette fin.

Par la suite, vous avez réorienté vos recherches en direction de l'informatique distribuée ?

C'est ça. Le protocole TCP était en cours de conception, et les fameuses RFC abordaient les questions fondamentales. Les bases étaient posées. Un exemple concret me vient à l'esprit. Si je me souviens bien, c'est Ray Tomlinson qui, avec le protocole du bit alterné, a proposé une version primitive du schéma de fenêtre glissante sur lequel je travaillais (Le Lann & Le Goff, 1978). L'hypothèse selon laquelle il ne pouvait y avoir qu'un seul paquet en transit a été abandonnée, et nous devions trouver un schéma où plusieurs paquets en transit sur une liaison en duplex intégral pouvaient être désignés sans ambiguïté en l'absence d'un référentiel temps/espace "naturel" et en présence d'erreurs (les paquets devant être répétés, cela augmentait le besoin de savoir si un paquet avait déjà été reçu ou s'il était nouveau).

Pour dire les choses simplement, les protocoles réseau à l'ère d'ARPANET posaient des problèmes de cardinalité 2 (de bout en bout), alors que des algorithmes distribués sont nécessaires pour résoudre des problèmes de cardinalité supérieure à 2.

Comment le travail et les thèmes de recherche étaient-ils répartis et organisés au sein des équipes ?

Pour ce qui me concerne, à part mon travail sur le protocole TCP, j'avais une liberté totale. Par exemple, quand j'étais dans l'équipe de Vint, je me suis intéressé aux travaux menés au Xerox PARC non loin de là, qui ont abouti à la création d'Ethernet. Je lisais aussi des articles sur l'anneau développé à l'université Irvine (CA). Les deux sujets ont bien sûr influencé mon travail sur les réseaux locaux en temps réel. Les étudiants en PhD avaient le choix entre plusieurs sujets sélectionnés par Vint. Nous organisions des présentations toutes les semaines. Chacun était libre de choisir son thème en lien avec les problèmes soulevés ou les articles publiés. Nous cherchions des solutions, et il régnait un esprit de compétition scientifique, ainsi que l'assurance que nous pouvions proposer n'importe quelle "idée folle" et obtenir un feedback immédiat. Cette manière de penser était spécifique à la naissance de la Silicon Valley.

Est-ce un état d'esprit spécifique aux États-Unis ?

Ce partage de percées spéculatives est spécifique à la recherche. Aux États-Unis, il était plus facile qu'ailleurs de déployer des efforts massifs qui attireraient l'attention et les meilleurs chercheurs. À l'époque, il n’y avait pas une grande conscience de ces sujets émergents en France. Quand je suis rentré en France en 1974, j'ai commencé à donner un cours sur les réseaux informatiques à l'université de Rennes. En 1977, un des professeurs de cette université n'avait toujours pas bien compris ce dont il s'agissait. Pour lui, les questions de "bits par seconde", du "taux de perte des messages" ou de "l'acheminement fiable des messages" ne relevaient pas de l'informatique, mais de la physique. Il existait clairement un fossé culturel énorme entre les universités françaises et américaines à l'époque.

Cela a-t-il été difficile de revenir en France ?

J'ai tenu parole. J'avais promis à Louis Pouzin que je reviendrais dans l'équipe de Cyclades, même si j'ai été très tenté de rester aux États-Unis. Aux premières heures de la Silicon Valley, on nous proposait en effet des opportunités de travail en or.

Comment avez-vous tiré parti du travail réalisé aux États-Unis ?

Quatre ans après avoir quitté Stanford, j'ai publié un article basé sur mon travail initial en France et ensuite à Stanford. Proposer des articles sur mes travaux passés ne m'intéressait pas vraiment, j'étais complètement investi dans mes recherches sur les algorithmes distribués.

Aux États-Unis, j'ai appris comment mener une recherche disruptive : ne pas suivre la masse, penser par soi-même, et si on a suffisamment confiance dans ses découvertes, prendre ses responsabilités et publier, même si on est bien loin des sujets dominants ou à la mode.

Votre contribution à l'ARPANET a été reconnue puisque votre nom figure sur la plaque célébrant la "Naissance de l'Internet" à Stanford…

Oui. Je n'ai malheureusement pas pu assister à la fête qui a eu lieu à cette occasion en juillet 2005.

En revenant en France, avez-vous effectué un transfert de connaissances ?

Absolument. Qu'avais-je à partager ? Des architectures en couches, l'importance de bien distinguer les aspects physiques (transmissions, liens, ordinateurs) des structures virtuelles/logiques (connexion, processus, modèles de systèmes). En 1977, j'ai publié un article pionnier sur l'informatique distribuée (un algorithme distribué pour une exclusion mutuelle tolérante aux défauts, basé sur le concept d'anneau virtuel).

J'ai rapporté des informations sur la manière dont le routage se ferait dans le futur Internet. Et des connaissances sur ce qui allait devenir un domaine très important : les réseaux locaux.

Vers une protection des données personnelles

Vous souvenez-vous d'autres Européens qui ont travaillé de manière directe au sein d'ARPANET ?

Des Européens en immersion dans des équipes d'ARPANET ? Je ne me rappelle pas, mais des Européens ont apporté des contributions importantes. L'idée des protocoles en couches a été adoptée par tous et a mené au projet OSI à l'Organisation internationale de normalisation, projet qui a largement mobilisé la communauté étrangère. J'ai eu de nombreuses discussions avec Hubert Zimmermann sur le modèle en couches, mais j'ai rapidement abandonné parce que j'étais plus intéressé par mon programme de recherche, plus théorique. Un des membres de Cyclades, Jean Le Bihan, a proposé en 1978 que je rejoigne le projet Sirius qu'il menait sur les bases de données distribuées, ce que j'ai fait car cela m'a permis de travailler sur les problèmes d'algorithmique répartie comme la gestion des accès concurrents et la théorie de la sérialisabilité.

Concernant l'OSI, la question était réglée pour moi car je déteste les réunions de comités de normalisation. Je trouve qu'elles mettent trop de temps à atteindre la convergence et que les bonnes idées viennent de l'extérieur dans bien des cas. Tant de "normes" ont été abandonnées quelques années seulement après leur publication ! John McQuillan a dit une chose que j'ai beaucoup aimée dans les années quatre-vingts : « Les normes sont super, il y en a tellement qu'on peut choisir celle qui nous convient » ! Les normes reposent sur des accords centrés sur les Hommes, ce qui explique pourquoi certaines d'entre elles ont des failles, notamment celles reposant sur des "solutions" impossibles. Les normes actuelles relatives à des schémas de coopération intervéhiculaire basés sur les radiocommunications sans fil pour les véhicules autonomes/automatisés en sont un exemple : je travaille actuellement sur les réseaux de véhicules autonomes terrestres et aériens.

Avez-vous des regrets sur des éléments auxquels vous n'avez pas pensé à l'époque d'ARPANET ?

Nous n'avions pas prévu les cyberattaques, les menaces sur la vie privée ou le cyberespionnage. Nous étions fermement convaincus que nous étions en train de développer un outil qui allait servir l'humanité, et personne n'a pensé qu'il pourrait être utilisé à des fins malhonnêtes. Il n'y a ni algorithmes de chiffrement, ni schémas de pseudonymie dans l'ADN des protocoles ARPANET. Ces questions ont gagné en visibilité depuis l'avènement des réseaux mobiles sans fil. Nous savons que nous sommes vulnérables dans le cyberspace avec nos smartphones. Les problèmes sont encore plus inquiétants avec les futurs véhicules autonomes "connectés". Avec les solutions actuelles, ces véhicules sont l'équivalent de smartphones sur roues, ce qui nous rend vulnérables dans l'espace physique : ces smartphones sur roues peuvent tuer !

Pour conclure, qu'est-ce qui reste d'ARPANET ?

Aujourd'hui, tout fonctionne avec le protocole TCP/IP, l’Internet n'aurait pas existé sans ARPANET (et les contributions externes, notamment françaises et britanniques), et Internet n'est pas mort, contrairement à ce que veulent faire croire des "prédictions" dogmatiques récurrentes ! Plus que tout, la commutation de paquets a été LA technologie révolutionnaire cruciale et c’est ARPANET qui a ouvert la voie. Sans la commutation de paquets, les cyberservices que nous utilisons au quotidien et les technologies récentes (l’Internet des objets, par exemple) n'auraient jamais vu le jour.

En 2013, à l’École militaire, après avoir reçu le Prix Willis Lamb de l'Académie française des sciences, vous avez donné un cours avec Bob Metcalfe et Vint Cerf, et je me rappelle qu'il y avait aussi des références aux applications dans le secteur de l'énergie...

C'est vrai, Bob Metcalfe avait évoqué l'idée d'un futur "Enernet", un réseau ouvert basé sur la commutation de paquets d'énergie, où les paquets d'énergie seraient produits, distribués, négociés et consommés partout, à tout moment. L'avenir nous dira si un système proche d' "Enernet" sera déployé un jour. Nous avons beaucoup de défis à relever. Dans la liste des technologies révolutionnaires figurent les communications optiques mobiles, passives et actives (communications par lumière visible). Elles pourront servir à résoudre les problèmes laissés sans réponse par les radiotechnologies. Juste un exemple rapide : le nommage spontané dans les réseaux mobiles ouverts sans connaissance préalable des voisins, des abonnements, des géolocalisations ou des vélocités. Les communications optiques ont aussi un avantage décisif sur les radiocommunications : elles peuvent protéger la vie privée de par leur conception même. Concernant la protections des données personnelles, avec le RGPD, les Européens sont en avance cette fois.

 

Le parcours de Gérard Le Lann

Diplômé en Mathématiques appliquées de l'université de Toulouse, ingénieur ENSEEIHT (Toulouse), puis docteur en mathématiques, option informatique, de l'université de Rennes, Gérard Le Lann commence sa carrière au CERN en 1969.

En 1972 il rejoint l’IRIA (devenu Inria depuis), pour participer au projet-pilote Cylades dirigé par Louis Pouzin dont l’objectif est de créer un réseau d’ordinateurs capable de concurrencer le réseau Arpanet qui est en train d’être mis en place aux États-Unis.

À l’université de Rennes, il crée la première équipe sur les réseaux informatiques. À Stanford University, suite à ses travaux de simulation sur les protocoles réseaux, il travaille avec Vinton Cerf sur la conception des protocoles TCP/IP qui sont depuis utilisés pour le transfert des données sur Internet.

De retour à l’IRIA, il publie en 1977 un article fondateur sur les algorithmes distribués tolérant les défaillances. Il est nommé directeur de recherche en 1978. Au cours des années quatre-vingts, il publie des résultats de recherche déterminants sur les bases de données distribuées et sur les systèmes temps réel, qui, outre des partenariats scientifiques, lui valent de nombreuses coopérations avec le milieu industriel et des organismes nationaux (notamment la DGA) et supranationaux (notamment l’ESA (European Space Agency)).


En témoignent l’exploitation du brevet "Ethernet déterministe" dans les domaines civil et de défense, et la mise à disposition gracieuse pendant trois ans de calculateurs par DEC (Digital Equipment Corporation) à Rocquencourt, la première en Europe de la part de DEC. Outre l’algorithmique distribuée temps réel, ses travaux portent ensuite sur l’ingénierie système fondée sur les preuves et sur les systèmes critiques. Directeur de recherche émérite depuis 2008, il travaille aujourd’hui sur les réseaux de véhicules automatisés et communicants, pour lesquels il propose des solutions cyberphysiques assurant à la fois l’innocuité (quasi absence d’accidents) et la cybesécurité (absence de cyberespionnage et immunité aux cyberattaques).

Gérard Le Lann a reçu en 2012 le prix Willis Lamb de l'Académie des Sciences.