Réseau & Communication

Ramener le calcul et le stockage au plus près de l'utilisateur

Date:
Mis à jour le 13/12/2023
Nouvelle équipe dirigée par Adrien Lebre à Nantes, Stack s'attelle à redéfinir les infrastructures de l'informatique en nuage. Objectif : relocaliser les centres de données afin de répondre aux nouvelles contraintes de latence des nouveaux usages (réalité augmentée, Internet des objets…) tout en essayant d’en minimiser l’impact énergétique. Pour orchestrer cette transition du cloud vers l'edge computing, académiques et industriels s'appuient sur des projets open source conséquents, tels que l’écosystème OpenStack supporté par une communauté de plus de 1 500 développeurs habituels.
Illustration serveurs
© Oleksandr Delyk - Fotolia

Facebook. Youtube. Dropbox. Amazon
En 10 ans, les services de cloud ont bousculé nos habitudes. 
Nos photos, nos vidéos et autres contenus ont migré vers Internet. 
Problème : ces teraoctets s'agglutinent dans une poignée de gigantesques usines de stockage hypercentralisées. Situés à l'autre bout du monde, ces centres de données engloutissent une énergie phénoménale. Les fichiers voyagent inutilement et à grands frais sur des distances déraisonnables. Sans oublier les temps de latence qui n'arrangent rien à l'affaire.

Le cloud va donc devoir se réinventer.

Le prochain paradigme s'appelle l'edge computing. Il vise à ramener les données et le calcul au plus près de l'utilisateur. Comment ? En exploitant la myriade d'infrastructures locales dont disposent les opérateurs télécom tout au long de leurs réseaux. On les appelle les points de présence. 
Mais au préalable, il faut concevoir une pile logicielle d'une complexité hors-norme.

La nouvelle équipe Stack ambitionne de jouer un rôle moteur dans ce chantier titanesque.
« Nous explorons cette thématique depuis 2015 au travers de plusieurs projets, comme l’action Discovery, une action qui associe plusieurs équipes Inria, explique Adrien Lebre. En trois ans, les choses ont beaucoup évolué. Aujourd'hui, l'edge computing ne fait plus débat. Tout le monde s'accorde à dire qu'il faut le faire. L'opérateur Orange s'apprête déjà à déployer des points de présence de nouvelle génération afin d'implémenter cette future architecture. Avec les nouveaux usages comme la réalité virtuelle ou les véhicules autonomes, les gens auront besoin d'une plus grande puissance de calcul et d'une plus faible latence. »

Des serveurs dans des recoins insoupçonnés

Cette informatique utilitaire ira se loger dans les recoins les plus insoupçonnés. 
« Vous voyez ces colonnes Morris avec leurs affiches de cinéma à Paris ? Rien n'empêche d'y installer un serveur. Quand on consultera son smartphone, l'appareil ira dialoguer avec cette colonne, soit pour exploiter sa puissance de calcul, soit pour y déposer des vidéos. Plus besoin d'aller jusqu'au datacenter de Youtube. De la même façon, on pourrait aussi installer un serveur faisant en plus office de radiateur électrique au quatrième étage de l'immeuble en face. »
Et ce n'est pas tout. « Demain, les opérateurs offriront des téléphones nouvelle génération. En échange, l'abonné acceptera de mettre par exemple 20% de sa puissance de calcul à disposition des autres clients. Son téléphone travaillera donc parfois pour l'un de ses voisins et inversement. C'est le mode Device-to-Device. En l'occurrence, nos recherches n'iront pas jusque-là. Nous nous arrêterons au stade au-dessus : celui des micro et nano centres de données. »

La géodistribution devient primordiale

Par conséquent, la géodistribution devient primordiale. 
« Aujourd'hui, il y a de fortes chances que deux personnes effectuant de la web-conférence entre Paris et Lyon passent par un serveur hébergé aux États-Unis. Demain, ils utiliseront une infrastructure à égale distance entre les deux villes. Idem pour les jeux en ligne. Le moteur qui fait tourner le jeu se situera au plus près de la majorité des joueurs. »
Les chercheurs envisagent même d'installer des machines... dans les transports en commun . 
« Dans un train, la connexion est souvent médiocre. D'où l'idée d'y mettre plusieurs serveurs faisant notamment office de cache. Les voyageurs qui se connectent à Youtube vont en fait accéder aux vidéos via ce cache. Ils pourront aussi y déposer leurs propres fichiers qui seront poussés vers l'extérieur au moment du passage en gare quand la connexion s'améliore. »

Reconcevoir les applications de tous les jours

Parallèlement au redéploiement du matériel, « il faut aussi reconcevoir les applications de services web utilisées tous les jours. Ceci afin qu'elles puissent exploiter cette informatique edge, la géodistribution et les modes déconnectés. La nouvelle pile logicielle doit permettre au développeur de dire : je veux que mon serveur vidéo soit à tel et tel endroit car c'est là que se trouve mon audience. Elle doit aussi lui donner la possibilité d'adapter la localisation des composants de son application : composant n°1 à Paris, composant n°2 à Bordeaux, réplicat du composant n°1 dans le train, etc. » In fine, cette pile logicielle s'apparente à « un système d'exploitation capable d'utiliser des ressources hardware massivement géodistribuées. »

Plus facile à dire qu'à faire... 
« L'outil qui permet aujourd'hui d’opérer un centre de données centralisé repose déjà sur 20 millions de ligne de code. Combien en faudra-t-il pour appréhender l’ensemble des spécificités du Edge ? Est-ce qu'Inria va  développer cette pile logicielle tout seul ? Non. Même les gros opérateurs en seraient difficilement capables. Les systèmes deviennent tellement complexes que les acteurs ne développent plus qu'une brique interagissant avec le reste. Ils n'ont plus qu'une vision parcellaire de cette pile. »

Inria fortement impliqué dans OpenStack

Qui alors pour porter cette mutation ? Plusieurs acteurs étudient actuellement dans quelle mesure la solution OpenStack pourrait servir de socle. 
« Démarré en 2010, c'est aujourd'hui le standard de facto pour gérer les serveurs du cloud. C'est aussi l'un des plus gros logiciels du monde. Il s'appuie sur une communauté de 1 500 développeurs et développeuses habituels et 70 000 utilisateurs et utilisatrices. Inria y a une forte implication. Outre le projet Discovery, nous sommes responsables d'un groupe d'intérêt sur cette thématique edge. »

Le projet introduit aussi de nouvelles complexités logicielles. 
« OpenStack peut être vue comme la brique de base, c'est-à-dire le système d’exploitation au-dessus duquel il va falloir faire fonctionner non seulement les applications comme Youtube, mais aussi des piles logicielles comme Hadoop pour le big data ou encore des intelligences artificielles. Nous allons donc devoir appréhender tout ce montage dans sa globalité afin de pouvoir proposer des mécanismes et des abstractions logicielles adaptés. Notre équipe rassemble des experts sur ces différentes couches. »

En pratique, les scientifiques vont surtout s'efforcer de guider l'effort collectif. 
« Nous avons accumulé une connaissance des différents systèmes dans leur globalité qui nous permet de conseiller les différents acteurs. Nous pouvons dire : développez plutôt comme ceci, évitez de partir dans telle direction, etc. Nous allons d'abord nous efforcer de produire une pile logicielle pouvant opérer un premier niveau de distribution, celui des centres de données. C'est l'objectif de notre équipe pour les quatre ans à venir. »