Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Quels réseaux pour les centres informatiques de demain ?
Les besoins en stockage semblent derrière l'explosion d'Ethernet

Le , par dourouc05

283PARTAGES

10  0 
Les besoins en transferts de données explosent au niveau des centres informatiques pour plusieurs raisons : d'un côté, l'augmentation du nombre de requêtes à traiter, de l'autre, de nouvelles tâches à effectuer qui nécessitent de déplacer de grandes quantités de données. Dans cette catégorie, on retrouve notamment toutes les applications de l'apprentissage automatique. Pour faire face à ces évolutions, bon nombre de gestionnaires de centres informatiques font appel à des solutions de stockage logiciel : au lieu d'acheter des solutions de type SAN (storage area network), c'est-à-dire des serveurs et plateformes logicielles spécifiquement prévues pour du stockage à grande échelle (chez HP ou Dell, par exemple), on préfère acheter du matériel plus généraliste et du logiciel spécifique (comme chez Red Hat ou Microsoft). Ainsi, il est plus facile de faire évoluer son stockage, en achetant plus ou moins n'importe quel serveur et en le configurant.

Reste après à gérer le transfert des données à l'intérieur du réseau du centre informatique. Trois solutions existent pour le moment : la plus utilisée pour le stockage, Fibre Channel ; la plus répandue dans les réseaux en général, Ethernet ; la solution de référence pour les superordinateurs, InfiniBand.

Fibre Channel tombe en désuétude, ses évolutions ne semblant plus qu'anecdotiques en comparaison de la concurrence offerte par InfiniBand et Ethernet. L'un de ses avantages clés est l'orientation exclusive vers le stockage : les protocoles déployés sur ce genre de réseau à base de fibre optique permettent d'accéder directement à un bloc donné dans l'espace de stockage. Cependant, ce n'est que cette année que l'on devrait voir un débit à deux cent cinquante-six gigaoctets par seconde, un débit qui devrait quadrupler d'ici à 2029.

En comparaison, Mellanox a développé une série de protocoles qui peuvent transiter dans un réseau Ethernet, sous le nom de ESF (Ethernet storage fabric). Implémentés au niveau des commutateurs Ethernet ainsi que des clients et serveurs, ces derniers rabotent les avantages des réseaux Fibre Channel : accès direct à la mémoire distance (RDMA), échange direct de messages NVMe à destination des disques électroniques (NVMe-oF), codes d'effacement (erasure coding). Ces avancées permettent notamment de décharger les processeurs de certaines tâches liées à la gestion des données, puisqu'elles sont implémentées au niveau du contrôleur réseau (avec RDMA, les paquets ne doivent pas transiter par la pile réseau TCP-IP, par exemple). De plus, avec ESF, on peut transférer directement des fichiers ou des objets, pas seulement des blocs. Par construction, les commutateurs peuvent garantir un très faible niveau de perte de paquets : aucune perte évitable de paquet, notamment en cas de rafale de courte durée.

Pendant ce temps, les débits visés par la norme Ethernet ne cessent d'augmenter. On en est actuellement à cent gigabits par seconde (100GbE), alors que les extensions pour deux cents et quatre cents gigabits par seconde ont été approuvées en 2017 et que le matériel arrive sur le marché : le térabit par seconde (précisément, un térabit et six cents gigabits par seconde) devrait arriver dès 2023. Ces débits pourront s'appliquer à tout réseau Ethernet, qu'il soit généraliste ou utilise des extensions comme Mellanox ESF.

Côté InfiniBand, le débit monte jusque six cents gigabits par seconde en utilisant des liens 12x, normalement le double d'ici à trois ans. Au vu de ses utilisations assez spécifiques dès sa conception, la norme dispose de toutes les extensions nécessaires pour le trafic de type SAN (ne fût-ce que RDMA), mais aussi plus encore. Ainsi, InfiniBand est largement en avance sur les commutateurs intelligents, qui permettent d'effectuer des opérations non triviales sur les flux de données : SHARP (scalable hierarchical agregation and reduction protocol) accélère certaines opérations collectives de MPI, afin d'éviter de transférer trop de données quand l'utilisateur n'en souhaite qu'un résumé.


La technologie existe — qu'est-ce que les gens préfèrent utiliser ? La vente de matériel InfiniBand (surtout fabriqué par Mellanox) n'a pas foncièrement augmenté entre 2015 et 2018. Par contre, la croissance semble venir du côté d'Ethernet.

Source : Ethernet And The Future Of Data Networking.

Une erreur dans cette actualité ? Signalez-le nous !