banner
Maison / Nouvelles / Mélanger le cuivre et la fibre
Nouvelles

Mélanger le cuivre et la fibre

Nov 29, 2023Nov 29, 2023

Les câbles cuivre et fibre évoluent pour répondre aux besoins des centres de données, mais les deux auront une place dans le futur des réseaux

Il ne se passe pas une semaine sans qu'un nouveau centre de données ouvre quelque part, ou qu'un grand fournisseur d'hébergement agrandisse ses installations existantes. Des recherches récentes d'iXConsulting confirment cette tendance. Sa 14e enquête sur les centres de données a interrogé des entreprises contrôlant chacune environ 25 millions de pieds carrés d'espace de centre de données en Europe, y compris des propriétaires, des opérateurs, des développeurs, des investisseurs, des consultants, des spécialistes de la conception et de la construction, de grandes entreprises, des opérateurs de télécommunications, des intégrateurs de systèmes, des sociétés de colocation et des services cloud. fournisseurs.

Tous ont exprimé le désir et l'intention de développer leur empreinte actuelle de centre de données, à la fois en interne et par l'intermédiaire de tiers, 60 % d'entre eux déclarant qu'ils augmenteraient la capacité interne en 2017 et 38 % en 2018. Plus d'un tiers (35 %) ont déclaré qu'ils augmenteraient leur capacité d'hébergement tiers d'ici 2019.

Plus que toute autre partie du marché, ce sont les fournisseurs de services cloud hyperscale qui semblent actuellement être à l'origine de cette expansion. Canalys suggère que les quatre grands acteurs du cloud à eux seuls - Amazon Web Services (AWS), Google, IBM et Microsoft - représentaient 55 % du marché des services d'infrastructure cloud (y compris IaaS et PaaS) en valeur au deuxième trimestre 2017, en total d'une valeur de 14 milliards de dollars et en croissance de 47% d'une année sur l'autre.

Quelle que soit la taille des installations d'hébergement détenues et entretenues, la croissance incessante du volume de données et des charges de travail virtualisées stockées, traitées et transmises à mesure que ces centres de données se développent exerceront une pression considérable sur l'infrastructure sous-jacente du centre de données. Et cela est particulièrement vrai pour les réseaux internes et les systèmes de câblage sous-jacents qui font face à un manque aigu de bande passante et de capacité d'expansion future avec la technologie et les approches architecturales actuelles.

Dans chaque centre de données individuel, le choix du câblage dépendra d'un certain nombre de facteurs différents au-delà de la capacité, y compris la compatibilité avec le câblage existant, les distances de transmission, les restrictions d'espace et le budget.

Le câblage en cuivre à paire torsadée non blindé (UTP) et blindé (STP) a été largement déployé dans les centres de données au cours des 40 dernières années, et de nombreux propriétaires et opérateurs resteront réticents à abandonner complètement les investissements existants.

En plus d'être moins cher à l'achat, le câblage en cuivre a des coûts de déploiement relativement faibles car il n'est pas nécessaire d'acheter du matériel supplémentaire et il peut être terminé rapidement et simplement par des ingénieurs sur site.

La fibre nécessite des émetteurs-récepteurs supplémentaires pour se connecter aux commutateurs et nécessite également une terminaison spécialisée. En revanche, les câbles en cuivre utilisent les mêmes interfaces RJ-45, rétrocompatibles avec les spécifications de câblage en cuivre précédentes, ce qui simplifie l'installation et la migration progressive sur une plus longue période. Les normes de câblage cuivre ont évolué pour assurer cette continuité (voir encadré : les normes cuivre évoluent).

Les réseaux de centres de données qui reposent actuellement sur une combinaison de connexions 1 Gbit/s et/ou 10 Gbit/s au niveau du serveur, du commutateur et des couches supérieures ou de rack aujourd'hui verront probablement 25/40 Gbit/s comme la prochaine mise à niveau logique. Mais afin d'éviter les goulots d'étranglement dans la couche d'agrégation et de dorsale, ils devront également envisager la meilleure approche pour augmenter la capacité ailleurs, et en particulier sur de plus longues distances que les câbles en cuivre (même Cat8) sont mal équipés pour supporter.

De nombreux opérateurs de centres de données et sociétés d'hébergement prévoient de déployer des réseaux capables de prendre en charge des débits de données de 100 Gbps et au-delà dans les couches d'agrégation et de base, par exemple.

Cette capacité devra faire face aux exigences de transmission de données internes créées par des centaines de milliers, voire des millions de machines virtuelles, qui devraient fonctionner sur des serveurs de centres de données en 2018/2019, et la plupart recherchent activement des solutions qui jetteront les bases de la migration vers 400 Gbit/s. à l'avenir.

Lorsque ce type de bande passante sur des câbles plus longs est requis, le seul choix réaliste est la fibre - soit la fibre multimode (MMF) ou la fibre monomode (SMF). MMF est moins cher et permet des bandes passantes plus faibles et des câbles plus courts. Il a été déployé pour la première fois dans les réseaux de télécommunications au début des années 1980 et a rapidement évolué vers les réseaux locaux et étendus (LAN/WAN) d'entreprise, les réseaux de stockage (SAN) et les liaisons dorsales dans les fermes de serveurs et les centres de données qui nécessitaient plus de capacité que le câblage en cuivre. pourrait supporter.

Parallèlement, les réseaux télécoms sont passés à la fibre monomode, plus chère, permettant un débit plus important et des distances plus longues. La plupart des fibres à l'intérieur des bâtiments sont toujours multimodes, et l'industrie des réseaux a créé une série de développements pour les normes de fibre, afin de maximiser la capacité de données de ces installations (voir encadré : faire en sorte que le multimode en fasse plus).

Cependant, à mesure que les centres de données ont continué à se développer, les limites de distance des spécifications MMF actuelles se sont avérées restrictives pour certaines entreprises. Cela est particulièrement vrai pour les fournisseurs de services cloud hyperscale et ceux qui stockent d'énormes volumes de données comme Facebook, Microsoft et Google qui ont construit de grandes installations de campus s'étendant sur plusieurs kilomètres. Le géant des médias sociaux Facebook, par exemple, gère plusieurs grands centres de données à travers le monde, chacun reliant des centaines de milliers de serveurs dans une seule structure virtuelle couvrant un seul site. Il en va de même pour Microsoft, Google et d'autres fournisseurs de services cloud pour lesquels les exigences en matière de trafic réseau d'est en ouest (c'est-à-dire entre différents serveurs d'un même centre de données) sont particulièrement élevées.

Ce que ces entreprises voulaient idéalement, c'était de la fibre monomode sous une forme compatible avec les besoins et le budget des centres de données : une spécification de câblage fibre 100 Gbit/s avec une interface monomode dont le coût était compétitif par rapport aux alternatives multimodes existantes, avec un minimum de fibres optiques perte de signal et prend en charge des distances de transmission comprises entre 500 m et 2 km. Quatre spécifications possibles ont été créées par différents groupes de fournisseurs de réseaux. Facebook a soutenu la spécification 100G du CWDM4-MSA, qui a été soumise à l'Open Compute Project (OCP) et adoptée dans le cadre de l'OCP en 2011.

Facebook est passé au monomode parce qu'il a conçu et construit sa propre structure de centre de données propriétaire et qu'il rencontrait des limites importantes avec les solutions de câblage existantes. Ses ingénieurs ont calculé que pour atteindre 100 m à 100 Gbps en utilisant des émetteurs-récepteurs optiques standard et de la fibre multimode, il faudrait re-câbler avec OM4 MMF. Cela était réalisable dans les centres de données plus petits, mais n'offrait aucune flexibilité pour des longueurs de liaison plus longues dans les grandes installations, et ce n'était pas à l'épreuve du temps : il n'y avait aucune probabilité de mises à niveau de la bande passante au-delà de 100 Gbit/s.

Alors que Facebook voulait un câblage en fibre optique qui durerait toute la durée de vie du centre de données lui-même et prendrait en charge plusieurs cycles de vie de la technologie d'interconnexion, les émetteurs-récepteurs monomodes disponibles prenant en charge des longueurs de liaison de plus de 10 km étaient exagérés. Ils fournissaient une portée inutile et étaient trop chers pour ses besoins.

Facebook a donc modifié la spécification 100G-CWDM4 MSA en fonction de ses propres besoins de portée et de débit. Cela a également réduit la plage de température, car l'environnement du centre de données est plus contrôlé que les environnements extérieurs ou souterrains rencontrés par la fibre de télécommunications.

Il a également défini des attentes plus appropriées en matière de durée de vie pour les câbles installés à portée de main des ingénieurs.

L'OCP compte aujourd'hui près de 200 membres dont Apple, Intel et Rackspace. Facebook continue également de travailler avec Equinix, Google, Microsoft et Verizon pour aligner les efforts autour d'une norme d'interconnexion optique utilisant SMF duplex, et a publié la spécification CWDM4-OCP qui s'appuie sur les efforts de CWDM4-MSA et peut être téléchargée à partir de l'OCP. site Internet.

L'arrivée d'une meilleure fibre multimode (OM5 MMF) et de la fibre monomode à moindre coût poussée par Facebook pourrait changer considérablement la donne et inciter certains fournisseurs à grande échelle à passer au tout-fibre dans leurs installations d'hébergement, en particulier là où ils peuvent utiliser leur pouvoir d'achat pour faire baisser le coût des émetteurs-récepteurs.

En réalité, peu de centres de données sont susceptibles de s'appuyer exclusivement sur un câblage en cuivre ou en fibre optique - la solution optimale pour la plupart continuera inévitablement à s'appuyer sur une combinaison des deux dans différentes parties de l'infrastructure réseau dans un avenir prévisible.

L'utilisation de convertisseurs de média fibre ajoute également un degré de flexibilité, interconnectant différents formats de câblage et étendant la portée des équipements Ethernet à base de cuivre sur des liaisons SMF/MMF couvrant des distances beaucoup plus longues.

Ainsi, alors que les futures mises à niveau du parc Cat6/7 existant impliqueront un câblage Cat8 prenant en charge des débits de données de 25/40 Gbit/s qui permettront de gérer les besoins de capacité accrus sur des connexions à courte portée au niveau du serveur, du commutateur et du haut du rack pendant quelques années à venir, les opérateurs de centres de données peuvent puis regroupez ce trafic sur des dorsales fibre MMF/SMF de capacité beaucoup plus grande pour l'interconnexion centrale et les liaisons inter-campus.

La plupart des installations s'appuient actuellement sur un mélange de câblage en cuivre de catégorie 6 (Cat6) et Cat7 qui prend en charge une bande passante de 10 Gbit/s sur 100 m et des débits de données plus élevés allant jusqu'à 40 Gbit/s sur des distances beaucoup plus courtes. Mais l'évolution de ces spécifications de câblage en cuivre est désormais fondamentale pour répondre aux exigences non seulement des fournisseurs de services cloud à grande échelle, mais également des grandes entreprises et des opérateurs de télécommunications qui ont de grandes ambitions pour étendre leur utilisation ou la fourniture d'applications et de services hébergés dans le cloud privé ou hybride.

En 2016, le comité d'ingénierie des systèmes de câblage de télécommunications TR-42 de la Telecommunications Industry Association (TIA) a approuvé la prochaine étape de cette évolution - Cat8, compatible avec 25/40GBase-T sur de courtes distances de 5 à 30 m de câblage à paires torsadées blindées avec un RJ standard -45 interfaces Ethernet. En raison de sa portée relativement courte, Cat8 est, pour le moment, destiné aux connexions de commutation vers serveur dans les topologies de haut de rack ou de fin de rangée.

Définis par leurs diamètres de cœur et de gaine, les types de fibres multimodes sont désignés par la CEI de OM1 à OM4. Lorsque les exigences de bande passante OM1 ont dépassé 100 Mbps, son diamètre de 62,5 µm a été réduit à 50 µm (OM2) pour améliorer la capacité à 1 Gbps et même 10 Gbps sur des longueurs de liaison plus courtes de 82 m.

Cela a encore été renforcé avec OM3 (ou fibre multimode optimisée laser - LOMMF) dans les années 1990. OM3 a utilisé un laser à émission de surface à cavité verticale (VCSEL) plutôt qu'un équipement à base de LED pour augmenter la portée d'OM2, prenant désormais en charge des taux de transmission de 10 Gbps sur 300 m.

Diverses améliorations apportées à OM3 ont poussé la bande passante et atteint 40/100 Gbps sur des distances allant jusqu'à 100 m, mais l'arrivée d'OM4 (qui utilise le même diamètre de 50 µm et le même équipement VCSEL) a étendu la bande passante de 10 Gbps à 550 m et permis des débits de données de 100 Gbps sur 150 m. Les quatre types de câblage MMF se trouvent encore dans de nombreux centres de données d'aujourd'hui, mais OM3/4 prédominent en raison de leur bande passante plus élevée, de leur portée plus longue et de leur compatibilité VCSEL.

Une cinquième implémentation - OM5 - anciennement connue sous le nom de MMF large bande (WBMMF) utilise le multiplexage par répartition en ondes courtes (SWDM) et a été publiée en tant que norme TIA-492AAAE en 2016. Elle utilise le même diamètre de 50 µm et le même équipement VCSEL que OM3/4 et est entièrement rétrocompatible avec ses prédécesseurs, mais augmente la capacité de chaque fibre par un facteur de quatre pour prendre en charge des débits de données beaucoup plus élevés jusqu'à 100 Gbps sur des connexions fibre duplex et à l'avenir 400 Gbps sur les mêmes interfaces MPO à 8 fibres.

Il y a eu peu de déploiement d'OM5 dans les centres de données à ce jour, en grande partie parce que peu de fabricants ont produit des émetteurs-récepteurs appropriés dans n'importe quel volume. Les fournisseurs n'ont formé le groupe SWDM MSA qu'en mars 2017, tandis que Finisair a annoncé qu'il avait commencé à produire des émetteurs-récepteurs SWDM QSFP28 prenant en charge 100 Gbps sur une seule paire de fibres en novembre suivant. Il ne fait aucun doute qu'OM5 deviendra rapidement la mise en œuvre MMF de facto pour les nouveaux centres de données en 2018, tandis que les opérateurs commenceront également à mettre à niveau les installations existantes avec de nouveaux équipements de câblage et de transmission selon les besoins.

Reconnaissant l'écart dans la fourniture et la taille potentielle de l'opportunité de marché, plusieurs fournisseurs de câblage réseau ont conclu des accords multi-sources (MSA) pour collaborer à la fourniture de fibre monomode sous une forme utilisable dans les centres de données. Quatre candidats potentiels pour une spécification appropriée ont émergé au cours des dernières années.

L'Alliance 100G CLR4, dirigée par Intel et Arista Networks, visait à créer une solution 100G-CWDM basse consommation au format QSFP prenant en charge une bande passante de 100 Gbit/s sur SMF duplex à des distances allant jusqu'à 2 km.

L'OpenOptics 100 Gigabit Ethernet MSA a été fondé conjointement par Mellanox Technologies et la start-up optique Raniovus. Il a proposé une spécification 100 GbE et un émetteur-récepteur optique QSFP28 1550 nm avec une portée de 2 km utilisant une combinaison de SMF et de photonique au silicium pour offrir une capacité de 100G/400G et au-delà basée sur WDM. Les supporters incluent Ciena, Vertilas, MultiPhy et le fournisseur de services cloud Oracle.

Le CWDM4-MSA cible également les interfaces optiques 100G pour des câbles de 2 km utilisant 4 voies de SMF 25 Gbps duplex. Les cinq membres fondateurs étaient Avago Technologies, Finisar, Oclaro, JDSU et Sumitomo Electric, avec des membres supplémentaires comme Brocade, Juniper Networks et Mitsubishi Electric. Bien qu'aucune interface n'ait été spécifiée par le consortium, on s'attend à ce que le facteur de forme QSFP28 soit appliqué.

Le MSA parallèle monomode à 4 voies (PSM4) a défini une spécification avec une portée minimale de 500 m qui transmet 100 Gbit/s sur huit fibres monomodes (quatre en transmission et quatre en réception), chacune transmettant à 25 Gbit/s et prenant en charge les émetteurs-récepteurs optiques QSFP28. Les membres originaux comprenaient Avago, Brocade, Finisar JDSU, Juniper Networks, Luxtera, Microsoft, Oclaro et Panduit.

Cet article est paru dans le numéro de décembre/janvier de DCD Magazine. Abonnez-vous aux éditions numériques et imprimées ici :

Cet article est paru dans le numéro de décembre/janvier de DCD Magazine. Abonnez-vous aux éditions numériques et imprimées ici :