Von David Hessong und Derek Whitehurst, Corning Inc.
Die Interconnect-Anwendung für Rechenzentren hat sich zu einem wichtigen und schnell wachsenden Segment in der Netzwerklandschaft entwickelt. In diesem Artikel werden verschiedene Gründe für dieses Wachstum untersucht, darunter Marktänderungen, Änderungen der Netzwerkarchitektur und technologische Änderungen.
Das enorme Wachstum der Daten hat den Bau von Campus-Rechenzentren, insbesondere von Hyperscalern, vorangetrieben. Jetzt müssen mehrere Gebäude auf einem Campus mit einer ausreichenden Bandbreite verbunden werden. Wie viel Bandbreite fragen Sie? Um den Informationsfluss zwischen den Rechenzentren auf einem einzigen Campus aufrechtzuerhalten, übertragen Rechenzentren heute schon mit Kapazitäten von bis zu 200 Tbps an andere Rechenzentren bzw. Standorte auf dem Campus, wobei für die Zukunft noch höhere Bandbreiten erforderlich sein werden (siehe Abbildung 1).
Die nächste Frage ist, was den Bedarf an dieser enormen Bandbreite zwischen den Gebäuden auf einem Campus antreibt. Dies lässt sich durch zunehmende Trends erklären, die sich an zwei Fronten entfalten. Als erstes das exponentielle Wachstum des Ost-West-Datenflusses, der durch die Kommunikation von Maschine zu Maschine unterstützt wird. Der zweite Trend betrifft die Einführung flacherer Netzwerkarchitekturen wie Leaf-and-Spine- oder Clos-Netzwerke. Das Ziel besteht darin, eine große homogene Netzwerkstruktur auf dem Campus zu haben, wodurch ein hohes Maß an Verbindungen zwischen den einzelnen Einrichtungen erforderlich ist.
Traditionell wurde ein Rechenzentrum in einer dreistufigen Topologie aufgebaut, die aus Core-Routern, Aggregations-Routern und Access-Switchen bestand. Obwohl ausgereift und weit verbreitet, wird die dreistufige Legacy-Architektur den steigenden Anforderungen an Arbeitslast und Latenz den Campus-Umgebungen für Hyperscale-Rechenzentren nicht mehr gerecht . Als Reaktion darauf migrieren die heutigen Hyperscale-Rechenzentren auf die Leaf-Spine-Architektur (siehe Abbildung 2). Leaf-Spine-Netzwerke werden in zwei Stufen unterteilt: Die Spine-Stufe dient zur Aggregation und Weiterleitung von Datenpaketen an ihr finales Ziel, während die Leaf-Stufe zur Verbindung von End-Hosts und Lastausgleichsverbindungen über das Netzwerk Spine dient.
Im Idealfall ist jeder Leaf-Switch mit jedem Spine-Switch verbunden, um die Verbindungent zwischen Servern zu maximieren. Folglich erfordert das Netzwerk High-Radix-Spine / Core-Switche. In vielen Umgebungen sind die großen Spine-Switche mit einem übergeordneten Spine-Switch verbunden, der häufig als Campus- oder Aggregat-Ionen-Spine bezeichnet wird, um alle Gebäude auf dem Campus miteinander zu verbinden. Aufgrund dieser flacheren Netzwerkarchitektur und der Einführung von High-Radix-Switches erwarten wir, dass das Netzwerk größer, modularer und skalierbarer wird.
Abbildung 2. Leaf-Spine-Architektur und High-Radix-Switch erfordern massive Interconnects in der Rechenzentrumsstruktur. |
DCI-Verkabelungsansätze
Was ist die beste und kostengünstigste Technologie, um diese Bandbreite zwischen den Gebäuden auf einem Rechenzentrumscampus bereitzustellen? Es wurden mehrere Ansätze evaluiert, um Übertragungsraten auf diesem Niveau zu erzielen. Das vorherrschende Modell ist jedoch die Übertragung niedrigerer Datenraten über eine Vielzahl von Fasern. Um mit dieser Methode 200 Tbit / s zu erreichen, sind mehr als 3000 Fasern für jede Rechenzentrumsverbindung erforderlich. Wenn man die erforderliche Anzahl an Fasern berücksichtigt, um jedes Rechenzentrum mit jedem anderen Rechenzentrum auf einem einzelnen Campus zu verbinden, kann die Dichte leicht 10.000 Fasern überschreiten.
Eine häufig gestellte Frage ist also, wann es sinnvoll ist, DWDM oder andere Technologien zu verwenden, um den Datendurchsatz für jede Faser zu erhöhen, anstatt die Anzahl der Fasern stetig zu erhöhen. Gegenwärtig werden bei Anwendungen zur Vernetzung von Rechenzentren bis zu 10 km oft 1310-nm-Transceiver verwendet, die nicht mit den 1550-nm-Übertragungswellenlängen von DWDM-Systemen übereinstimmen. Daher werden die massiven Interconnects durch die Verwendung von Glasfaserkabeln mit hoher Faseranzahl zwischen Rechenzentren unterstützt.
Die nächste Frage lautet, wann 1310-nm-Transceiver durch steckbare DWDM-Transceiver in den Edge-Switches durch Hinzufügen einer Mux / Demux-Einheit ersetzt werden müssen. Die Antwort lautet, wenn oder falls DWDM ein kostengünstiger Ansatz für diese Verbindungsstrecken zwischen Rechenzentren auf dem Campus wird. Sobald dies geschieht, lässt die gleiche Bandbreite durch die Verwendung von DWDM-Transceivern abbilden, die mit Kabeln wesentlich geringerer Glasfaserzahl verbunden sind.
Um zu einer Schätzung für diesen Übergang zu gelangen, müssen wir uns den Preis für DWDM-Transceiver ansehen und mit etablierten Transceivern vergleichen. Basierend auf der Preismodellierung für die gesamte Verbindung wird derzeit prognostiziert, dass Verbindungen, die auf faserreichen 1310-nm-Architekturen basieren, auf absehbare Zeit weiterhin günstiger sein werden (siehe Abbildung 3). Eine PSM4-Alternative (8 Fasern) hat sich für Anwendungen unter 2 km als kostengünstig erwiesen, ein weiterer Faktor, der die Faserzahl erhöht.
Bewährte Praktiken bei der Kabelauswahl
Jetzt, da wir den Bedarf an Netzwerken extremer Dichte festgestellt haben, ist es wichtig zu verstehen, wie diese am besten aufgebaut werden, denn sie stellen sowohl die Verkabelungstechnik als auch die Hardware vor neue Herausforderungen. Zum Beispiel ist die Verwendung von Bündeladerkabeln und Einzelfaserspleißen nicht mehr empfehlenswert oder skalierbar. Wenn Sie ein 1728-Faser Kabel mit einem Bündeladerdesign installieren, beträgt die reine Spleißzeit der Einzelfasern mehr als 100 Stunden, wenn man von vier Minuten pro Spleiß ausgeht. Wenn Sie eine Flachbandkabelkonfiguration verwenden, sinkt die Spleisszeit auf weniger als 20 Stunden. Obwohl 20 Stunden immer noch eine beträchtliche Zeit zum Spleißen einer Verbindung sind, stellt dies eine enorme Zeitersparnis gegenüber Einzelfaserkabeln dar.
Gleichzeitig stellen herkömmliche Kabelkonstruktionen erhebliche Herausforderungen dar, wenn sie in häufig verwendeten 2- oder 4-Zoll-Kanälen oder -Rohren installiert werden. Neue Kabel- und Flachbandkonstruktionen haben den Markt erreicht, die bei gleichem Kabedurchmesser eine im Wesentlichen verdoppelte Faserkapazität bereitstellen. Diese Produkte lassen sich im Allgemeinen in zwei Designansätze unterscheiden: Der eine Ansatz verwendet Standard-Matrix-Bänder mit enger packbaren Untereinheiten, und der andere Ansatz verwendet Standard-Kabelkonstruktionen mit einem zentralen oder geschlitzten Kerndesign mit lose verbundenen Netzdesignbändern, die aufeinander gefaltet werden können (siehe Abbildung 4).
Abbildung 4. Verschiedene Flachbandkabel-Designs für Anwendungen mit extremer Dichte. |
Die Nutzung dieser neueren Kabeldesigns ermöglicht eine viel höhere Faserkonzentration bei gleichen Füllraum im Kabelkanal. Abbildung 5 veranschaulicht, wie Netzwerkbetreiber in die Lage versetzt werden durch die Verwendung verschiedener Kombinationen von neuen Kabeln mit extremer Dichte, die erforderlichen Glasfaserdichten für Verbindungen für Hyperscale-Rechenzentren zu erreichen.
Abbildung 5. Verwendung von Kabeldesigns mit extremer Dichte zur Verdoppelung der Faserkapazität bei gleichem Füllgrad im Kabelkanal. |
Bei der Nutzung dieser neuen Flachbandkabel-Designs müssen Netzwerkbetreiber die Hardware- und Verbindungsoptionen berücksichtigen, die mit diesen sehr hohen Faserzahlen angemessen umgehen und skalieren können. Bestehende Netzwerkkomponenten könnten überlastet werden, und es gibt mehrere Schlüsselbereiche, die bei der Entwicklung des kompletten Netzwerks durchdacht werden müssen.
Wie viele Kabel müssen innerhalb der Anlage müssen installiert werden, um eine Verbindung zu einem 1728- bis 3456-Glasfaserkabel außerhalb der Anlage herzustellen? Wenn derzeit 288-Faser-Flachbandkabel in der innerbetrieblichen Umgebung verwendet werden, muss Ihre Hardware in der Lage sein, 12 bis 14 Kabel angemessen unterzubringen. Die Hardware müsste außerdem 288 separate Bändchenspleiße verwalten können.Die Verwendung von Einzelfaserkabeln und eines Einzelfaserspleißverfahrens in dieser Anwendung ist aufgrund der massiven Vorbereitungszeiten und des unhandlichen Fasermanagements nicht mehr gut umsetzbar oder ratsam.
Ein weiterer Bereich, der eine Herausforderung darstellen kann, ist das Verfolgen der Fasern, um das korrekte Spleißen zu gewährleisten. Die Fasern müssen sofort nach dem Öffnen des Kabels angemessen gekennzeichnet und sortiert werden, da die Menge der Fasern, die verfolgt und geführt werden müssen, sehr groß ist. Es sollte vorrangig sichergestellt werden, dass Bändchenfaserstapel gebündelt und während des Einlegens in die Hardware geschützt werden können, um eine Beschädigung der Fasern zu vermeiden. In den meisten Installationen ist ein Fehler, der eine erneute Kabelvorbereitung verursacht, beherrschbar. Im Falle von Netzwerken mit extremer Dichte kann ein Fehler schwerwiegende Auswirkungen auf den Projektabschluss haben und bei nur einem Standort eine Woche Verzögerung kosten.
Zukünftige Verkabelungstrends
Wie sieht die Zukunft für Netzwerke mit extremer Dichte aus? Der derzeit wichtigste Faktor ist, ob die Anzahl der Glasfasern bei 3456 endet oder ob diese Anzahl noch weiter steigen wird. Aktuelle Markttrends deuten darauf hin, dass es Anforderungen für Faserzahlen auch über 5000 hinaus geben wird. Um eine Infrastruktur aufrechtzuerhalten, die noch skalierbar ist, wird die Notwendigkeit zur weiteren Verkschlankung der Kabeldurmesser zunehmen. Da die Packungsdichte der Fasern bereits an ihre physikalischen Grenzen stößt, werden die Möglichkeiten, die Kabeldurchmesser auf sinnvolle Weise weiter zu reduzieren, immer schwieriger.
Ein Ansatz, der an Bedeutung gewinnt, ist die Verwendung von Fasern, bei denen die Dicke des Mantelglas von einer typischen Abmessung von 250 Mikrometern auf 200 Mikrometer reduziert wurde. Die Größen von Faserkern und -mantel bleiben gleich, so dass sich die optische Leistung nicht verändert. Aber diese Reduzierung der Beschichtung, wenn sie bei Hunderten bis Tausenden von Fasern in einem Kabel angewendet wird, kann zu einer erheblichen Verringerung des Kabeldurchmessers führen. Diese Technologie wurde bereits in einigen Kabeldesigns angewandt und wurde zur Herstellung von kommerziell erhältlichen Mikro-Bündeladerkabeln verwendet.
Die Entwicklung hat sich auch darauf konzentriert, wie man am besten Rechenzentrumsverbindungen zu Standorten bereitstellen kann, die viel weiter voneinander entfernt und nicht auf demselben physischen Campus angesiedelt sind. In einer typischen Rechenzentrums-Campusumgebung beträgt die typische Distanz zwischen Rechenzentren, die es zu verbinden gilt 2 km und weniger. Diese relativ kurzen Entfernungen ermöglichen die Verwendung eines einzigen Kabels zur Bereitstellung der Verbindung ohne Spleißpunkte. Da Rechenzentren jedoch auch in Ballungsgebieten eingesetzt werden, um die Latenzzeiten zu reduzieren, nehmen die Entfernungen zu und können bis zu 75 km betragen. Die Verwendung eines Kabeldesigns mit extrem hoher Faseranzahl für diese Anwendungen ist aus finanizeller Sicht weniger sinnvoll, da sie mit entsprechenden Kosten für die Verbindung der hohen Faseranzahl über eine lange Distanz verbunden sind. In diesen Fällen werden traditionellere DWDM-Systeme weiterhin die bevorzugte Wahl sein, die eine Übertragung über weniger Fasern bei 40 G und mehr leisten.
Es ist zu erwarten, dass sich die Nachfrage nach Verkabelungen mit extremer Dichte von den Rechenzentrumsumgebungen in die Zugangsnetze verlagern wird, da die Netzbetreiber sich auf die kommenden glasfaserintensiven 5G-Rollouts vorbereiten. Es wird auch weiterhin eine Herausforderung für die Branche sein, Produkte zu entwickeln, die effektiv skaliert werden können, um die erforderliche Faseranzahlen zu erreichen, ohne bestehende Kanal- oder Rohranlagen sowie Innenanlagenumgebungen zu überfordern.
David Hessong ist Global Data Center Market Development Manager und Derick Whitehurst ist Global Applications Marketing Director bei Corning Optical Communications.