Mit dem Markteintritt von 800G und der neuen NVIDIA Twin (Dual) MPO-8/12-Schnittstelle veranschaulicht dieser Leitfaden für die Verkabelung von KI-Rechenzentrentren, wie die optischen Transceiver-Module von NVIDIA zusammen mit Corning's EDGE8® Lösung zur weiteren Entwicklung von Innovationen im Lereich von Künstlicher Intelligenz und maschinellem Lernen beitragen.
Kapitel 1 unseres NVIDIA 800G-Leitfadens bietet eine umfassende Untersuchung zur Anwendung von Punkt-zu-Punkt- bzw. einer strukturierten Verkabelung. Es wird erklärt, wie diese Verkabelungsstrategien nicht nur zur Verbindung von Servern und Leaf-Switches eingesetzt werden, sondern auch zur Erleichterung der Vernetzung von Switches untereinander, anwendbar für Verbindungen von Leaf- zu Spine- oder Spine- zu Core-Switches. Dieses Kapitel bietet auch einen Einblick in die verschiedenen Corning-Komponenten und Katalognummern, die in verschiedenen Netzwerkdesigns verwendet werden können.
Kapitel zwei befasst sich mit der Verkabelungsstrategie für einen NVIDIA DGX SuperPOD. Anhand des NVIDIA DGX H100 als Referenz wird in diesem Abschnitt erläutert, wie ähnliche Verkabelungskomponenten und-infrastrukturen für andere DGX-Modelle angepasst werden können. Außerdem wird erklärt, wie die Konfiguration skalierbarer Einheiten (SUs) die Struktur eines SuperPOD und die Gesamtzahl der GPUs bestimmt. Dieser Teil unterstreicht die entscheidende Rolle von POD- oder Clustergrößen bei der Bestimmung der erforderlichen Anzahl von InfiniBand Leaf-, Spine- und Core-Switches und somit der Anzahl benötigter Kabel oder Netzwerkverbindungen.
Diese Art neuronaler Netze kann auf derselben Fläche mehr als zehnmal so viele Glasfasern erforderlich machen wie sie für herkömmliche Server-Schränke benötigt werden. Wir bei Corning bereiten uns seit Jahren auf diesen Trend hin zu Hyperscale-Rechenzentren vor und haben neue optische Verkabelungslösungen entwickelt, die Rechenzentrumsbetreibern helfen, diese dichten GPU-Cluster der nächsten Generation schnell bereitzustellen. Diese Lösungenwerden schon heute bei weltweit führenden Betreibern von Hyperscale-Rechenzentren eingesetzt, die das Zeitalter der generativen KI einläuten.
Laden Sie noch heute unseren Leitfaden zur Verkabelung von KI-Architekturen herunter.