KI-Rechenzentrum: NVIDIA 800G Verkabelung | Corning

NVIDIA 800G InfiniBand- und Ethernet-Verbindungstechnik
Leitfaden für die Verkabelung von KI-Rechenzentren

NVIDIA 800G InfiniBand- und Ethernet-Verbindungstechnik
Leitfaden für die Verkabelung von KI-Rechenzentren

Unser KI-Verkabelungsleitfaden für  NVIDIA 800G InfiniBand und Ethernet-Verbindungstechnik bietet eine detaillierte Darstellung von LWL-Lösungen verschiedener Verbindungsoptionen, die für optische Schnittstellen von 200G, 400G und 800G Transceivern zur Verfügung stehen. Dieses Dokument erläutert insbesondere, wie 400G NDR InfiniBand Quantum-2 und 400GbE Spectrum-4 Ethernet-Switches in die Glasfaser-Verkabelung integriert werden.

Die Welt der KI verlangt nach individuellen Netzwerk-Lösungen, die zukunftssicher sind und mit einer Geschwindigkeit bereitgestellt werden können, die in der Rechenzentrumsbranche bisher beispiellos ist.

Sind Sie an Preisen interessiert? Möchten Sie Hilfe beim Design?
Klicken Sie hier, um uns zu kontaktieren >

 

Mit dem Markteintritt von 800G und der neuen NVIDIA Twin (Dual) MPO-8/12-Schnittstelle veranschaulicht dieser Leitfaden für die Verkabelung von KI-Rechenzentrentren, wie die optischen Transceiver-Module von NVIDIA zusammen mit Corning's EDGE8® Lösung zur weiteren Entwicklung von Innovationen im Lereich von Künstlicher Intelligenz und maschinellem Lernen beitragen.

Kapitel 1 unseres NVIDIA 800G-Leitfadens bietet eine umfassende Untersuchung zur Anwendung von Punkt-zu-Punkt- bzw. einer strukturierten Verkabelung. Es wird erklärt, wie diese Verkabelungsstrategien nicht nur zur Verbindung von Servern und Leaf-Switches eingesetzt werden, sondern auch zur Erleichterung der Vernetzung von Switches untereinander, anwendbar für Verbindungen von Leaf- zu Spine- oder Spine- zu Core-Switches. Dieses Kapitel bietet auch einen Einblick in die verschiedenen Corning-Komponenten und Katalognummern, die in verschiedenen Netzwerkdesigns verwendet werden können.

Kapitel zwei befasst sich mit der Verkabelungsstrategie für einen NVIDIA DGX SuperPOD. Anhand des NVIDIA DGX H100 als Referenz wird in diesem Abschnitt erläutert, wie ähnliche Verkabelungskomponenten und-infrastrukturen für andere DGX-Modelle angepasst werden können. Außerdem wird erklärt, wie die Konfiguration skalierbarer Einheiten (SUs) die Struktur eines SuperPOD und die Gesamtzahl der GPUs bestimmt. Dieser Teil unterstreicht die entscheidende Rolle von POD- oder Clustergrößen bei der Bestimmung der erforderlichen Anzahl von InfiniBand Leaf-, Spine- und Core-Switches und somit der Anzahl benötigter Kabel oder Netzwerkverbindungen.

Diese Art neuronaler Netze kann auf derselben Fläche mehr als zehnmal so viele Glasfasern erforderlich machen wie sie für herkömmliche Server-Schränke benötigt werden. Wir bei Corning bereiten uns seit Jahren auf diesen Trend hin zu Hyperscale-Rechenzentren vor und haben neue optische Verkabelungslösungen entwickelt, die Rechenzentrumsbetreibern helfen, diese dichten GPU-Cluster der nächsten Generation schnell bereitzustellen. Diese Lösungenwerden schon heute bei weltweit führenden Betreibern von Hyperscale-Rechenzentren eingesetzt, die das Zeitalter der generativen KI einläuten.

Laden Sie noch heute unseren Leitfaden zur Verkabelung von KI-Architekturen herunter.

Wir helfen Ihnen gerne bei der Gestaltung oder Installation von KI-/ML-Anwendungen. Füllen Sie das nachfolgende Formular aus und wir verbinden Sie mit unserem Hyperscale-Innovationsteam.

Corning bietet kostenloses, auf Kundenbedürfnisse zugeschnittenes Design und ist eng vernetzt mit den weltweit führenden Unternehmen im Bereich der künstlichen Intelligenz. 

Vielen Dank!

Ein Vertreter von Corning wird sich in Kürze mit Ihnen in Verbindung setzen und Ihre Anfrage beantworten. Sollten Sie sofortige Hilfe benötigen, rufen Sie bitte unseren Kundenservice unter +49 30 5303 2100 an.