Data Centers IA : Guide de câblage NVIDIA 800G | Corning

Connectivité NVIDIA 800G InfiniBand et Ethernet
Guide de câblage AI

Connectivité NVIDIA 800G InfiniBand et Ethernet
Guide de câblage AI

Notre guide de câblage AI de la connectivité InfiniBand et Ethernet NVIDIA 800G fournit un examen approfondi des différentes options de connectivité par fibre optique disponibles pour l'interface avec les transceivers 200G, 400G et 800G. Ce document explique en particulier comment les switchs 400G NDR InfiniBand Quantum-2 et 400GbE Spectrum-4 Ethernet sont intégrés dans le système de câblage à fibre optique.

Le monde de l'IA exige des solutions de réseau personnalisées, à l'épreuve du temps et pouvant être déployées à une vitesse sans précédent dans le secteur des centres de données.

Préparez-vous une offre ? Vous souhaitez de l'aide gratuite à la conception ?
Contactez-nous dès maintenant >

 

Avec l'avènement de la 800G et de la nouvelle interface Twin (dual) MPO- 8/12 de NVIDIA, ce guide de câblage AI illustre comment les modules transceivers optiques de NVIDIA et la solution EDGE8® de Corning contribuent à l'évolution des innovations en matière d'IA et d'apprentissage automatique.

Le premier chapitre de notre guide NVIDIA 800g propose une exploration complète de l'utilisation des applications de câblage point à point et structuré. Il explique comment ces stratégies de câblage sont employées non seulement pour interconnecter les serveurs et les switchs Leaf, mais aussi pour faciliter la connectivité de switch à switch, applicable aux connexions des switchs Leaf à Spine ou Spine à Core. Ce chapitre donne également un aperçu des différents composants Corning et des références qui peuvent être utilisées dans diverses conceptions de réseau.

Le chapitre 2 traite de la stratégie de câblage d'un SuperPOD NVIDIA DGX. En utilisant le NVIDIA DGX H100 comme référence, cette section explique comment des composants de câblage et une infrastructure similaires peuvent être adaptés à d'autres modèles DGX. Il démystifie également la façon dont la configuration des unités évolutives (SU) détermine la structure d'un SuperPOD et le nombre total de GPU. Le chapitre souligne le rôle central de la taille du POD ou du cluster dans la détermination du nombre requis de switchs InfiniBand Leaf, Spine et Core et, par conséquent, du nombre de câbles ou de connexions nécessaires.

Ce type de réseau neuronal peut nécessiter 10 fois plus de fibre optique dans le même espace que les racks de serveurs traditionnels. Corning se prépare depuis des années à cette tendance des centres de données à grande échelle. Nous avons inventé de nouvelles solutions optiques qui aident les opérateurs de centres de données à mettre en place et à faire fonctionner rapidement ces clusters GPU denses de nouvelle génération. Nous déployons ces solutions aujourd'hui avec les principaux opérateurs de centres de données hyperscale du monde, ouvrant ainsi la voie à l'ère de l'IA générative.

Téléchargez dès aujourd'hui notre Guide de câblage de l'architecture AI.

Nous sommes là pour vous assister avec la conception ou l'installation d'applications AI / ML. Remplissez le formulaire ci-dessous et laissez-nous vous connecter à notre équipe d'innovation Hyperscale.

Corning propose une conception spécialisée gratuite et travaille avec les plus grands fabricants d'IA du monde.

Merci !

Merci de nous avoir contactés. Un représentant de Corning vous contactera prochainement au sujet de votre demande. Si vous avez besoin d'une assistance immédiate, veuillez contacter notre service clientèle au +49 30 5303 2100 ou 00 800 2676 4641.

Partager