In einem typischen hybriden Design verarbeitet der Edge-Server alle Vor-Ort-Daten unter Verwendung des bereits trainierten Modells. Die perfekte Kombination aus Edge-Server und Colocation Anbieter, ermöglicht ausreichend Flexibilität, wenn sich das Netzwerk und die Anwendungen weiterentwickeln. Für die optische Infrastruktur setzen Colocation Rechenzentren in der Regel Singlemode-Fasern ein, um den Endnutzern eine Skalierung zu ermöglichen. Für diejenigen Unternehmen, die KI / ML einsetzen, ist es wichtig, sowohl den heutigen Bandbreitenbedarf als auch den zukünftigen in der Netzwerkplanung zu berücksichtigen. Eine Faustregel besagt, dass man die durchschnittlich erwartete Bandbreite mit 4 multipliziert. So viel Bandbreite sollte ein Unternehmen in seinem System berücksichtigen, da. Bandbreite das erste ist, was in KI-/ML-Implementierungen von den rasch wachsenden Anforderungen aufgefressen wird.
Dieser Anstieg der Bandbreite unterstreicht auch den Bedarf an Lösungen mit hoher Dichte sowohl für Colocatoren als auch für Endnutzer. Colocation Rechenzentren maximieren ihre Einnahmen durch die Generierung von Whitespace, während Endnutzer den Whitespace, in den sie investiert haben, effizient nutzen können. Ort und Infrastruktur können viele Formen und Größen haben, aber insgesamt ist es wichtig, einen Anbieter mit einer Produktbreite zu suchen, der alles unterstützt, was Sie tun möchten (Single- oder Multimode, LC oder MTP). Für den Endnutzer besteht eine Möglichkeit, die Gesamtbetriebskosten zu senken, darin, die Verbindungsdichte zu erhöhen und den Stromverbrauch zu reduzieren. Dies kann durch eine parallel-optische Übertragung der Daten und Port Breakout-Anwendungen ermöglicht werden. Diese Anwendung ermöglicht den Einsatz von Hochgeschwindigkeits-Transceivern, z.B. vier individuelle 10G-Transceiver, die eine hohe Schaltdichte bei gleichzeitig reduziertem Stromverbrauch zu betreiben. Um die Vorteile von KI und ML wirklich nutzen zu können, muss es ein Netzwerk von miteinander verbundenen Rechenzentren geben, die die Datenverarbeitung näher am Entstehungsort der Daten durchführen. Daraus ergibt sich die Notwendigkeit einer globalen Skalierung mit einem konsistenten und modularen Produktportfolio, das eine vollständige Lösung von der Peripherie bis zu den zentralen Rechenzentren bietet.
Colocation Rechenzentren bieten hier Investitionen mit geringem Risiko und einen schnelleren Weg zu Umsätzen aufgrund der schnellen Bereitstellungs- und Verfügbarkeitszeiten. Zum Trainieren und Aktualisieren des Modells werden alle Daten an die Trainingsserver gesendet, die sich in einem privaten Rechenzentrum, primär in einem Colocation-Rechenzentrum oder in der Cloud befinden. Diese Trainingsserver nutzen die neuen Daten, um automatisch zu lernen und die Genauigkeit des verwendeten Modells weiter zu verbessern.
Durch eine Entfernung von weniger als 10 km für die Übertragung der Daten können Anbieter die Latenzzeit oft um 45% reduzieren. Was bedeutet das? Ein zentrales Rechenzentrum bleibt weiterhin erforderlich, aber es wird auch ein Trend zu kleineren und regionalen Rechenzentren geben, die näher am Ort der Datenerzeugung liegen. Colocation Rechenzentren sind dabei das Hauptvehikel für diese kleineren und regionalen Datenzentren. Edge-Rechenzentren sind eine Erweiterung dieser Colos mit hoher Verbindungsdichte oder werden dort gehostet, wobei beide Dienste voneinander abhängen, um einen vollständigen Service für den Kunden und das Netzwerk zu bieten. Colocations mit den am stärksten vernetzten Einrichtungen und einem vielfältigen Kundenmix im Ökosystem profitieren von den anfänglichen Vorteilen des Edge-Rechenzentrums.
Zentralen der Telekommunikationsanbieter sind eine Form eines Edge Data Centers, sogenannte CORD (Central Office Redesigned as a Data Center). Der Trend geht dahin, traditionelle Vermittlungsstellen in eine Art Edge-Rechenzentrum umzuwandeln, die in der Regel sehr nahe beim Kunden angesiedelt sind.