Künstliche Intelligenz und maschinelles Lernen sind auf dem Vormarsch. Im Gepäck haben sie nicht nur viele Chancen für Unternehmen –sondern auch eine ganze Reihe von Anforderungen an Rechenzentren,denn KI-Vorgänge arbeiten mit enormen Datenmengen und bringen so manches System an seine Leistungsgrenzen. Deshalb ist ein Umdenken bei Planung der Rechenzentrumsarchitektur notwendig.
Autor: Anthony Robinson, Global Marketing Applications Manager für Rechenzentren, Corning Optical Communications
KI ist längst ein Bestandteil unseres Alltags geworden:Ohne groß nachzudenken,fragen wir das Smartphone nach dem Wetter, lassen virtuelle Assistenten die Lieblingsmusik spielen und fragen ChatBots nach Informationen.Auch abseits des privaten Umfeldes wird auf KI gesetzt: für schnelle Übersetzungen, zur Gesichtserkennung, bei der Diagnose von Krankheiten oder im Kampf gegen den Drogenhandel. Und die Bedeutung von KI wird wachsen –Gartner sagt voraus, dass das Geschäft mit KI bis 2022 einen Wert von 3,9 Billionen US-Dollar erreicht haben wird. Diese Entwicklung setzt riesige Datenströme voraus und produziert sie selbst. Für Rechenzentren, die Knotenpunkte der digitalen Welt, bleibt das nicht ohne Folgen.
KI kann Energiekosten im Rechenzentrum senken
Wie der Mensch können auch Rechenzentren von KI –oder genauer gesagt maschinellem Lernen (ML) –profitieren. Google-Selbsttests aus demJahr 2014 zeigten, dass sich der Stromverbrauch in Rechenzentren mit ML optimieren lässt. Am Teststandort konnte der Energieverbrauch für die Kühlung um beeindruckende 40 Prozent verringert werden. Die sogenannte Power Usage Effectiveness (PUE), die angibt wie effizient Rechenzentren Energie nutzen, nahm in Folge dessen einen Allzeit-Bestwert an. Google setzt dieses Verfahren inzwischen auch an anderen Standorten erfolgreich ein und es dürfte nur eine Frage der Zeit sein, bis andere Technologiekonzerne folgen.
KI hat also definitiv Vorteile für Rechenzentren –aber die Datenströme stellen eine enorme Herausforderung dar. So werden allein für das Training des Chinesisch-Spracherkennungs-Modells von Baidu vier Terabyte Trainingsdaten und gleichzeitig 20 Exaflops Rechenleistung benötigt.