KI
Die Revolution der künstlichen Intelligenz
Aufregende Fortschritte in der KI verändern Rechenzentren in nie dagewesener Weise. Panduits Blogbeitrag „KI-Trends, die das Rechenzentrum von morgen verändern“ befasst sich eingehend mit diesen innovativen Trends und ihren Auswirkungen auf die Branche.
Als ChatGPT im November 2022 ins Leben gerufen wurde, löste es die Revolution der Künstlichen Intelligenz aus, die jede Branche und die Art und Weise, wie wir arbeiten, verändert. Unter seinen zahlreichen Fähigkeiten bietet KI die Fähigkeit, Effizienz und Produktivität in der Fertigung zu steigern, Fortschritte in der medizinischen Forschung zu entwickeln und kreative Aufgaben zu lösen.
KI wird in der Regel in zwei Hauptkategorien unterteilt: generativ und prädiktiv. Generative KI (GenAI) verwendet vorhandene Daten als Grundlage, um neue Originalinhalte wie Gesprächsreden, schriftliche Artikel, Bilder oder neue Produkte zu erstellen. Prädiktive KI, wie der Name schon sagt, wird verwendet, um Vorhersagen auf der Grundlage von Datentrends zu treffen, um die Entscheidungsfindung zu verbessern. GenAI wird oft in Marketing, Design und Medizin verwendet. Prädiktive AI wird in Marktanalyse, präventiver Wartung und Finanzierung verwendet.
Während Rechenzentren KI-Geräte beherbergen, können sie auch von diesen leistungsstarken Systemen profitieren. Die fortschrittlichen Algorithmen und maschinellen Lernfunktionen von prädiktiver AI können riesige Datenmengen in Echtzeit analysieren, sodass Rechenzentren immer intelligenter und adaptiv werden können. Sie werden in der Lage sein, mögliche Probleme zu antizipieren und anzugehen, bevor sie auftreten, um maximale Verfügbarkeit und Zuverlässigkeit zu gewährleisten - was Rechenzentrumskunden am meisten schätzen.
Nach mehreren Jahren der Einführung einer neuen GPU alle zwei Jahre tat Nvidia dies im Jahr 2024 erneut mit dem aktuellen Blackwell-Prozessor, der eine deutliche Verbesserung gegenüber seinen Vorgängern bietet.
Während es einige Zeit dauern kann, bis Produkte, die Blackwell verwenden, auf dem Markt auftauchen, hat es den Rechenzentrumsunternehmen bereits einen Blick darauf gegeben, welche Infrastruktur sie benötigen werden. Ein volles Rack von vier DGX B200 benötigt 60 kW, aber der High-End-NVL72 SuperPod, der den GB200 Superchip verwendet, wird bis zu 120 kW betragen und eine direkte Flüssigkeitskühlung erfordern. Nvidia kündigte auch an, dass ihre nächste GPU namens Rubin, die möglicherweise für die Veröffentlichung im Jahr 2026 geplant ist, so konzipiert sein wird, dass sie die Energieeffizienz optimieren soll.
Auf der DC World erklärte Ali Fenn, Präsident von Lancium, „KI wird die größte Kapitalbildung in der Geschichte sein“ und stellte fest, dass die Stromversorgung, mehr als die GPU-Technologie, steuern wird, wie schnell sie wachsen kann. Es gab bereits Bedenken hinsichtlich der Stromversorgung vor dem Aufkommen von KI, als ein durchschnittliches Rack nur 10 kW benötigte, aber es hat ein ganz neues Gefühl der Dringlichkeit erhalten, jetzt, da Rack-Strom 12 mal mehr erfordern kann.
Die Erhöhung der Anzahl der KI-Systeme in Rechenzentren und deren High-Power-Nutzung pro Rack beschleunigt die Notwendigkeit der Flüssigkeitskühlung. Dies zeigte sich auf der Ausstellungsfläche in der DC-Welt, die über 10 Liquid-Cooling-Unternehmen mit vielen Start-ups unter zwei Jahren umfasste. Während es unterschiedliche Meinungen darüber gibt, wann eine Flüssigkeitskühlung erforderlich ist, war man doch darüber einig, dass es verwendet werden sollte, wenn der Rack-Strom größer als 40 kW ist. Das Hinzufügen von Flüssigkeitskühlsystemen in ein bestehendes Rechenzentrum ist nicht trivial und ein Manager sagte, dass er erwartete, mehrere Klempner für seine Festangestellten einstellen zu müssen.
Um alle GPUs so zu verbinden, dass ein Cluster (oder ein Pod) für eine größere KI benötigt wird, sind Faserverkabelung und optische High-Speed-Transceiver erforderlich. Mit bis zu 8 GPUs pro Server, die jeweils mit Datenraten bis zu 800 Gbit/s laufen, werden viele Rechenzentren eine vierfache Steigerung bei der Anzahl der Glasfaserkabel sehen. Dies wiederum verstärkt die Staus in den Verkabelungswegen und erfordert häufig breiterer Wege, z. B. mit einer Breite von 24" oder 36" und mehreren Schichten, wenn der Deckenraum dies zulässt.
Darüber hinaus müssen Rechenzentren für die Skalierbarkeit und Flexibilität für den KI-Workflow ausgelegt sein. Hochgeschwindigkeits- und Latenznetzwerke sind entscheidend für eine effiziente KI-Datenverarbeitung sowie robuste Speichersysteme und fortschrittliche Datenmanagement-Techniken. Auch die Betreiber von Rechenzentren werden noch mehr unter Druck stehen, die Umweltauswirkungen ihrer RZ zu mildern, und die Nutzung erneuerbarer Energiequellen wird ein Muss sein. Aufgrund der Einschränkungen des Stromnetzes in vielen Gebieten der Welt erhält sogar die Kernenergie ernsthafte Aufmerksamkeit, um den CO2-Fußabdruck zu reduzieren und gleichzeitig eine zusätzliche Stromquelle nutzen zu können. Skalierbarkeit, Flexibilität, Sicherheit und ökologische Nachhaltigkeit sind wesentliche Faktoren bei der Gestaltung und dem Betrieb von KI-Rechenzentren.
Neue KI-Rechenzentren erfordern neue Umgebungen
KI wirkt sich auf alle Märkte aus, aber es ist keine Übertreibung zu sagen, dass ihre größten Auswirkungen im Bau von Rechenzentren zu spüren sein werden. Die Kombination all dieser Anforderungsänderungen hat viele Rechenzentrumsunternehmen davon überzeugt, dass die Nachrüstung bestehender Rechenzentren nicht immer ausreichend ist. Neue Gebäude in Gebieten mit genügend preiswerter Energie müssen gebaut werden. Die neuen KI-Rechenzentren werden mit flüssigen (Wasser- oder dielektrischen Flüssigkeits) Kühlsystemen, breiteren Verkabelungswegen und dickeren Betonböden gebaut, die für die schwereren KI-Geräte benötigt werden.
Trotz des immensen Nutzens der KI steht der Übergang, der für die Umsetzung in Rechenzentren erforderlich ist, vor vielen Herausforderungen.
- mehr Leistung für die wachsende Datenmenge
- innovative Kühlsysteme
- bis zu 4 mal mehr Glasfaser wird benötigt, die zur Verbindung der Server und Switches verwendet werden
- mehr Platz wird benötigt
- Lösungen werden gesucht, die die Kapazität erhöhen kann, ohne bestehende Verkabelungsnetze zu stören
- verbesserte Nachhaltigkeit

