Server für KI stoßen schnell an die Grenzen der Luftkühlung. Es ist daher eine Reihe von Flüssigkeitskühlungen erforderlich, von Wärmetauschern an der Rückseite der Tür über die direkte Kühlung des Chips bis hin zum vollständigen Eintauchen des Systems, um den PUE-Wert in einem Rechenzentrum auf nahezu 1,0 zu senken. Michael McNerney, Senior Vice President Marketing and Network Security gibt noch weitere Einblicke in die innovativen Entwicklungen bei Supermicro.
Das Schlagwort Nachhaltigkeit spielt gerade im Rechenzentrum eine große Rolle. Wie geht Supermicro damit um, insbesondere im Hinblick auf immer mehr Vorschriften und auch in Bezug auf KI und Metaverse?
Supermicro setzt bei der Entwicklung von Rechenzentrumslösungen auf Nachhaltigkeit. Von unseren Servern bis hin zu den Racks und den Rechenzentren entwerfen wir ständig für Nachhaltigkeit und bieten Lösungen, die den PUE-Wert von Rechenzentren reduzieren.
Im Hinblick auf nachhaltigkeitsorientierte Designprinzipien und -praktiken, die wir befolgen, sind unsere Server weiterhin auf maximalen Luftstrom ausgelegt. Das bedeutet, dass wir bei der Platzierung der Komponenten darauf achten, dass der Luftstrom nicht blockiert wird und problemlos von vorne nach hinten oder von hinten nach vorne fließen kann (je nach Design). Wir achten auch darauf, dass die Wahl der Lüfter eine freie Luftkühlung in Rechenzentren ermöglicht, in denen die Temperatur der einströmenden Luft kühl genug ist. Darüber hinaus handelt es sich bei einer Reihe unserer Server um Multi-Node-Server, was bedeutet, dass sich mehr als ein Server Netzteile und Lüfter teilt. Dieses Design führt dazu, dass größere Lüfter verwendet werden können, und die Lüfter können mit geringerer Leistung und Geschwindigkeit betrieben werden, um den erforderlichen Luftstrom zu erreichen. Darüber hinaus können auch größere Netzteile verwendet werden, die mit ihrer optimalen Last arbeiten.
Michael McNerney,
Senior Vice President Marketing and Network Security
bei Supermicro
Supermicro arbeitet mit Kunden zusammen, um das Rechenzentrum so auszuwählen und zu gestalten, dass der Energieverbrauch vom Rechenzentrum bis hin zur CPU, die für eine bestimmte Konfiguration ausgewählt wird, reduziert wird. Da CPUs und GPUs mit jeder Generation heißer (und schneller) werden, besteht die Herausforderung darin, den lokalen Stromverbrauch gemäß den Vorschriften und Standards für Rechenzentren einzuhalten. Von der Trennung von Warm- und Kaltgängen bis hin zur Flüssigkeitskühlung gibt es Techniken und Designentscheidungen, bei denen Supermicro mit den Designern von Rechenzentren zusammenarbeitet, um den Stromverbrauch zu reduzieren und den PUE-Wert zu senken.
Supermicro bietet eine Reihe von Lösungen zur Flüssigkeitskühlung an. Wir können die komplette Lösung liefern, von innovativen Kühlplatten bis zu redundanten CDUs und sogar Kühltürmen. Auch die Eintauchkühlung gewinnt zunehmend an Bedeutung, um den PUE-Wert in einem Rechenzentrum auf nahezu 1,0 zu senken. Darüber hinaus arbeiten wir mit anderen Anbietern zusammen, um Komplettlösungen für die Flüssigkeitskühlung zu liefern, so dass der Kunde bei der Lieferung der Racks und Cluster alle Komponenten gründlich getestet erhält.
Flüssigkeitsgekühlte Servertechnologien versus Direktkühlung auf dem Chip. Wie sehen Sie das Problem?
Supermicro bietet eine Reihe von Flüssigkühlungslösungen an. Direct to Chip, Rear Door Heat Exchangers und Immersion sind alles akzeptierte Technologien. Supermicro kann die komplette und getestete Lösung aus unseren weltweiten Produktionsstätten liefern. Die Flüssigkeitskühlung bietet eine wesentlich bessere Wärmeabfuhr von den heißen (und immer heißer werdenden) CPUs und GPUs. Während das Eintauchen des gesamten Servers zu den niedrigsten PUE-Werten für ein Rechenzentrum führt, möchten viele Kunden vielleicht D2C und RDHx untersuchen. Supermicro schätzt, dass Flüssigkeitskühlung in den kommenden Jahren notwendig werden wird, da insbesondere GPUs einen größeren Anteil an der Rechenleistung von Rechenzentren ausmachen werden.
Welche Rolle werden Hyperscaler und Betreiber von Unternehmensrechenzentren in Zukunft spielen, wenn es um den Kauf standardisierter Lösungen geht?
Betreiber von Unternehmensrechenzentren werden andere Anforderungen als Hyperscaler haben, wenn es um spezifische Server und Speichersysteme geht. Ein On-Prem-Datacenter wird aufgrund bestimmter Workloads besondere Anforderungen haben und kann seine Server für diese Zwecke optimieren.
Standardisierte Lösungen, die auf Rack-Ebene definiert werden können, werden ihren Platz haben, wenn Rechenzentren wachsen und expandieren, um den Anforderungen von KI und der laufenden digitalen Transformation gerecht zu werden. Allerdings kann jedes Unternehmen spezifische Anforderungen haben, die sich vom Kauf eines standardisierten Racks unterscheiden, wobei Supermicro Racks und Cluster anbieten kann, die auf die Anforderungen des Endbenutzers abgestimmt sind.
Während ein standardisiertes Rack mit vordefinierten Komponenten (Server, Speicher, Switches, Stromverteilungseinheiten usw.) zu einer sehr schnellen Lieferung führen kann, bietet Supermicro auch High-Touch-Design-Services an, die die Anforderungen des Kunden mit den anwendungsoptimierten Servern, für die Supermicro bekannt ist, abgleichen.
Die Betreiber von Unternehmensrechenzentren müssen festlegen, welche Server erforderlich sind, um die SLAs für ihre Kunden, ob Mitarbeiter oder externe Kunden, zu erfüllen. Die Auswahl der Kombination von CPUs, GPUs, Speicher, Netzwerk usw. muss den Anforderungen des Unternehmensrechenzentrums entsprechen. Diese Auswahl von IT-Komponenten gilt auch für die Hunderte von Public-Cloud-Anbietern, die auf bestimmte Arbeitslasten ausgerichtet sind. Ein Hyperscale-Rechenzentrum muss so konzipiert sein, dass es den Anforderungen einer breiten Palette von Kunden gerecht wird.
Rund ein Drittel der Unternehmen möchte in Zukunft noch stärker auf Colocation-Lösungen setzen. Die Vorteile liegen auf der Hand: Einfache Skalierbarkeit, ein hoher Zertifizierungsstandard und die Entlastung des eigenen IT-Personals gehören zum Beispiel dazu. Unternehmen, die jetzt auf der Suche nach einem externen Dienstleister sind, stellen sich zu Recht die Frage: Auf welche Faktoren sollten sie bei der Suche nach einem Colocation-Anbieter dringend achten? Welche Faktoren sind bei der Qualität eines Rechenzentrumsdienstleisters zu beachten?
Colocation-Anbieter müssen in der Lage sein, die Stromversorgung und Kühlung für die kommenden Herausforderungen bei der Unterbringung von Racks mit den neuesten CPUs und GPUs bereitzustellen. Die nächste Generation von Servern für die künstliche Intelligenz stößt schnell an die Grenzen der Luftkühlung und wird eine Reihe von Flüssigkeitskühlungen erfordern, von Wärmetauschern an der Rückseite der Tür über die direkte Kühlung des Chips bis hin zum vollständigen Eintauchen des Systems. Supermicro kann diese Lösungen Betreibern von Rechenzentren und Cloud-Anbietern vor Ort anbieten.
Rechenzentren stehen in dem Ruf, aufgrund ihres hohen Energieverbrauchs negative Auswirkungen auf die Umwelt zu haben. Wie lassen sich Nachhaltigkeit und die weitere Expansion der Rechenzentrumsbranche miteinander vereinbaren?
Der größte Teil des Kohlenstoffverbrauchs eines Servers fällt in der Nutzungsphase an (etwa 90 %). Der Einsatz erneuerbarer Energien im Rechenzentrum ist die wichtigste Maßnahme zur Reduzierung der Komponenten nach der Nutzungsphase, die auch für die Nachhaltigkeit entscheidend ist.
Rechenzentren verbrauchen zwar viel Energie, aber die moderne Wirtschaft, die Medizin, das Verkehrswesen und der persönliche Gebrauch sind auf diese neuesten Technologien angewiesen. Die Leistung pro Watt steigt mit jeder Generation von CPUs und GPUs weiter an. Die Nutzung erneuerbarer Energien ist der wichtigste Schritt eines Rechenzentrums zur Verringerung seiner CO2-Bilanz. Darüber hinaus können Rechenzentren so konzipiert werden, dass sie je nach Arbeitslast und Standort des Rechenzentrums mit freier Luft- oder Flüssigkeitskühlung arbeiten.
Vielerorts wird die heiße Luft, die bei der Arbeit der heutigen Server anfällt, zum Heizen von Häusern, städtischen Büros und anderen Bereichen, in denen Wärme benötigt wird, genutzt. Diese Möglichkeit der Wiederverwendung von Wärme ist eine Chance, wenn sich Rechenzentren in der Nähe von Orten befinden, an denen ein Wärmebedarf besteht, was in Zukunft ein Trend sein könnte.
Was die Standardisierung betrifft, so wird jedes Rechenzentrum seine eigenen Anforderungen an Server und Speichersysteme haben, um die SLAs zu erfüllen. Serverdesigns, die das Hinzufügen von Subsystemen zu einem bestehenden Server ermöglichen, reduzieren den Elektroschrott, da nicht der gesamte Server entfernt und/oder recycelt werden muss. Betreiber von Rechenzentren können einen Server mit den neuesten Technologien aufrüsten (mit einigen Einschränkungen). Um den Elektroschrott weltweit zu reduzieren, könnten Normen eingeführt werden, die sicherstellen, dass dies eine weltweite Praxis ist.
In Deutschland wird derzeit das Energieeffizienzgesetz diskutiert, das auch Auswirkungen auf Rechenzentren haben wird – Stichwort Abwärme und wie sie genutzt werden kann. Welche Potenziale sehen Sie hier für die Energiegewinnung durch Rechenzentren und wo sehen Sie noch Hindernisse? Was wünschen Sie sich von den politischen Entscheidungsträgern?
Supermicro ist ein Lieferant von GleSYS, das überschüssige Wärme an die Stadt, in der es sich befindet, zurückleitet und so den CO2-Fußabdruck des Rechenzentrums reduziert. Weitere ähnliche Projekte sind in der Entwicklung. Damit dies effektiv funktioniert, muss das Rechenzentrum entweder in der Nähe eines Kraftwerks oder eines Heizwerks liegen.
Trotz der ständig wachsenden Bedeutung und Expansion des IT- und Technologiesektors stehen Unternehmen auf der ganzen Welt vor der Herausforderung, qualifizierte Mitarbeiter zu finden und zu halten. Wie geht Supermicro mit diesem Problem um?
Supermicro hat weiterhin viele offene Stellen und stellt Experten für offene Positionen ein. Dies hat zu einem branchenführenden Technologie- und Umsatzwachstum geführt. Supermicro ist weltweit tätig und ein wachsender Serveranbieter, der weiterhin an der Spitze der Serverinnovation steht. Diese Qualität sorgt dafür, dass Ingenieure, Produktmanager, Marketing- und Vertriebsteams immer wieder begeistert sind, wenn es darum geht, Kunden auf der ganzen Welt spannende und neue Technologien anzubieten.
Künstliche Intelligenz ist in letzter Zeit in der Rechenzentrumsumgebung in aller Munde, und Rechenzentren werden bereits aufgerüstet und für KI-Arbeitslasten umgerüstet. Steht also das selbstverwaltende Rechenzentrum vor der Tür? Wie kann dies realistisch umgesetzt werden?
KI hat viele großartige Einsatzmöglichkeiten. Neben Rechenzentren, die mit den neuesten KI-optimierten Servern gefüllt sind, ist die Verwaltung der Arbeitslasten, die den verfügbaren Servern zugewiesen werden, ein spannender Bereich, den man beobachten sollte. Neben der Zuweisung von Arbeitslasten auf der Grundlage des Zustands aller Maschinen in einem Rechenzentrum könnten die wünschenswertesten Optionen dazu beitragen, die Energiekosten zu senken.
Vielen Dank für das Gespräch!