Supermicro und das Metaverse – Neue Konfigurationen ermöglichen Echtzeit-Zusammenarbeit im Metaverse

Die Workloads für das Metaverse stellen für die Rechenzentren noch größere Herausforderungen als die ohnehin schon fordernden Ansprüche der fortschrittlichen KI-Implementierungen dar.

Es ist kein Geheimnis, dass die sich schnell entwickelnden Technologien der Virtuel Reality (VR) und der Advanced Reality (AR) begonnen haben, die Art und Weise, wie Menschen miteinander interagieren, grundlegend zu verändern. Mit der Ankündigung von Facebook im Jahr 2021, ein »Metaverse« zu schaffen, führen Innovation und Investitionen in VR-Technologien und -Projekte zu neuen virtuellen Welten und Anwendungen in Echtzeit.

Während diese neuen Technologien den Beginn einer neuen Ära für Verbraucher markieren, erfordern sie ein ganz anderes Verständnis und eine andere Implementierung von Hardwaresystemen. Die schnelle Reaktionszeit, die für diese VR- und AR-Erlebnisse erforderlich ist, erfordert eine höherwertige Ausrüstung und stellt daher auch die Rechenzentren, die diese Umgebungen möglich machen, vor neue Herausforderungen. Sowohl für die Hersteller von Rechenzentrumsausrüstung als auch für die Betreiber von Rechenzentren stellen Metaverse-Workloads noch größere Hürden dar als fortschrittliche KI-Implementierungen.

Eine andere Welt, aber immer noch im Rechenzentrum. Zunächst einmal ist es nicht ungewöhnlich, dass diese virtuellen Welten dezentral in Rechenzentren existieren, wo leistungsstarke Server mit hoher Bandbreite Hunderttausende von Benutzern und Benutzerdatenbanken verfolgen und verarbeiten. Diese Rechenzentrumsinfrastrukturen müssen nicht nur in der Lage sein, Bewegungen und Interaktionen in Echtzeit präzise zu verarbeiten, sondern im Falle von AR auch die Daten abrufen können, um beeindruckende, lebensechte Bilder und Overlays zu erstellen.

Solche Rechenzentren müssen über ausreichende Verarbeitungskapazitäten, Kerne/Threads und die schnellsten GPUs verfügen, um Frames mit der erforderlichen Geschwindigkeit zu rendern und Latenzprobleme zu vermeiden, die für den Nutzer ein unbefriedigendes Erlebnis darstellen könnten. Darüber hinaus müssen sie in der Lage sein, schwankenden Benutzerverkehr zu bewältigen, ohne die Geschwindigkeit zu beeinträchtigen. Für große Metaverse-Realitäten, die in Rechenzentren angesiedelt sind, bedeutet dies Multi-CPU-Server, die leistungsstärksten Grafikkarten, schnelle Netzwerkbandbreiten und die unterstützende Software und Verbindungen, um minimale Verzögerungen oder Jitter zu gewährleisten.

Auch wenn dies wie bei allen anderen Hochleistungsanwendungen wie KI klingt, ist es in AR- und VR-Umgebungen noch wichtiger. Diese Anwendungen erfordern ein Höchstmaß an Leistung aus einer Vielzahl von Technologien, um in Echtzeit unglaublich reaktionsschnell zu sein und die Grafiken so nah wie möglich an den Nutzer zu bringen. Sie erfordern eine extreme Rechenleistung (CPUs), eine robuste Grafikverarbeitung (GPUs) und sind zur Sicherstellung der Echtzeitfunktionalität auf erstklassigen Speicher (On-Chip und Storage), hohe Bandbreite (Networking/PCIe) sowie unerschütterliche Zuverlässigkeit (Jitter/Lag) angewiesen, um ein nahtloses Erlebnis zu gewährleisten – oder zumindest eines, das nicht stört.

 

Anforderungen an Rechenzentren

Das Metaverse stellt hohe Anforderungen an die Hardware von Rechenzentren. Hier sind einige Schlüsselaspekte, die berücksichtigt werden müssen:

  • Hohe Rechen- und GPU-Dichte: Das Metaverse erfordert eine hohe Rechen- und GPU-Dichte, um komplexe Simula­tionen und Interaktionen in Echtzeit zu ermöglichen.
  • Schnelle Konnektivität: Eine schnelle und zuverlässige Netzwerkverbindung ist entscheidend, um eine nahtlose Benutzererfahrung im Metaverse zu gewährleisten.
  • Großer Speicherplatz: Das Metaverse wird eine enorme Menge an Daten generieren, die gespeichert und verarbeitet werden müssen1.
  • Minimale Latenzzeiten: Um eine reibungslose und immersive Erfahrung zu ermöglichen, müssen die Latenzzeiten minimiert werden. Dies kann durch Edge-Rechenzentren erreicht werden, die Daten näher am Benutzer verarbeiten und so die Latenzzeiten reduzieren.
  • Sicherheit: Da das Metaverse eine Fülle von Benutzerdaten beinhaltet, ist die Sicherheit der Daten von größter Bedeutung. Technologien wie Blockchain können hierbei eine wichtige Rolle spielen.

Es ist wichtig zu beachten, dass die spezifischen Hardwareanforderungen stark von der konkreten Ausgestaltung und Nutzung des Metaverse abhängen werden. Zukünftige Entwicklungen in Bereichen wie künstliche Intelligenz, Virtual Reality und Edge Computing werden wahrscheinlich einen erheblichen Einfluss auf die Anforderungen haben.

 

Die Power des Edge Computing. Im Rahmen der Bewältigung all dieser Leistungs- und Latenzprobleme suchen Unternehmen, die Bereitstellungen für Metaverse-Anwendungen verwalten, nach Unterstützung am Edge des Netzwerks, um einige dieser Herausforderungen zu bewältigen.

Die drei verschiedenen Interaktionsarten für AR und VR – eine nicht-immersive virtuelle Umgebung, eine immersive virtuelle Umgebung und Augmented Reality – erfordern alle eine Zwei-Wege-Kommunikation zwischen dem Edge und dem Rechenzentrum, weshalb lokalisierte Rechenzentren dazu beitragen können, die Latenzzeit zu senken und die Leistung zu verbessern. Durch die Annäherung an den Edge beziehungsweise den Benutzer können Unternehmen verschiedene Techniken zur Verarbeitung der Informationen nutzen, und zwar außerhalb des Rechenzentrums – nämlich am oder in der Nähe des Edge. Neben anderen Vorteilen kann dies die Übertragungszeit und die Verzögerungen bei der Reaktion auf die Aktionen des Benutzers verringern, da große Mengen an komprimierten visuellen Bilddaten nicht mehr vom Rechenzentrum bis zum Headset übertragen werden müssen.

Eine Möglichkeit ist, nur Befehle aus dem Datenzentrum weiterzuleiten und die Server am Edge des Netzwerks die Szene auf der Grundlage ihrer Sequenz rendern zu lassen. Dies kann jedoch eine Herausforderung sein, da eine unglaublich niedrige Latenzzeit erforderlich ist, bei der die Bandbreite möglicherweise nicht so wichtig ist. Technisch gesehen besteht die reaktionsschnellste Technik für die Interaktion in AR- und VR-Umgebungen darin, die Grafiken so nah wie möglich am Benutzer zu rendern, was dank der Fortschritte der letzten Jahre bei der Grafikleistung möglich ist. Je nach Rechenkomplexität und Grad der Interaktivität ist die Qualität hoch genug, um diese Edge-Workloads auszuführen.

Eine Infrastruktur aus Geräten, Netzwerken und Back-End-Servern muss so konzipiert sein, dass die Service Level Agreements (SLAs) der Nutzer für virtuelle oder erweiterte Realitäten erfüllt werden. Die Aktualisierung des Bildmaterials auf der Grundlage der Bewegungen des Nutzers ist ebenso wichtig wie die Rendering-Leistung, da Verzögerungen bei der Reaktion des Programms auf die Bewegungen des Nutzers schnell das Erlebnis und den Realitätsfaktor beeinträchtigen können.

Nachhaltigkeit für heute und morgen. Da immer mehr Unternehmen den Einsatz des Metaverse vorantreiben, müssen sie sich Gedanken über den Stromverbrauch des Rechenzentrums machen und die Umweltauswirkungen eines neuen oder leistungsstärkeren Rechenzentrums berücksichtigen. Es ist wichtig, dass Unternehmen diesen Energiebedarf im Auge behalten, denn die Größenordnung von Metaverse-Implementierungen bedeutet einen enormen Energiebedarf. Erst letztes Jahr musste Meta den Bau seines niederländischen Rechenzentrums aus Gründen der Energieeffizienz stoppen, da es so viel Energie verbrauchen würde wie eine Stadt mit 22.000 Einwohnern.

Die zur Unterstützung solcher Metaverse-Workloads benötigte Energie stellt eine Herausforderung für die Infrastruktur des Rechenzentrums, die laufenden Betriebskosten und die potenziellen Umweltauswirkungen dar. Aus all diesen Gründen ist es für Unternehmen, die in diesen Bereich einsteigen, von entscheidender Bedeutung, dass sie Anstrengungen unternehmen, um die Energieeffizienz zu gewährleisten. Vor dem Einstieg in diesen Bereich müssen Unternehmen die Komplexität der Beschaffung der benötigten Energie verstehen und sollten energieeffizientere Hardware, Serverarchitekturen und Rechenzentrumsdesigns einsetzen, um die Rechenzentren nachhaltig zu betreiben.

Das bedeutet, dass agile, anpassungsfähige und skalierbare Architekturen entwickelt werden müssen, um die Rechenleistung zu verbessern. Eine effektive Zusammenarbeit kann Unternehmen auch dabei helfen, eine Über- oder Unterversorgung ihrer operativen KI-Umgebungen zu vermeiden und so eine maximale Effizienz und Wertschöpfung zu gewährleisten. Um die massiven KI-Workloads moderner Unternehmen zu unterstützen, müssen die Datenbank-, Rendering- und Netzwerkleistung der Programminfrastruktur wie eine gut geölte Maschine funktionieren, die harmonisch mit den anderen Komponenten des Prozesses zusammenarbeitet.

 

Supermicro Rechenpower

Supermicro liefert das NVIDIA OVX-Computersystem der zweiten Generation für 3D-Zusammenarbeit, Metaverse und digitale Zwillingssimulation, das von der neuen NVIDIA® L40-GPU angetrieben wird.

Supermicro-Server für Grafik und Simulation stellen die Grundlage für die Erstellung und den Betrieb von Metaverse-Anwendungen in großem Maßstab bereit – die Systeme unterstützen bis zu 8 NVIDIA L40-GPUs, ConnectX-7® SmartNICs sowie aktuelle und zukünftige CPU-Prozessoren von
Intel und AMD.

Der Supermicro OVX-Server basiert auf der neuen L40-GPU in einem 4U-8GPU-Server mit zwei Intel-CPUs, 32 DIMMs, 8 TB Arbeitsspeicher, 12 PCI-E-Steckplätzen und bis zu 24 Laufwerksschächten. Zu den weiteren Servern, die die L40-GPU verwenden, gehören eine Reihe von Systemen von Supermicro: das 4U 4GPU Rackmount/Workstation, das 2U mit bis zu 6GPUs, das 1U 4GPU und das Multi-Nodes 2U 2Node System. Diese Systeme unterstützen alle NVIDIA L40 PCI-E-basierte GPUs.

»Supermicro ist erneut führend in der Branche, indem es als erstes Unternehmen den OVX-Server der zweiten Generation auf den Markt gebracht hat«, sagte Charles Liang, Präsident und CEO von Supermicro. »Unsere anspruchsvollsten Kunden benötigen die Integration der schnellsten CPUs und GPUs für immersive Erlebnisse mit geringer Latenz. Unser OVX-Server ist für die Erstellung und den Betrieb der komplexesten Omni­verse-Enterprise-Anwendungen in großem Maßstab ausgelegt.«

 


Weitere Informationen finden Sie unter:
https://www.supermicro.com

 

Illustration: © Chawapong | Dreamstime.com