Von Las Vegas ins Rechenzentrum – was die CES 2026 über die bevorstehende Infrastruktur-Revolution verrät

Auf der CES 2026 war KI allgegenwärtig, was auf eine Infrastruktur-Revolution für Unternehmensrechenzentren hindeutet – dies unterstreicht die Notwendigkeit von KI-fähigen Datenplattformen, die GPUs kontinuierlich mit Daten versorgen können.

 

KI stand auf der vor wenigen Tagen zu Ende gegangenen CES im Mittelpunkt – und die Messe kann eine unerwartete Kristallkugel für Trends in der Unternehmensinfrastruktur sein. Wenn Consumer-Tech-Unternehmen darum wetteifern, KI in alles zu integrieren, von Fernsehern bis zu Toastern, üben sie einen Sog auf die Dateninfrastruktur aus, die all dies ermöglicht. Pure Storage erklärt, wie dieser Sog die Unternehmens-IT in einer Weise verändern wird, auf die die meisten Unternehmen nicht vorbereitet sind.

 

Die KI-Hardware-Abrechnung: Jeder will den Stack besitzen

Der Auftakt der CES 2026 erfolgte frühzeitig mit der Keynote von Jensen Huang, CEO von NVIDIA, der den Ton für das angab, was die bestimmende Tech-Story des Jahres 2026 sein könnte: die KI-Stack-Revierkämpfe. Huang stellte die Rubin-Computing-Plattformen des Unternehmens vor, die entwickelt wurden, um den enormen Rechenbedarf für KI mit größerer Effizienz zu decken und »KI an die nächste Grenze zu bringen«, so Huang.

Ab hier wird es für Infrastrukturplaner interessant: Laut »The Information« entwickelt sich 2026 zum »Jahr der Roboter« für große KI-Unternehmen, wobei Anthropic, Meta, xAI und OpenAI alle vertikal in die Bereiche Hardware, Robotik und humanoide Plattformen expandieren. Alle versuchen, End-to-End-KI-Stacks zu entwickeln – von Silizium über Software bis hin zu tatsächlichen Robotern auf der CES-Ausstellungsfläche.

Dieser Trend zur vertikalen Integration spiegelt ein allgemeineres Muster wider: Wenn Technologie geschäftskritisch wird, wollen Unternehmen den gesamten Stack kontrollieren. Google baut TPUs. Amazon entwickelt Trainium-Chips. Microsoft plante, allein im Jahr 2025 80 Milliarden US-Dollar in die CAPEX für Rechenzentren zu investieren. Der Wettbewerb erstreckt sich über alle Ebenen – Hardware, Cloud-Infrastruktur, Basismodelle und Anwendungen.

Was bedeutet das für die Unternehmens-IT? Der unstillbare Hunger nach KI-Rechenleistung und der damit verbundene Wettlauf um die beste Infrastruktur werden jedes Unternehmen zwingen, sich mit unangenehmen Fragen zu seiner Datenbasis auseinanderzusetzen. Denn obwohl NVIDIA Chips entwickeln und OpenAI Modelle trainieren kann, entsteht ein teurer Engpass, wenn die Speicherebene diese GPUs nicht schnell genug versorgen kann.

 

Von Consumer-Gadgets zur Realität in Rechenzentren

Berichte von der CES zeigen, dass KI mittlerweile überall Einzug gehalten hat. Der Trend zeigt klar, dass KI sich vollständig von einem hilfreichen Nebenwerkzeug zu einem allgegenwärtigen, im Rampenlicht stehenden Wegbereiter entwickelt hat. Roboter waren überall zu sehen, aber KI stand auch auf andere, noch wirkungsvollere Weise im Mittelpunkt: indem sie unsichtbar agierte.

KI als Infrastruktur ist nichts Neues, aber ihre Skalierung ist es. Diese Explosion der Consumer-KI schafft eine täuschend einfache Parallele zum Unternehmensbereich: Unternehmen stehen vor der gleichen Herausforderung in großem Maßstab. Die 73 Prozent der Unternehmen, die Bedenken äußern, dass ihre derzeitige Infrastruktur die Anforderungen der KI nicht erfüllen kann, liegen nicht falsch. Und diese Sorge ist durchaus berechtigt, wenn man sich die Zahlen ansieht.

McKinsey prognostiziert, dass bis 2030 Infrastrukturinvestitionen in Höhe von 6,7 Billionen US-Dollar erforderlich sind, um die KI-getriebene Nachfrage zu decken – davon allein 5,2 Billionen US-Dollar für KI-fähige Rechenzentren. Gartner prognostiziert, dass die Ausgaben für Rechenzentrumssysteme bis 2025 um 46,8 Prozent auf 489,5 Milliarden US-Dollar steigen werden, mit einem weiteren Wachstum von 19 Prozent im Jahr 2026. Das ist eine grundlegende Neuberechnung dessen, wieviel Rechenleistung, Netzwerk und Speicherplatz moderne Unternehmen benötigen.

Hier ist die Infrastrukturrealität, die die CES unbeabsichtigt hervorhebt: KI-Workloads verhalten sich nicht wie herkömmliche Anwendungen. Sie sind unvorhersehbar, komplex, multimodal (sie verarbeiten Text, Bilder und Videos gleichzeitig) und erfordern eine massive parallele Datenübertragung, die der GPU-Speicherbandbreite entspricht. Wenn Unternehmen Tausende von GPUs betreiben, die KI-Pipelines durchlaufen, stellt sich nicht die Frage, ob ihr Speicher mithalten kann. Die Frage lautet: Wie schnell können Unternehmen Daten bereitstellen, bevor ihre teuren GPUs in den Leerlauf gehen?​

Die Umstellung auf parallele Dateisysteme, Scale-Out-Architekturen und softwaredefinierten Speicher ist nicht mehr nur ein »Nice-to-have«.

 

Im Jahr 2026 bestimmen Datenfundamente den Erfolg der KI

Die CES ist der perfekte Wendepunkt, um diese Konvergenz von Consumer-Technologie-Trends, Infrastrukturinvestitionen und Unternehmensprioritäten zu nutzen und einen Blick auf die Zukunft zu werfen. Pure Storage sieht vor allem die folgenden Entwicklungen:

 

  1. Data Fabric wird geschäftskritisch und ist keine Option mehr

Die Prognose von Gartner für 2026 betont, dass Data-Fabric-Architekturen, die einen vernetzten, metadatengesteuerten Zugriff über fragmentierte Umgebungen hinweg ermöglichen, sich von einer »hilfreichen« zu einer geschäftskritischen Infrastruktur für die Autonomie der KI entwickeln werden. Multi-Agent-KI-Systeme, die komplexe Workflows über verschiedene Branchen hinweg automatisieren, erfordern vertrauenswürdige Datenprodukte, aktive Metadaten und Governance auf jeder Ebene. Unternehmen, die Daten als isolierte Silos behandeln, werden Schwierigkeiten haben, mit agentenbasierter KI umzugehen.

 

  1. Vereinfachung der Infrastruktur durch strategische Konsolidierung

Die 139 Unternehmen, die »die Bewältigung technischer Komplexität« als oberste Priorität für 2026 nennen, streben keine schrittweisen Verbesserungen an, sondern eine radikale Vereinfachung. Hier liegt der Paradigmenwechsel: Unternehmen sind bereit, sich zu verändern und die Anzahl ihrer Lieferanten zu reduzieren, um im Gegenzug Konsistenz zu erreichen. Dies ist die größte Abkehr von Multi-Vendor-Strategien in jüngster Zeit, die durch die Erkenntnis getrieben ist, dass Lock-in ein geringer Preis für reduzierte Komplexität ist.

 

  1. Die Speicherleistung bestimmt den ROI der GPU

Da SSDs von 122 TB auf 256 TB skalieren und Unternehmen Tausende von GPUs einsetzen, wird der Speicherengpass zu einem existenziellen Problem. Die klare Einschätzung von Infrastrukturanalysten ist zutreffend: »Eine 27-Terabyte-Festplatte reicht einfach nicht aus (…) sie hat nicht die erforderliche Kapazität und ist zu langsam.« Unternehmen, die den Datendurchsatz nicht an die GPU-Kapazität anpassen, werden feststellen, dass ihre teure KI-Infrastruktur ungenutzt bleibt und auf Daten wartet.

Eine Architektur, die Daten und Metadaten unabhängig voneinander skaliert und eine Leseleistung von 10 TB/s bietet, löst dieses Problem. Wenn Unternehmen Leistungsengpässe aus multimodalen Modellen beseitigen und auf Zehntausende von GPUs skalieren können, ist Storage kein Hindernis mehr, sondern ein Wegbereiter.

 

  1. Die Effizienz der KI-Infrastruktur wird zum Unterscheidungsmerkmal

Angesichts steigender Rechenkosten und des Energieverbrauchs, der zu einem betrieblichen Problem wird, entwickelt sich nachhaltiges Computing von einer Initiative zur Unternehmensverantwortung zu einer zwingenden Anforderung. Unternehmen werden KI-optimierten Energieverbrauch, CO2-bewusste Lastverlagerung und Hardware mit geringerem CO2-Fußabdruck priorisieren. Die Infrastruktur, die eine bessere KI-Leistung pro Watt bietet, gewinnt.

 

  1. Cyberresilienz-Architektur übertrumpft Cyberversicherungen

Da Ransomware-Taktiken immer ausgefeilter werden – mit KI-gestütztem Social Engineering, doppelter Erpressung und Angreifern, die Cyberversicherungspolicen stehlen, um Lösegeldforderungen zu benchmarken – reicht eine Versicherung allein nicht mehr aus, um sich zu schützen. Echter Cyberschutz beginnt mit einer resilienten Infrastruktur: unveränderliche Daten, schnelle Wiederherstellung und kontinuierliche Überprüfung, dass saubere Kopien vorhanden sind.

Unternehmen, die sich dank KI-gestützter Datenanalyse fünfmal schneller erholen, haben nicht einfach nur Glück – sie haben ihre Architektur von der Speicherebene an auf Resilienz ausgelegt. Im Jahr 2026 lautet die Frage bei Audits nicht mehr »Haben Sie eine Cyberversicherung?«, sondern »Wie schnell können Sie den Betrieb wiederherstellen, ohne Lösegeld zu zahlen?«

 

Die Schlagzeile der CES: Die Zukunft kommt schnell und Infrastrukturen müssen sich anpassen

Die KI-gestützte Zukunft ist da. Unterhaltungselektronik-Unternehmen integrieren KI überall, weil die Technologie funktioniert, der Wert greifbar ist und sich die Erwartungen der Kunden dauerhaft verändert haben. Die Entwicklung in Unternehmen verläuft ähnlich, nur mit höheren Einsätzen und längeren Beschaffungszyklen. Wenn NVIDIA persönliche KI-Supercomputer ankündigt, Autohersteller LLM-gestützte Fahrzeuge auf den Markt bringen oder große KI-Unternehmen um die Entwicklung humanoider Roboter wetteifern, dann schaffen sie keine spekulativen Prototypen. Sie demonstrieren die Infrastrukturanforderungen, die sich innerhalb weniger Monate auf die Unternehmens-IT auswirken werden.

Pure Storage ist überzeugt: Unternehmen, die die Modernisierung ihrer Infrastruktur als dringende strategische Priorität betrachten, werden 2026 bereit sein, die Zukunft zu unterstützen. Unternehmen, die dies aufschieben, werden ihren Führungskräften erklären müssen, warum KI-Initiativen durch Speicherarchitekturen blockiert werden, die für eine Welt vor der KI entwickelt wurden.

Illustration Absmeier foto freepik

4359 Artikel zu „Rechenzentrum „

5 Hindernisse beim Aufbau eines flüssigkeitsgekühlten KI-basierten Rechenzentrums (AIDC)

Wie Anwender die komplexe Infrastruktur von AIDCs der nächsten Generation in der Praxis meistern können. Aufgrund der rasanten Entwicklung KI-basierter Technologien der nächsten Generation, wie GenAI und AI4S (KI für die Wissenschaft), müssen Rechenzentren Workloads bewältigen, die noch vor wenigen Jahren unvorstellbar waren. Allerdings stellen der deutsche Branchenverband Bitkom und nationale Studien fest, dass die…

Gefährdungen im Rechenzentrum beurteilen: Haftung steuern, Risiken senken

Mit klaren Prüfstrategien Risiken minimieren und wirtschaftlichen Nutzen sichern.   Die Gefährdungsbeurteilung (GBU) für das Rechenzentrum rettet Leben und sichert den Betrieb. Klare Verantwortlichkeiten, optimierte Prüffristen und gezielte Schutzmaßnahmen reduzieren das Risiko von Personenschäden deutlich. Gleichzeitig sinken Ausfallrisiken, teure Stillstände werden vermieden und Versicherungskonditionen eventuell verbessert. Wer seine GBU professionell angeht, erfüllt nicht nur gesetzliche…

Cloud-Repatriierung: 10 Empfehlungen für die Rückverlagerung ins eigene Rechenzentrum

Steigende KI-Kosten, neue Regulierungen und der Wunsch nach Kontrolle verändern die Cloud-Strategien vieler Unternehmen. Ein Leitfaden für die richtige Repatriierungsstrategie aus Sicht der Rechenzentrumsplanung.   Lange galt die Cloud als Endpunkt der IT-Modernisierung. Doch mit dem Aufkommen rechenintensiver KI-Workloads, neuen regulatorischen Pflichten und intransparenten Kostenmodellen stellt sich für viele Unternehmen die Frage neu: Welche Workloads…

Grünes Reisen beginnt im Rechenzentrum

Ein Kommentar von Jeff Wittich, Chief Product Officer bei Ampere Computing   Der Sommer steht vor der Tür und Millionen von Europäern bereiten sich darauf vor, über Luft, Schienen oder Straßen in ihren wohlverdienten Urlaub zu fahren. Doch bevor sie Sonne, Strand und Sehenswürdigkeiten in vollen Zügen genießen können, müssen sie sich mit Dingen wie…

IT Container Eco Fix: Das CO₂-optimierte Rechenzentrum aus Holz

Vollausgestattetes Green Data Center aus X-LAM erfüllt alle Anforderungen der EN 50600.   Mit dem IT Container Eco Fix bringt Prior1 ein vollständig ausgestattetes Rechenzentrumsmodul in Holzbauweise auf den Markt – technisch hochmodern, ressourcenschonend und sofort betriebsbereit. Entwickelt in enger Kooperation mit dem Ingenieurholzbau-Unternehmen Derix vereint die modulare Lösung alle Anforderungen moderner IT-Infrastruktur mit konsequenter…

Rechenzentrums-Branche: Ein Papier als Türöffner?

Jerome Evans, Gründer und Geschäftsführer der firstcolo GmbH, ordnet die Bedeutung der Inhalte des neuen Koalitionsvertrags für die Rechenzentrums-Branche ein: »Mit dem neuen Koalitionsvertrag der Bundesregierung zeichnen sich weitreichende Veränderungen für die Rechenzentrumsbranche und die Digitalwirtschaft in Deutschland ab. Die geplanten Maßnahmen dienen zur Stärkung des Rechenzentrumsstandorts Deutschland, während sich zugleich der realistische Blick auf…

Abwärme aus Bestandsrechenzentrum ermöglicht klimaschonendes Wärmekonzept in neuem Berliner Quartier

Spandauer Rechenzentren versorgen mehr als 10.000 Menschen zuverlässig mit CO2-freier Wärme. Am Rechenzentrumsstandort Berlin 1 von Global Data Centers, einem Geschäftsbereich von NTT DATA, fiel der Startschuss für ein zukunftsweisendes Wärmekonzept im Neubaugebiet »Das Neue Gartenfeld«: Aus den beiden Rechenzentren in Spandau werden bis zu 8 MW Heizleistung für das Projekt mit der Quartierswerk Gartenfeld…

Neue Wege und Maßnahmen für mehr Energieeffizienz und Energieeffizienz – Nachhaltiger Rechenzentrums­betrieb ist eine Daueraufgabe

Im Zuge der drastischen klimatischen Veränderungen und deren Auswirkungen auf die Umwelt, ist das Bewusstsein der Menschen sensibilisiert, so legen auch Kunden großen Wert auf umweltfreundlichen Rechenzentrumsbetrieb des Anbieters. Die Politik leistet mit dem Energieeffizienzgesetz (EnEfG) einen wichtigen Beitrag mit klaren Vorgaben für die Branche. Eine konkrete Umsetzung der geforderten Auflagen für mehr Energieeffizienz und Nachhaltigkeit obliegt den Rechenzentrumsbetreibern. Beispiele zeigt dieser Beitrag auf – und es ist Kreativität und Mut gefragt, um Veränderung voranzutreiben.

Rechenzentrumstrends 2025: Unterstützung, Umsetzung, Nutzung und Regulierung von KI rücken verstärkt in den Fokus der Branche

Innovationen bei der Stromversorgung und Kühlung von KI-Racks sowie das Management von Energieverbrauch und Emissionen – diese Entwicklungen werden im kommenden Jahr im Mittelpunkt stehen.   KI wird die Rechenzentrumsbranche weiterhin grundlegend neu gestalten. Das wird in den von Vertiv, einem Anbieter von Lösungen für kritische digitale Infrastrukturen und Kontinuität, prognostizierten Trends für Rechenzentren für…

Quantencomputer mit 1.000 Qubits für das Leibniz-Rechenzentrum in Garching

  Das Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften (LRZ) in Garching bei München erhält seinen ersten Quantencomputer auf Basis neutraler Atome. Das vollständig digitale System mit 1.000 Qubits und einer neuartigen Multi-Core-Architektur wird vom deutschen Start-up planqc entwickelt und in die bestehende Infrastruktur für Hochleistungsrechnen (HPC) integriert. Für planqc ist dies bereits das zweite große…

Vier Wege, um Computing- und Energieeffizienz im Rechenzentrum zu verbessern

 KI-Anwendungen verringern die Effizienz und erhöhen den Energiebedarf in Rechenzentren.   Laut aktueller Prognosen werden Rechenzentren bis zum Jahr 2030 für etwa 3,2 Prozent des gesamten Strombedarfs in der EU verantwortlich sein. Im Vergleich zu 2018 entspricht dies einem Anstieg von ganzen 18,5 Prozent [i]. Hauptgrund dafür sind die höheren Rechenleistungen, aufgrund von komplexen Anwendungen…

Legacy im Rechenzentrum: Was tun, wenn das Ende der Garantiedauer erreicht ist?

Mit Third-Party-Maintenance (TPM) schützen Unternehmen ihre Investitionen in die IT-Landschaft, indem sie die Betriebsdauer von Hardware wie Storage-Systemen, Netzwerk-Switches und Servern verlängern. Der Beitrag zeigt, wie CIOs die Drittwartung nutzen, um beispielsweise ihre IT-Kosten zu optimieren.   Auch wenn Organisationen vermehrt ihre IT-Ressourcen aus der Cloud beziehen, bleibt das eigene Rechenzentrum weiterhin eine zentrale Komponente…

Erfolgsfaktoren für die Anwendungsmodernisierung im Rechenzentrum

Damit Unternehmen langfristig wettbewerbsfähig bleiben, müssen sie schnell auf Marktveränderungen reagieren und mit technologischen Entwicklungen Schritt halten. Doch das gelingt nur, wenn auch die IT-Systeme mitspielen. Aerospike rät Unternehmen daher, ihre Legacy-Anwendungen regelmäßig auf den aktuellen Stand zu bringen. Milliarden von Entscheidungen werden heute in weniger als einer Millisekunde getroffen: bei der Betrugsbekämpfung, beim Online-Shopping…

Rechenzentrumsbranche in der Pflicht – Gegen Energie­vampire hilft kein Knoblauch

Rechenzentren sind als Stromfresser verschrien. Im Vereinigte Königreich werden sie gar schon als »Energievampire« gescholten, die das Stromnetz leersaugen, sodass für andere häufig nichts übrig bleibt [1]. Die Diskussionen um den hohen Energieverbrauch von Rechenzentren konzentrieren sich fast ausschließlich auf den Bereich der Neubauten, obwohl etwa 60 Prozent des Bestands an Rechenzentren in Europa älter als achtzehn Jahre sind.

Vorreiterrolle in den Schlüsseltrends der Rechenzentrumsbranche

Erfolgreiche Bilanz 2023 und strategische Ausrichtung für das kommende Jahr.   Nach einem herausfordernden, aber erfolgreichen Jahr 2023 richtet Prior1 seinen Blick auf die Zukunft. Die Geschäftsführer Stefan Maier und Tobias von der Heydt legen ihre Visionen für 2024 dar und zeigen auf, wie Prior1 seine Rolle als Vorreiter in der Rechenzentrumsbranche weiter ausbauen wird.…

Rechenzentrumsmanagement: Effizienz rauf, Kosten runter

Die zunehmende Komplexität von Rechenzentren bedeutet für IT-Administratoren eine enorme Herausforderung, zumal nach wie vor qualifizierte IT-Fachkräfte fehlen. Hilfe verspricht Augmented Reality (AR). Die innovative Technologie unterstützt Mitarbeitende in Rechenzentren (RZ) bei ihrer täglichen Arbeit auf vielfältige Weise. Durch optimierte Prozesse profitieren Unternehmen von Kostensenkungen und signifikanter Effizienzsteigerung.   AR erlebt derzeit einen Aufwärtstrend. Die…

EnEfG: Implikationen und Chancen für IT-Verantwortliche und Rechenzentrumsbetreiber

Neues Energieeffizienzgesetzes: Viele offene Fragen, die jetzt angepackt werden müssen. Die Balance zwischen Innovation und praktischer Umsetzung im Kontext der Abwärmenutzung und Energieeffizienz.   In der vergangenen Woche (21.09.2023) hat der Bundestag einen entscheidenden Schritt in Richtung einer grüneren Zukunft unternommen, indem er den Gesetzesentwurf zur Steigerung der Energieeffizienz und zur Änderung des Energiedienstleistungsgesetzes dem…

Energieeffizienz: Die Rechenzentrumsbranche und die Notwendigkeit der Transparenz

Das PeerDC-Projekt als Katalysator für transparente und nachhaltige Rechenzentren. Die Rechenzentrumsbranche steht vor einer beispiellosen Herausforderung: die Verbesserung der Energieeffizienz und der Klimabilanz. Das PeerDC-Projekt, initiiert vom Umweltbundesamt, hat sich zur Aufgabe gemacht, ein öffentliches Register für die Energieeffizienz von Rechenzentren zu schaffen. Doch warum ist Transparenz in diesem Bereich so wichtig?   Um die…

Ungenutzte Effizienzmöglichkeiten im Rechenzentrum: Die Software macht den Unterschied 

Wenn die IT im Rechenzentrum nicht die gewünschte Leistung bringt, gibt es die unterschiedlichsten Optionen, um die Performance zu erhöhen. Die meisten Unternehmen rüsten einfach die Hardware auf. Dabei bietet auch die Software großes Potenzial für eine Effizienzsteigerung. Dell Technologies zeigt, an welchen Stellschrauben Firmen drehen können.   Unternehmen haben hohe Anforderungen an die Performance…