
Illustration Absmeier foto freepik ki
Steigende Leistungsdichten, KI‑Workloads und dauerhaft hohe Lasten bringen klassische Luftkühlung in Rechenzentren an ihre physikalischen und wirtschaftlichen Grenzen. Effizienzgewinne auf Komponentenebene reichen nicht mehr aus, wenn ein wachsender Teil der Energie in Kühlung statt in Rechenleistung fließt. Flüssigkeitskühlung wird damit vom Nischenthema zur strategischen Voraussetzung für skalierbare, zukunftsfähige IT‑Infrastrukturen.
Energie verschwindet nie. Der erste Hauptsatz der Thermodynamik ist für das Verständnis moderner IT-Infrastruktur zentral. Für Rechenzentren bedeutet das: Jede Kilowattstunde Strom, die in ein IT-System eingespeist wird, verlässt es am Ende als Wärme.
Diese physikalische Realität stand lange nicht im Zentrum der Systementwicklung. Technologischer Fortschritt wurde vor allem über steigende Rechenleistung definiert. Mehr Kerne, höhere Leistungsdichten und spezialisierte Beschleuniger galten als Innovationsmaßstab, während Wärme als infrastrukturelles Randthema behandelt wurde.
Diese Priorisierung hat Folgen. Serverdichte und Leistungsaufnahme steigen schneller als die Fähigkeit, Wärme abzuführen. Racks sind ausgelastet, die Kühlkapazitäten am Limit – die thermische Skalierbarkeit bleibt auf der Strecke.
Künstliche Intelligenz verschärft diesen Effekt noch. KI-Workloads erzeugen keine typischen Lastspitzen, sondern kontinuierlich hohe thermische Belastung. Hocheffiziente Beschleuniger wie GPUs oder TPUs transformieren elektrische Energie in Rechenleistung – und dann in anhaltende Hitze. Der Ausnahmezustand wird zur Norm.
Effizienzmaßnahmen haben diesen Trend lange abgefedert. Virtualisierung erhöhte die Auslastung der Systeme deutlich, Netzteile wurden erheblich effizienter und der Energieeinsatz pro Rechenoperation konnte gesenkt werden. Doch die absolute Energieaufnahme steigt weiter. Zunehmend fließt der Strom nicht in Compute, sondern in Kühlung und thermische Kontrolle.
Effizienz wirkt damit nur noch als Schadensbegrenzung. Sie mildert Symptome, adressiert aber nicht die Ursache. Wenn thermische Aspekte nicht Teil der Systemarchitektur sind, wird Kühlung zur entscheidenden Stellgröße für Effizienz, Wirtschaftlichkeit und Skalierbarkeit.
Von Luft zu Wasser
Der größte Teil moderner IT-Hardware wird noch immer mit Luft gekühlt – obwohl dieser Ansatz klare physikalische Grenzen hat. Luft kann nur wenig Wärme aufnehmen und transportieren, deutlich weniger als Flüssigkeiten. Um die steigende Abwärme abzuführen, müssen daher größere Luftmengen bewegt, höhere Luftgeschwindigkeiten eingesetzt oder größere Temperaturunterschiede zugelassen werden.
Damit wird Kühlung selbst zu einem bedeutenden Energieverbraucher. Lüfter und Klimaanlagen laufen zunehmend im Dauerbetrieb, ein wachsender Teil des Stroms wird für Luftbewegung und Raumkühlung benötigt. Auf Ebene des Rechenzentrums wächst der Kühlaufwand schneller als die Rechenleistung. Der sogenannte Power-Usage-Effectiveness-Wert (PUE), der das Verhältnis von Gesamtenergie zu tatsächlich genutzter IT-Energie beschreibt, verschlechtert sich mit steigender Leistungsdichte. Zusätzliche Rechenleistung erfordert mehr Infrastruktur und eine aufwendigere Luftführung. Luftkühlung funktioniert weiterhin, lässt sich unter diesen Bedingungen jedoch nur noch begrenzt erweitern und wirtschaftlich skalieren.
An diesem Punkt zeigt sich ein Muster, das auch aus anderen Industrien bekannt ist. Serienfahrzeuge wie der VW Käfer kamen lange mit luftgekühlten Motoren aus, solange Leistungsdichte und thermische Belastung begrenzt waren. In Hochleistungsanwendungen hingegen – etwa im Motorsport – wurde Flüssigkeitskühlung früh zum Standard. Der Rennsport fungierte dabei als Experimentierfeld: Kühlkonzepte wurden unter extremen Bedingungen erprobt und optimiert, bevor sie in den Massenmarkt übernommen wurden. In der IT lässt sich heute eine vergleichbare Verschiebung beobachten.
Kühltechnologien, die lange dem High-End-Segment vorbehalten waren, werden zunehmend zur Voraussetzung im Alltag. Flüssigkeiten können Wärme deutlich effizienter aufnehmen und transportieren als Luft; Wasser besitzt beispielsweise eine rund vierfach höhere Wärmekapazität. Ohne neue Kühlkonzepte wird zusätzliche Rechenleistung schnell teuer und ineffizient, weil der Energieaufwand für Luftbewegung und Klimatisierung weiter steigt.
Besonders deutlich zeigt sich diese Entwicklung in zwei Technologiebereichen, die traditionell als Vorreiter fungieren: im Hochleistungsrechnen und im Gaming. Dort werden Flüssigkeitskühlungen seit Jahren eingesetzt, um hohe Dauerlasten auf engem Raum stabil zu beherrschen. Diese Ansätze halten nun Einzug in breitere Einsatzbereiche.
Kühlung als Strategiethema
Dass Wasserkühlung inzwischen selbst in mobilen Geräten eingesetzt wird, ist weniger ein Komfortmerkmal als ein Warnsignal. Wenn selbst thermisch stark begrenzte Systeme auf komplexe Kühlkonzepte angewiesen sind, zeigt das, dass klassische Ansätze an strukturelle Grenzen stoßen.
Diese Entwicklung verschiebt den Stellenwert von Kühlung grundlegend. Wärmemanagement wird zu einer architektonischen und strategischen Entscheidung, die beeinflusst, wie Systeme aufgebaut, verdichtet und erweitert werden können. Damit rückt Kühlung in die Nähe klassischer Designparameter wie Rechenleistung, Speicher oder Netzwerkanbindung.
Gleichzeitig wird Kühlung zu einem wirtschaftlichen Faktor. Der Energieaufwand für Wärmemanagement wirkt sich direkt auf Betriebskosten und Skalierbarkeit aus. Zusätzliche Rechenleistung ist nur dann sinnvoll, wenn die entstehende Wärme technisch und wirtschaftlich beherrscht werden kann.
Ein praktisches Beispiel für integriertes Wärmemanagement ist der Supercomputer Otus am Paderborn Center for Parallel Computing (PC2) der Universität Paderborn. Das System nutzt ein warmwasserbasiertes Flüssigkeitskühlkonzept auf Basis der Lenovo-Neptune-Technologie, bei dem die Abwärme direkt an den wärmeerzeugenden Komponenten abgeführt wird. Otus erreichte Platz 5 der internationalen Green500, einem Ranking der energieeffizientesten Supercomputer, das Rechenleistung und elektrische Leistungsaufnahme ins Verhältnis setzt. Die Integration der Kühlung in Architektur und Betrieb wirkt sich auf Energiebedarf, Auslastung und die langfristige Betriebsplanung des Systems aus.
Rechenzentren zwischen Effizienz und Physik
Laut der Datacenter of the Future-Studie von Lenovo erwarten 88 Prozent der Unternehmen in Deutschland, dass ihre Abhängigkeit von Rechenzentren bis 2035 weiter zunimmt. Der Bedarf an Rechenleistung wächst damit dauerhaft und nicht nur vorübergehend.
Vor diesem Hintergrund gewinnt die langfristige Planung von Rechenzentren an Bedeutung. Effizienz auf Komponenten- und Betriebsebene bleibt notwendig, entfaltet ihre Wirkung jedoch nur, wenn Wärmemanagement und Skalierbarkeit von Beginn an in die Architektur eingebunden sind. Zusätzliche Rechenleistung lässt sich nicht isoliert betrachten, sondern muss im Kontext der entstehenden thermischen Lasten geplant werden.
Die zentrale Frage lautet damit weniger, wie effizient einzelne Systeme im Betrieb sind, sondern ob Wärme als feste Größe in der Systemauslegung verankert ist. Wer sie erst nachträglich adressiert, reagiert auf Grenzen. Wer sie im Design berücksichtigt, schafft die Voraussetzungen dafür, dass digitale Infrastruktur langfristig wirtschaftlich und skalierbar betrieben werden kann.
Paul Höcherl, Technologist Datacenter bei Lenovo
