Wir müssen das EnEfG ganzheitlicher betrachten

Illustration Absmeier foto freepik

Matthias Engler ist bei der Akquinet GmbH aus Hamburg als Fachplaner und Berater für die Planung, den Bau und den Betrieb von Rechenzentren für Kunden und die Akquinet eigenen Anlagen verantwortlich. In seiner Tätigkeit hat der 40-Jährige auch stets den nachhaltigen Betrieb von Data Centern im Auge. So wurde eine von Akquinet in Norderstedt betriebene Anlage mit dem von der High Knowledge GmbH entwickelten Zertifikat »Sustainable Data Center« des TÜV Rheinland als Erstes ausgezeichnet. »Wir sind schon immer darauf bedacht, bei der Planung und beim späteren Betrieb die Nachhaltigkeit in den Fokus zu stellen«, betont Engler im Gespräch. Trotzdem betrachtet er das kommende Energieeffizienzgesetz (EnEfG) durchaus auch kritisch. Für den Hamburger sind einige Aspekte des Gesetzes nicht ausreichend zu Ende gedacht.

 

Anzeige

 

Herr Engler, das kommende Energieeffizienzgesetz wird weiter heftig diskutiert. Wie sehen Sie das Gesetz und welche Auswirkungen wird es auf die Branche haben?

Matthias Engler: Grundsätzlich finde ich es gut, dass der Gesetzgeber etwas dafür tut, damit auch Rechenzentren energieeffizient arbeiten. Das ist nicht nur gut für das Klima, sondern sorgt bei den Betreibern für Kosteneinsparungen. Die Frage stellt sich nur, wie kann man ein Rechenzentrum energieeffizienter gestalten? Das wurde mit in der Gesetzesvorlage nicht ganzheitlich genug betrachtet. Zudem bleiben zu viele Anforderungen beim Rechenzentrumsbetreiber hängen, die dieser teilweise gar nicht umsetzen kann beziehungsweise auf die er nur bedingt Einfluss hat. Auch technisch lassen sich einige Anforderungen gar nicht realisieren.

 

Welche Aspekte wurden Ihrer Meinung nach nicht ganzheitlich betrachtet oder lassen sich technisch schwer umsetzen?

Matthias Engler: Wir müssen das System gesamtheitlich betrachten. Wir brauchen Rechenzentren, um IT-Systeme sicher und entsprechend verfügbar zu betreiben. Diese werden wiederum benötigt, um unsere Anwendungen und die Datenverarbeitung/-speicherung zu ermöglichen. Der Bedarf an Anwendungen und Speicher ist in den vergangenen Jahrzehnten stark angewachsen und wird immer weiter anwachsen. Ganzheitlich betrachtet ist dies die Ursache für den RZ-Boom. Ein einfaches alltägliches Beispiel: Wir machen Fotos mit unserem Smartphone – teilweise gleich mehrere Aufnahmen von einer Situation oder einem Objekt – und speichern diese automatisiert in der Cloud – ohne über die Notwendigkeit oder redundante Fotos nachzudenken. Das gilt auch für den Berufsalltag – verschiedene Versionen von Dokumenten – nicht mehr benötigte Dokumente etc.. Hier sammeln sich über die Dauer große Mengen an eigentlich obsoleten Daten an, deren Löschung eine signifikante Entlastung von Anlagen mit sich bringen würde. Denn durch Datensparsamkeit kann spürbar Energie eingespart werden. Je mehr Daten gespeichert werden, umso mehr Energie wird dafür benötigt.

IT-seitig betrachtet das EnEfG lediglich die Hardwareseite – und da auch nur die Prozessoren, keine Speicherauslastung. Eine wesentliche Rolle spielt aber die Softwareeffizienz – d.h. wie gut oder schlecht geht eine Anwendung mit der Hardware um, um ein gewünschtes Resultat zu erreichen. Erzielte man hier Verbesserungen würde sich über den Hebeleffekt (bessere Software – geringere Hardwareanforderungen – weniger IT-Systeme – geringe Kühlung/Stromversorgungsverluste im Rechenzentrum) ein viel größerer Effekt für die Umwelt einstellen.

Allerdings sind beide Aspekte regulatorisch nicht ganz einfach mit einem Gesetzt zu erfassen.

 

Was fehlt Ihnen noch im neuen Gesetz?

Matthias Engler: Meiner Meinung nach verpasst das Gesetz die Chance, die technische Weiterentwicklung zu fördern und zu forcieren. Das fängt bei den Standards für die IT-Systeme an und hört bei der Kühlung sowie Abwärmenutzung auf. Zwei Beispiele: Gleichstromtechnik im Rechenzentrumsumfeld oder direkte Chipkühlung mit Heißwasser; beides gibt es schon lange, aber eher als Nischenlösung oder im Spezialumfeld. Gäbe es IT-Standardkomponenten unterschiedlichster Hersteller mit diesen Technologien, könnten Kunden ihre Rechenzentren darauf ausrichten. Die Energieeffizienz und die Möglichkeiten zur Nutzung der Abwärme würden damit erheblich gesteigert.

 

Das Thema Abwärmenutzung wird in der Branche stark diskutiert. Wie sehen Sie diesen Aspekt?

Matthias Engler: Uns von Akquinet ist es bei den jeweiligen Projekten immer wichtig, die Abwärme zielgerichtet zu nutzen. So planen wir, dass das Rechenzentrum selbst – etwa in Nebenräumen oder im Empfangsbereich – die Abwärme zum Heizen nutzt. Zudem ist es uns auch wichtig, dass wir die Abwärme in ein Wärmenetz einspeisen können oder angrenzenden Gebäuden zur Verfügung stellen. Das Energieeffizienzgesetz wird vorschreiben, dass der Betreiber verpflichtet ist, die Abwärme zielgerichtet wiederzuverwenden. Allerdings, was passiert, wenn es keinen Abnehmer gibt? So ist es heute schon so, dass manche Energieversorger gar nicht bereit sind, zusätzliche Abwärme aufzunehmen. Das Temperaturniveau der RZ-Abwärme ist auch meist so gering, dass die Abwärme aufwändig nachbehandelt werden muss, um sie in bestehende Netze einzuspeisen. Darüber hinaus besteht vielerorts gar kein Fernwärmenetz, in das die Abwärme eingeleitet werden kann. Auch stehen im Umfeld von Rechenzentren selten Wohngebäude oder andere Gebäude, welche die Abwärme sinnvoll nutzen können. Denn nach BSI-Grundsätzen sollte so eine kritische Infrastruktur wie ein Rechenzentrum in einem Gebiet mit möglichst wenig externen Risiken – also wenig Nutzung durch Dritte – errichtet werden. Zudem stellt sich eine rein logische Frage: Was passiert im Sommer mit der Abwärme, wenn gar nicht geheizt wird? Darauf gibt die Gesetzesvorlage keine Antwort.

Es ist zu erwarten, dass viele RZ-Betreiber auf Grund der negativen Rückmeldungen der örtlichen Wärmeversorger von den Ausnahmeregelungen zur Verpflichtung der Abwärmenutzung Gebrauch machen müssen und ihre Abwärme am Ende doch über Rückkühler ungenutzt an die Luft abgeben. Was bleibt, ist dann nur ein erhöhter bürokratischer Aufwand für beide Seiten und kein Mehrgewinn für das Klima.

 

Das Gesetz schreibt nun dem Rechenzentrumbetreiber auch vor, auf welchem Temperaturniveau sein Whitespace betrieben werden soll. Wie sehen Sie diese Forderung?

Hier zeigt sich einmal mehr, dass das Gesetz das Thema nicht ganzheitlich betrachtet und auch ein Stück weit realitätsfremd ist. Sicherlich verringert sich die Stromaufnahme der Kälteanlagen eines Rechenzentrums bei einer höheren Lufteintrittstemperatur. Allerdings sind IT-Systeme oftmals mit temperaturgesteuerten Lüftern ausgestattet, die dann ihrerseits versuchen die höhere Lufteintrittstemperatur mit einer erhöhten Luftmenge – also einer erhöhten Lüfterdrehzahl – zu kompensieren. Die Leistungsaufnahme auf der IT-Seite steigt dann unter Umständen sogar stärker als die Einsparungen auf der Kälteseite – absurderweise führt das sogar zu einem besseren PUE.

Es wurde bereits in Versuchen vor knapp 15 Jahren nachgewiesen, dass es für jedes RZ (je nach installierter Hardware und auch aktueller Nutzung) einen optimalen Betriebspunkt gibt, der in der Regel unter den geforderten 27° C liegt. Diese Forderung führt erst zu sinnvollen Resultaten, wenn auf Seiten der IT-Hersteller die geänderten Anforderungen an die Lufteintrittstemperatur in deren Steuerung umgesetzt werden. Aktuell gilt hier zumeist der amerikanische ASHREA TC 9.9 Standard, wonach 27° C schon die Obergrenze des empfohlenen Bereichs darstellen.

 

Welche Aspekte sind für zukünftige Planungen wichtig?

Matthias Engler: Elementar wichtig für ein energieeffizientes Rechenzentrum ist die bedarfsgerechte Planung. Dazu zählt nicht nur eine fundierte Ermittlung von Anschlussleistung und Whitespacefläche, sondern auch eine bedarfsorientierte Ermittlung der Verfügbarkeitsanforderungen. Wenn beispielsweise nur wenige Systeme Verfügbarkeitsanforderungen gemäß VK4 haben, muss nicht das komplette neue Rechenzentrum in VK4 errichtet werden. Hier könnten in einem Rechenzentrum unterschiedliche Qualitäten der Schlüssel sein. Denn höhere Verfügbarkeit heißt mehr Redundanzen, bedeutet mehr Verlustleistung und geringere Effizienz. Deshalb sollte man die Rechenzentrumsplanung von Experten durchführen lassen, die beide Welten – IT und Gebäudetechnik – verstehen. Ein »normales Ingenieurbüro«, das nach der noch relativ jungen DIN EN 50600 nun auch Rechenzentren plant, hinterfragt im Zweifel die definierten Rahmenbedingungen nicht und plant/baut unter Umständen gar nicht das, was benötigt wird.

Zudem hilft ein durchdachtes Monitoring dafür, dass man Energie einsparen kann. Denn was ich nicht kenne, kann ich nicht beurteilen. Mit verlässlichen Daten aus dem Monitoring lassen sich die besten Schlüsse für mehr Energieeffizienz im Rechenzentrum ziehen. Denn dann kann man an den richtigen Schrauben drehen, um an den passenden Stellen Energie einzusparen.

Darüber hinaus sollten wir uns alle – im Privaten wie im Dienstlichen – vor Augen führen, welche Anwendungen wir nutzen und welche Daten verarbeitet werden sollen. Die Digitalisierung schreitet im Eiltempo voran. Aber sind wirklich alle Anwendungen und Daten sinnvoll und wichtig? Die Uni Cambridge hat zum Beispiel in einer interessanten Studie herausgefunden, dass allein durch das Bitcoin-Cryptomining im Jahr 2021 über 56 Megatonnen an CO₂ emittiert wurden. Ist das ökologisch vertretbar? Vielleicht hilft auch ein generelles Umdenken, um Klimaziele auf der Erde zu erreichen.

 

Es gibt ja auch Zertifizierungen, mit denen man die Nachhaltigkeit des Rechenzentrums dokumentieren kann. Ein Rechenzentrum ihres Unternehmens wurde beispielsweise als Erstes mit dem Zertifikat »Sustainable Data Center« von TÜV Rheinland ausgezeichnet. Wie wichtig finden Sie solche Möglichkeiten?

Matthias Engler: Das ist sicherlich eine gute Möglichkeit. Gerade das Zertifikat »Sustainable Data Center« des TÜV Rheinland mit seinen Energieeffizienzklassen, ähnlich wie man es von Kühlschränken oder Waschmaschinen kennt, ist eine sehr gute Sache. Denn wenn man beispielsweise ein »B« erreicht, weiß man, was man zu tun hat, um sich im kommenden Jahr auf ein »A« zu verbessern. Man bekommt einen ausführlichen Bericht und kann bestens darauf reagieren. Auch sorgt es für eine gute Vergleichbarkeit im Markt.

Beim Zertifikat »Blauer Engel« gibt es diese Energieeffizienzklassen nicht. Dort gibt es »bestanden« und »nicht bestanden«. In Verbindung mit der Forderung zum Verzicht auf halogenfreie Kältemittel – was ökologisch nachvollziehbar ist – ist diese Zertifizierung für größere RZ (über 400 kW IT-Leistung) aktuell nur sehr schwer bis gar nicht zu erreichen, da es in diesen Leistungsklassen aktuell keine RZ-erprobten Standard-Kälteanlagen mit halogenfreien Kältemitteln gibt, deren Betrieb für ein Rechenzentrum wirtschaftlich vertretbar und ohne Zusatzrisiken für den Betrieb ist.

 

Vielen Dank Herr Engler für das Gespräch.

 

Die ambitionierten Vorschriften des Energieeffizienzgesetzes stellen Betreiber von Rechenzentren vor große Herausforderungen. Das gilt für Rechenzentren im Bestand wie für Neubauten. Diese strengen Regularien zum Stromverbrauch oder der Abwärmenutzung lassen sich allerdings mit einem Partner an der Seite erfüllen, der ganzheitlich alle Komponenten des Rechenzentrums nachhaltig prüft und bei einer energetischen Sanierung oder bei der Planung eines Neubaus die richtigen Weichen stellt, um die Gesetzesanforderungen umsetzen zu können. Solche nachhaltigen Lösungen, wie sie auch Holger Nickel fordert, bietet das Kölner Unternehmen High Knowledge mit den innovativen und patentierten Blue DC Lösungen an. Damit sind sogar bis zu 80 Prozent Energieeinsparungen möglich und es werden zusätzlich Wege einer zielführenden Nutzung der Abwärme aufgezeigt. Weitere Informationen gibt es unter www.hknow.de.