High-Density-Computing – Effizienter rechnen

Sky bietet seit 2012 einen Teil seines Programms im »Over-The-Top« (OTT)-Streaming, also über das Internet auf allen mobilen Abspielgeräten an. Eine große Herausforderung für die Infrastruktur. Denn die Riesenmenge an qualitativ hochwertigen Videoinhalten gilt es zu speichern, zu komprimieren, zu streamen und bereitzustellen. Erfolg versprach High-Density-Computing.

High-Density-Computing gilt als zukunftsorientierte Technologie. Damit ist die Maximierung der Dichte pro Rack im Rechenzentrum bis 20 kW und höher möglich, was der drei- bis fünffachen Kapazität herkömmlicher Racks entspricht. Da Sky plante, OTT sukzessive weiter auszubauen, bestand dringender Handlungsbedarf. Denn das Verbreiten von Videoinhalten per Streaming geht nicht nur mit Millionen neuer Nutzer einher, sondern auch mit erheblichen Anforderungen an Storage und Skalierung.

Daher beschloss der Pay-TV-Anbieter, auf das im NTT-Rechenzentrum der Tochtergesellschaft Gyron in Slough genutzte High-Density-Computing zu setzen. »Im Augenblick sind 7-10 kW für uns realistisch. Die Standarddichte liegt üblicherweise bei 3-5 kW, was für uns vor drei Jahren noch ausreichend gewesen wäre«, sagt Riccardo Degli Effetti, Head of Data Center Operations bei Sky. »Unsere Anforderungen an die IT machten definitiv eine höhere Dichte erforderlich. Vor drei Jahren kam bei Servern und Storage noch eine andere Technologie zum Einsatz. Technische Innovationen und verändertes Verhalten der Endkunden, wie ein größeres Interesse an IP-basierten Diensten, sind jedoch Faktoren, die man im Auge haben muss.«

Dieser stetige Wandel wirkt sich auch auf den Energieverbrauch und die Rechenkapazität aus. Es geht darum, die Betriebskosten zu minimieren und die Anlagen bestmöglich zu nutzen. Sky hätte intern neue Kapazität aufbauen müssen, um den wachsenden Bedarf zu decken, was höhere Kosten verursacht hätte. Außerdem ist neue Kapazität nicht immer genau in der benötigten Menge verfügbar. Racks wären leer gestanden, bis der Bedarf entsprechend gestiegen wäre.

Flexibel in die Zukunft. »Immer mehr Equipment benötigt immer weniger Strom«, führt Degli Effetti fort. »Aber aus Installationssicht sollte man immer damit rechnen, dass Server- und Storage-Systeme auch mal den Maximalverbrauch erreichen. Spitzenleistung kann große Unterschiede machen.« Denn der Bedarf lässt sich nur schwer vorhersagen. Höhere Dichte kann dagegen zu einer inkrementellen und daher kosteneffizienten Skalierung beitragen. Und zusätzliche Kapazität lässt sich durch mehr Dichte erreichen. »So machen wir uns fit für die Zukunft und für zusätzliche Nachfrage nach Diensten«, so Degli Effetti.

Noch hat Sky die Kapazität nicht ausgeschöpft. »Die Rechenzentrumsleistung hat unsere Erwartungen definitiv übertroffen«, resümiert Degli Effetti. »Der PUE-Wert lag stets deutlich niedriger als erwartet.« Auch war Sky in der Lage, entsprechend auf signifikante Abweichungen bei den Anforderungen an die Streaming-Kapazität der Dienste zu reagieren.

Der Stromverbrauch kann in Spitzenzeiten hohe Werte erreichen und 6, 7 oder 8 kW pro Rack ausmachen. Dank OTT lassen sich Spitzenlasten jedoch prognostizieren. Aber das Equipment muss so dimensioniert sein, dass es die Spitzenlasten abfangen kann. »Insgesamt wurde das Projekt gut gemanagt beziehungsweise umgesetzt und wir haben viel dabei gelernt. Wir haben den Zeit- und Kostenplan eingehalten. Und mehr noch: In den nunmehr rund drei Jahren hatten wir keinen einzigen Ausfall«, so Degli Effetti abschließend.

»Umgebungen werden allmählich dichter«, ergänzt Robin Balen, Managing Director von Gyron. »Dabei handelt es sich nicht nur um eine Modeerscheinung. Es geht um Flexibilität und um die Anzahl der Server, die in ein Rack passen. Das macht einen enormen Unterschied. NTT Com erhält Anfragen auf der Basis von 8 beziehungsweise 10 kW pro Rack.«

Das Gyron Hemel Hempstead 3 Rechenzentrum bietet eine Kapazität von 30 MW. Und einen neuen Ansatz in Sachen Kühlung, einem kritischen Faktor für High-Density-Racks. »Dabei verfolgen wir ein ziemlich einzigartiges Konzept«, erklärt Thomas Stoßberg, Sales Director Cloud Services, NTT Europe Ltd., Germany. »Den Kunden wird mehr und mehr bewusst, dass der traditionellere Warm-Kaltgang-Ansatz deutlich weniger effizient ist.« Ein geringerer Kühlbedarf im Rechenzentrum bedeutet einen höheren Grad an Energieeffizienz. In konventionellen Rechenzentren muss die Temperatur typischerweise wesentlich niedriger liegen, da sich die vom IT-Equipment erwärmte Luft mit der kühlen eingeblasenen Luft vermischt. In diesem Fall bedarf es wesentlich mehr mechanischer Kühlaggregate, was die Kosten und den PUE-Wert sowie nicht zuletzt das Ausfallrisiko in die Höhe treibt.

Wann eignet sich High-Density? Die Methodik empfiehlt sich insbesondere, wenn nicht genügend RZ- beziehungsweise Rackfläche zur Verfügung steht. Vor allem an überlasteten Drehkreuzen tun sich Betreiber schwer, passende Örtlichkeiten für neue Rechenzentren zu finden. Einen guten Standort machen unter anderem zuverlässige Transportverbindungen, einfach erhältliche Baugenehmigungen, Konnektivität und Energiekosten aus. Solche Orte sind selten. Lässt sich also zusätzlicher Strom in einem Rechenzentrum bereitstellen, ist High-Density-Computing ein tragfähiger Ansatz.

Da High-Density-Server mehr Hitze produzieren, reicht es jedoch nicht, die High-Density-Racks mit zusätzlicher Energie zu versorgen. Zu berücksichtigen sind vielmehr auch die komplexer werdenden Kühlanforderungen. Die Praxis zeigt allerdings, dass die Technologie zwar den Stromverbrauch pro Rack erhöht, den gesamten Energiebedarf für die Rechenlast eines Endanwenders dagegen erheblich senken kann.

Darüber hinaus vereinfacht High-Density-Computing die Handhabung im Rechenzentrum. Es macht weniger IT-Equipment pro Rack erforderlich und senkt so die Komplexität. Parallel dazu steigt die Zuverlässigkeit. All diese Vorteile wirken sich durch eine höhere Leistungsaufnahme pro Rack in kW aus.

Insgesamt steigt der Druck, Infrastruktur effizienter zu nutzen. High-Density-Computing unterstützt diesen Ansatz.

 

HDC-Umsetzung auf drei Arten:

  • Einsatz neuer Servermodelle mit verbesserter Prozessor- und damit Rechenleistung.
  • Nutzung sogenannter Blade-Server, die sich sukzessive einschieben lassen.
  • Verwendung von High-Density-Pods, sprich einer oder mehrerer Rackreihen, die eine Dichte pro Rack von durchschnittlich 6 kW oder mehr gewährleisten.

 


Sabina Merk

 

Illustration: © Artfury /shutterstock.com 

 

Hier folgt eine Auswahl an Fachbeiträgen, Studien, Stories und Statistiken die zu diesem Thema passen. Geben Sie in der »Artikelsuche…« rechts oben Ihre Suchbegriffe ein und lassen sich überraschen, welche weiteren Treffer Sie auf unserer Webseite finden.

 

Das sind die Top 10 der IoT-Technologien für 2017 und 2018

Der deutsche Markt für Self Service Public IaaS

Studie belegt: Performancedaten im RZ bleiben unausgewertet

IT-Infrastruktur aus der Cloud – Datacenter step-by-step in die Cloud

Wenn die Cloud aus dem Container kommt

Deep Learning und Supercomputing für selbstfahrende Automobile

Einfacher Zugriff auf High Performance Computing

High-Performance NAS – Big Data? Keine große Sache!

Hochleistungsserver optimal und energieeffizient kühlen – Spitzenleistung auf kleinstem Raum

Der Mainframe ist auch im Zeitalter des digitalen Wandels unverzichtbar

Weitere Artikel zu