Software Defined Data Center – Das moderne Rechenzentrum

Software Defined Data Center

Der Begriff Software Defined Data Center (SDDC) hat sich zum Synonym für moderne Rechenzentren (RZ) entwickelt. In der Tat ist ein Wandel zu »Software Defined« bei den meisten Kerntechnologien in den Rechenzentren bereits zu beobachten. Es ist also durchaus ein günstiger Zeitpunkt, sich anzuschauen, worum es sich eigentlich konkret handelt.

Einen wesentlichen Beitrag an der Initialzündung für die aktuellen Entwicklungen im Data-Center-Bereich hat ohne Zweifel die Virtualisierung im x86-Umfeld. Die starre Verbindung von Serverhardware und Serversoftware wurde zunehmend zum Problem und musste aufgelöst werden. Die Funktion (hier »Compute«) wurde von einer bestimmen Hardware getrennt. Dadurch besteht die Möglichkeit, viele tradierte Konzepte – insbesondere in Bezug auf Automation – ganz neu zu denken.

Richten wir unseren Blick auf das gesamte Data Center, so stellen wir sehr schnell fest, dass dort längst nicht alle IT-Bereiche virtualisiert sind. Netzwerk und Security beispielsweise sind aktuell kaum von der ausführenden Hardware abstrahiert – zumindest gilt das für viele Rechenzentren in Deutschland. Wir haben es also mit Medienbrüchen zu tun, wenn versucht wird, eine durchgängige Automatisierung im Rechenzentrum zu etablieren. Der Weg zum modernen, weitgehend von der Software bestimmten Data Center führt also über die Virtualisierung weiterer Bereiche, so dass Automation und Orchestrierung mit Blick auf das gesamte Rechenzentrum und die gesamte IT-Wertschöpfungskette möglich werden – und zwar ohne Medienbrüche.

Abbildung 1: Schematische Darstellung der logischen Komponenten in einem Software Defined Data Center.

Abbildung 1: Schematische Darstellung der logischen Komponenten in einem Software Defined Data Center.

Wesentliche Merkmale eines SDDC. Wie lässt sich nun das Software Defined Data Center definieren? Aus heutiger Sicht sprechen wir davon, dass eben nicht nur »Compute« als Ressource virtualisiert wird, sondern auch weitere Bereiche, wie Netzwerk und Storage sowie einige Dienste im Rechenzentrum, etwa Security- oder Availability-Services, die durch Software bereitgestellt und gemanaged werden.

Was aber ist mit der Hardware? Für spezialisierte Hardware wird es künftig wohl geringeren Bedarf geben. Dafür werden einheitliche Hardwaresysteme von der Stange und kostengünstige, aber weitgehend intelligenzlose »Commodity Hardware« die Hauptrolle spielen. Die Verheißung dabei ist, die Vorzüge der großen Public-Cloud-Rechenzentren in den Unternehmen auf eine angemessene und glaubwürdige Weise umzusetzen und so unter anderem von der Skalierbarkeit und Wirtschaftlichkeit zu profitieren.

Abbildung 1 verdeutlicht schematisch die logischen Komponenten in einem Software Defined Data Center.

Wichtig ist, dass das SDDC-Konzept nicht nur das eigene, selbst betriebene RZ berücksichtigt, sondern auch eine Alternative für die Leistungserbringung enthält. Mit Hilfe von Technologien, die in Abbildung 2 verallgemeinernd »Bridge« genannt werden, kann ein Teil der IT-Leistung in einem »Off-Premise«-Rechenzentrum erbracht werden. Wir haben es hier also mit der häufig geforderten Flexibilisierung der Eigenleistungstiefe zu tun.

Wie bereits erwähnt, sind die meisten Kerntechnologien in den Rechenzentren bereits auf dem Weg zu »Software Defined«. Besonders hervorzuheben sind aus heutiger Sicht »Software Defined Storage«, »Hyper Converged Systems« und nicht zuletzt »Software Defined Networks«.

Software Defined Storage – gewissermaßen eine konsequente Weiterentwicklung der Storage-Virtualisierung – ist bereits auf dem Vormarsch und geht über die bisherigen Ansätze weit hinaus. Hier liegt der Schwerpunkt auf der Loslösung der Control-Software von der Storage-Hardware und insbesondere auf der Automatisierung des gesamten Prozesses der Storage-Bereitstellung. In den Konzepten wird – ähnlich wie im Netzwerkumfeld – eine Trennung der Control- und Data-Plane angestrebt. Die von der Hardware unabhängige Control-Plane ist somit in Lage, die Anforderungen an eine bestimmte Menge, Art und Güte an Storage aufzunehmen und den gesamten Bereitstellungsprozess zu automatisieren.

Im Bereich Hyper Converged Systems hat man sich von den Erfahrungen in großen Web Scale Data Center inspirieren lassen und sogenannte »Data Center Building Blocks« aufgebaut, die auf Standard-x86er-Hardware basieren. Die Building Blocks beinhalten neben den notwendigen Ressourcen wie Compute, Storage etc. auch eine Cluster-Logik, ein spezielles, verteiltes Dateisystem und ausgereifte Optimierungs- beziehungsweise Beschleunigungsfunktionen (De-Dup, Compression etc.). Diese reduzieren den benötigten Speicherplatz im Storage und sorgen für einen performanten Betrieb in Standort-übergreifenden Clustern. Da hier die lokalen Festplatten (DAS) zu einem Shared Storage aggregiert werden, können die Daten, die von einem Knoten verarbeitet werden, immer lokal im System vorgehalten werden. Dadurch lassen sich bessere Zugriffszeiten als im SAN erreichen.

Abbildung 2: Mit Hilfe von »Bridge«-Technologien kann ein Teil der IT-Leistung in einem »Off-Premise«-Rechenzentrum erbracht werden.

Abbildung 2: Mit Hilfe von »Bridge«-Technologien kann ein Teil der IT-Leistung in einem »Off-Premise«-Rechenzentrum erbracht werden.

Auch im Netzwerkumfeld zeichnet sich schon länger ein Umbruch ab – künftig soll hier ebenfalls alles »Software Defined« sein. Eine Spielart davon ist Network Function Virtualization. Der wesentliche Vorteil dieser Technologie liegt in der Integration der Virtuellen Appliances über Softwareschnittstellen (APIs) in die Steuerungsebene im SDDC. So können beispielsweise Service Provider für einen neuen Kunden alle notwendigen Dienste aktivieren, ohne jedes Mal physische Systeme in die Schränke zu montieren.

Im Bereich Software Defined Networks (SDN) scheint es heute gewissermaßen zwei Entwicklungsstränge zu geben. Auf der einen Seite gibt es das »Switch-basierte SDN-Modell«. Dabei handelt es sich um eine Architektur aus hoch automatisierbarer Netzwerkhardware und entsprechenden Controllern. In dieser Domäne bewegen sich die etablierten Hersteller von Netzwerkhardware. Allerdings ist man sich noch nicht darüber einig, wie die Intelligenz in dem Konstrukt verteilt werden soll. Auf der anderen Seite haben wir das »Overlay-basierte SDN-Modell«, in dem Overlay-Netzwerke mit Hilfe
von Tunneling-Protokollen (NVGRE, VXLAN etc.) etabliert werden. Diese programmierbaren, logischen Netzwerke auf Layer 2 bis 4 sind ausgestattet mit APIs für Lösungen von Drittherstellern und Gateways für den Übergang zu physischen Systemen. Die benötigten virtuellen Netzwerke lassen sich mit allen Policies und Konfigurationen bei Bedarf neu oder aus Vorlagen sehr schnell erstellen und wieder löschen. Interessant an dieser Entwicklung ist, dass sich der Overlay-Ansatz durchaus zum Türöffner für SDN in den Unternehmen entwickeln könnte. Die Einstiegshürde ist hier geringer, da es möglich ist, ein Overlay-SDN auf vorhandener IP-Hardware zu betreiben.

Der Weg zum SDDC. Wichtige Komponenten für SDDC-Architekturen sind bereits verfügbar, so dass unsere Kunden schon heute einen ganz konkreten Nutzen daraus ziehen und ihre Rechenzentren schrittweise modernisieren können. Der Wandel hin zu einem vollständig Software-gesteuerten Data Center ist ein organischer Prozess und wird sicherlich längere Zeit in Anspruch nehmen. Da die Zusammenhänge und Wechselwirkungen in diesem Umfeld technisch und wirtschaftlich gesehen äußerst komplex sind, sind Unternehmen daher gut beraten, die Weichen frühzeitig richtig zu stellen. Es ist empfehlenswert, allen Modernisierungsinitiativen eine fundierte Ist- und Bedarfsanalyse voranzustellen. Auf dem Weg zum Software Defined Data Center kann es durchaus technologische und wirtschaftliche Sackgassen geben. Daher ist eine umfassende Beratung über die Grenzen der einzelnen IT-Disziplinen hinweg – ohne Scheuklappen und Betriebsblindheit – unerlässlich.


autor_adam_hufnagelAdam Hufnagel
Solution Manager
Application Delivery
Controlware GmbH
www.controlware.de

 

Bild: © Mmaxer/shutterstock.com 

Weitere Artikel zu