Software Defined Data Center im Service-Rechenzentrum – Mit dem SDDC in die Cloud

Software Defined Data Center im Service-Rechenzentrum – Mit dem SDDC  in die Cloud

Die Servervirtualisierung im Service-Rechenzentrum hat den Providern mehr Flexibilität und eine bessere Auslastung der Ressourcen ermöglicht. Mit dem Software Defined Data Center wird dieser Ansatz weitergedacht und um Storage- und Netzwerkvirtualisierung erweitert. Auf dieser Basis kann die Bereitstellung definierter Services innerhalb von Rechenzentren weitestgehend automatisiert werden. Provider können auf diese Weise individuelle Cloud-Leistungen in kürzester Zeit einheitlich bereitstellen.

Ein Service-Rechenzentrum war bis vor wenigen Jahren eine Ansammlung von Hardware- und Softwarekomponenten, die für die konkreten Anforderungen eines Auftrag-gebers konfiguriert, vernetzt und bereitgestellt wurden. Mit wachsenden Anwendungen und komplexen IT-Strukturen der Unternehmen wurde dieser Ansatz zu unflexibel. Der jeweilige Einrichtungs- und Installationsaufwand wurde ohne Automatisierungen und zentrale Steuerung sehr hoch. Besonders der steigende Bedarf der Unternehmen nach flexiblem Wachstum und Skalierung ließ sich auf diese Weise nicht decken; es war zeitaufwendig und teuer, zusätzliche Komponenten zu integrieren. Mit diesem Konzept ließen sich die steigenden -Anforderungen der Anwender nach »Kapazität on demand« nicht mehr erfüllen.

Für die Anbieter von Rechenzentrumsleistungen war aus denselben Gründen die Servervirtualisierung interessant: herkömmliche und hardwarelastige Ansätze ließen sich in flexiblere und virtuelle Lösungsmodelle umwandeln. Das Ziel der Servervirtualisierung besteht darin, die vorhandenen Compute- und RAM-Ressourcen bestmöglich auszulasten und bedarfsweise kundenübergreifend nutzen zu können. Die unterschiedlichen Work-loads von mehreren Rechenzentrumsinfrastrukturen können beispielsweise durch das Verschieben logischer Server so verteilt werden, dass alle Komponenten optimal ausgelastet sind. Das Management der virtualisierten Umgebungen erlaubt zusätzlich Ausfallsicherheit, Performance, Sicherheit und Stabilität bei deutlich niedrigeren Betriebskosten besser umzusetzen als bei Plattformen ohne Virtualisierungsanteil.

Das SDDC – Virtualisierung weiterdenken. Software Defined Data Center (SDDC) nehmen die Idee der Servervirtualisierung auf und denken konsequent weiter: War die Virtualisierung bisher auf die Servervirtualisierung beschränkt, werden nun alle Komponenten eines Rechenzentrums unter dieses Konzept gestellt: Es werden also auch Storage- und Netzwerksysteme virtualisiert und gemeinsam mit der Servervirtualisierung gesteuert. Um individuelle Cloud Services einheitlich definieren und betreiben zu können, bedarf es also der ganzheitlichen Betrachtung der dafür benötigten Compute-, RAM-, Storage- und Network-Ressourcen.

Mit dem SDDC-Ansatz haben sich Service Provider im Cloud Computing neue Geschäftsgebiete erschlossen. Anbieter wie Amazon, Google oder Microsoft haben vor einigen Jahren damit begonnen, ihre Ressourcen auf -Basis von Virtualisierungstechnologien anderen Nutzern gegen Entgelt zur Verfügung zu stellen. Bei diesen Anbietern können Unternehmen heute schnell und ohne großen Aufwand Rechenkapazitäten oder benötigten Speicherplatz buchen. Klassisches (Public) Cloud Computing war so im Grunde immer auch schon ein SDDC: Es können auf der jeweiligen Plattform virtuelle Maschinen mit unterschiedlicher Ausstattung oder mit einer definierten Softwarekonfiguration inklusive der Netzanbindung aufsetzt werden. Anwender können das Ganze im Self-Service-Verfahren zu vergleichsweise geringen Kosten buchen, alles funktioniert schnell und automatisch.

Wenn dieses Konzept, trotz großen medialen Zuspruchs, von den Unternehmen bis heute dennoch nur zögerlich angenommen wird, so weil es sich dabei um ein meist stark standardisiertes Angebot handelt. Flexibel ist das Konzept nur in einem engen Korridor, im Übrigen ist die Konstellation vorwiegend statisch: Der Nutzer kann beispielsweise die Zahl der Server, den benötigen Speicherplatz und die Software-Umgebung wählen, eine an seine individuellen Anforderungen angepasste Dienstumgebung muss er sich selbst einrichten. Wer innerhalb dieser Cloud Services Zugriff auf die gespeicherten Daten erhält, ist in vielen Fällen für den Nutzer nicht transparent. Die Spionage-Affäre des letzten Jahres hat die grundlegenden Grenzen dieses Ansatz noch einmal deutlich gemacht: Als Nutzer des Services kann man hier nicht festlegen, wo sich die Daten aufhalten dürfen oder welche Rechtsprechung den Zugriff Dritter auf die gespeicherten Daten regelt. Ein weiterer wichtiger Punkt sind die Service Level Agreements (SLA), die die Güte und Verfügbarkeit dieser Cloud Services -regeln. Manche SLAs erfordern es, Systeme und Daten geographisch -getrennt, in sogenannten Verfügbarkeitszonen redundant vorhalten zu müssen.

Die Anwender befinden sich also in einem Dilemma: Sie können schnell und einfach ein Angebot wählen, dessen Standards sie sich unterwerfen müssen, oder sie können die maßgeschneiderte Lösung eines Service Providers wählen, die, wie jede Maßanfertigung, nicht nur ihren Preis hat, sondern auch nicht gleich fertig zum Mitnehmen parat liegt – Kaufhaus versus Savile Row.

Die Logik des Software-Layer steuert die APIs sowie die automatisierten Management-Funktionen.

Die Logik des Software-Layer steuert die APIs sowie die automatisierten Management-Funktionen.

SDDC nach Maß. Mit dem SDDC-Konzept können Service Provider nun ihre Angebote aber so gestalten, dass sie beide Seiten erfüllen. Da ein SDDC keine statische Infrastruktur ist, kann ein Software-Layer geschaffen werden, der die individuellen Anforderungen Schritt für Schritt in eine technische Konfiguration umsetzt. – Alle Server-, Storage- und Netzwerk-ressourcen werden auf dieser Ebene durch ein entsprechendes automatisiertes Management so konfiguriert, dass am Ende ein »individueller« Service bereitgestellt wird; beim Provider Nexinto heißt diese Engine beispielsweise Electronic Workflow System (EWS). Zusätzliche Tools können sich aus einer Systemdatenbank Informationen über benötigte Parameter selbst beschaffen.

Der gesamte Prozess der Konfiguration einer Infrastruktur sieht dann etwa folgendermaßen aus:

  • Am Anfang steht – wie bisher – ein Gespräch mit dem Consulting des Providers zur Aufnahme der Anforderungen; hier werden Aufgaben für Technik, Software, Monitoring, Abrechnung oder Lifecycle Management festgelegt, also alles was für den Betrieb einer Lösung nötig ist und was dann auch in die SLA und die Kostenkalkulation eingeht.
  • Im System des Providers gibt es einen logischen Layer, der von der Technik abstrahiert und der die Informationen über die benötigten CPU-Kerne, das Storage-Volumen oder die Netzwerkadressen aufnimmt und über APIs an die darunterliegend Infrastruktur weiterleitet. Mit dem Software-Layer wird im zweiten Schritt bestimmt, welche RAM- und Disk-Kapazitäten benötigt werden.
  • Über eine Automatisierungs- und Orchestrierungs-Engine werden dann in einer virtualisierten Umgebung Server-, Storage- und Netzwerksysteme konfiguriert. Weitere APIs stellen das abgestimmte Betriebssystem bereit oder übernehmen die Installation von Applikationen und Standarddiensten.
  • Hierzu werden die Anforderungen des Kunden abgestimmt und in logische Funktionalitäten umgesetzt, die mittels API jederzeit abgerufen werden können. Anstatt für jeden Kunden eine eigene Infrastruktur zu definieren und zu implementieren, werden die Definitionen in den Software-Layer gepackt und sind damit für künftige Fälle wiederverwendbar. Der Software-Layer wächst damit von Projekt zu Projekt.

Im Prozess werden nicht nur die Ressourcen der Infrastruktur bestimmt, sondern auch die sonstigen Funktionen bereitgestellt, die man zum Betrieb benötigt, also Performance-, Kapazitäts- und Availability-Management. Ziel ist ein ganzheitliches Lifecycle Management des einzelnen Services und aller beteiligten Ressourcen, um beispielsweise Engpässe oder Überlastungen rechtzeitig zu erkennen.

Die durch dieses Verfahren erreichte Automatisierung der Konfiguration der Infrastruktur sorgt für hohe Effizienz und niedrige Kosten. Vor allem aber lassen sich die Ressourcen auf diese Weise in sehr kurzer Zeit bereitstellen: Von den Anforderungen eines definierten Services bis zur Bereitstellung in der virtuellen Kundenumgebung dauert es so oft nur Minuten.

Damit können Service Provider individuelle Lösungen erstellen, die hinsichtlich Schnelligkeit mit den gängigen Cloud-Angeboten konkurrieren können. Im Unterscheid dazu bieten sie aber die volle Flexibilität einer individuellen Konfiguration und zwingen den Anwender nicht unter einen vorgegebenen Standard. So lassen sich also beispielsweise kurzfristig Cloud-Lösungen implementieren, die dezidierte Orte für die Verarbeitung und Speicherung von personenbezogenen Daten berücksichtigen. Setzt sich das Verfahren des automatisierten SDDC durch, so könnte das Cloud Computing auch in den Bereichen Fuß fassen, die ihm bisher verschlossen waren.


Diethelm Siebuhr
Diethelm Siebuhr ist CEO der Nexinto Holding in Hamburg

Bild: © ra2studio/shutterstock.com 

Weitere Artikel zu