Nächster Halt: Software Defined Data Center? – Das Abenteuer Virtualisierung geht weiter

Das Abenteuer Virtualisierung geht weiter

Software Defined Data Center (SDDC) ist zurzeit in aller Munde. Der Begriff Software Defined Data Center ist zwar griffig, aber auch vielsagend. Was verbirgt sich tatsächlich dahinter, wo kommt die Entwicklung her und wo geht sie hin? Was kann heute schon nützlich sein und für wen? Wenn es um derartige Fragen geht, hilft es, hinter die Kulissen zu schauen, um die wesentlichen Entwicklungsstränge, Abhängigkeiten und Wechselwirkungen nachvoll-ziehen zu können.

Die Virtualisierung der x86-Server hat zu beträchtlichen Kosteneinsparungen geführt. Die Effizienz der Systeme wurde deutlich erhöht und die Trennung der Funktion (Compute) beziehungsweise der Dienste von der Hardware hat zu einer immensen Flexibilisierung geführt. Nun lassen sich die Ressourcen, die von einer Vielzahl isolierter Hardwaresysteme zur Verfügung gestellt werden, in sogenannten Ressourcen-Pools (CPU, RAM, I/O) zusammenfassen. Aus diesen Pools heraus werden die Anwendungen (VMs) bei Bedarf mit der zum jeweiligen Zeitpunkt notwendigen Menge an Compute-Ressourcen bedient. Ändert sich der Bedarf, kann die Ressourcen-Zuteilung oft im laufenden Betrieb angepasst werden.

Neue Anwendungen – inzwischen nicht selten aus mehreren zusammenhängenden VMs bestehend – können auf Basis von Vorlagen mit wenigen Klicks oder automatisiert erstellt und auch wieder verworfen werden. Obwohl die Automation bereits vor dem Zeitalter der x86-Virtualisierung in Rechenzentren unterschiedlicher Größe kein Fremdwort war, ermöglichte die vollständige Abstrahierung der Dienste von der Hardware ganz neue technische Verfahren (zum Beispiel das Verschieben laufender VMs auf andere Hardware) und eine bis dahin nicht gekannte Agilität in der IT-Produktion. Virtualisierung ist die Grundlage für die fortschreitende Automation der IT-Prozesse und damit die Basis für die langfristige Wettbewerbsfähigkeit der Unternehmens-IT in einem Umfeld, das von immer attraktiveren Outsourcing- beziehungsweise Outtasking-Angeboten gekennzeichnet ist.

Notwendige Bedingungen und der Status Quo. Damit Automation mit Blick auf die gesamte Prozesskette in der IT-Produktion effizient und ohne Brüche erfolgen kann, müssen weitere IT-Ressourcen und -Dienste im Data Center virtualisiert, das heißt von der bereitstellenden Hardware abstrahiert werden. Die Virtualisierung ist im -Storage-Umfeld seit Jahren gängige Praxis. Doch was früher als eine Techno-logie mit vergleichsweise hohen Einstiegs- und Betriebskosten eher den größeren IT-Organisationen vorbehalten war, kann heute auch in Rechenzentren kleinerer Unternehmen wirtschaftlich betrieben werden. In umfassenden Konzepten spricht man hier von »Software Defined Storage«. Eine Ausprägung stellt ein auf der -VM-Ebene implementierter Storage-Hypervisor dar, der neben hoher -Flexibilität für zunehmende Hardware-Unabhängigkeit im Storage-Umfeld, effizientere Nutzung der Storage-Ressourcen sowie für vereinfachte Updates und Migrationen sorgt. Darüber hinaus steigt die Reife von Lösungen, die lokal in den Serversystemen verbaute Festplatten zu Shared Storage Pools zusammenfassen und damit Storage Area Networks (SAN) für bestimmte Einsatzszenarien ablösen könnten. Als Beispiel seien hier die Lösungen von Nutanix, Pivot3, aber auch von VM-ware (vSAN) genannt – diesen Ansatz sehen also nicht »nur« Startups als lohnend an.

Die kontroversen Debatten über die »richtige« Virtualisierung im Netzwerk-umfeld ziehen gegenwärtig viel Aufmerksamkeit auf sich. Bemerkenswert ist, dass diese Debatten inzwischen nicht nur für etablierte Hersteller von Netzwerk-Equipment von Bedeutung sind, sondern auch von der Open -Source Community (Open Networking Foundation/OpenFlow, OpenDaylight) und von Softwaregrößen wie VMware (VMware NSX) oder Microsoft (Microsoft Hyper-V Network Virtualization) maßgeblich bereichert werden. Auch mit Blick auf weitere im Rechenzentrum bereitgestellte Dienste lässt sich also sagen, dass in einem Software Defined Data Center Hardware-übergreifende Ressourcenpools aus virtualisierten Compute-, Storage-, Networking-, Security- & Availability-Services durch Software bereitgestellt (verschiedene Hypervisor und Controller) werden und sich durch Software verwalten (Management, Automation, Orchestrierung) lassen. Die Hardware bleibt unerlässlich, doch wird sie zunehmend standardisiert und von -redundanten oder proprietären Intelligenz-instanzen befreit und dafür auf Performance und Flexibilität getrimmt. Sie ist und bleibt die notwendige Infrastruktur – in etwa so, wie das Straßennetz bei der Reiseplanung als gegeben und leistungsfähig vorausgesetzt wird. Doch die genaue Routenplanung unter Berücksichtigung von Start und Ziel sowie die Wünsche der Reisenden bleiben der zentralen Instanz des Reiseleiters vorbehalten.

Ein weiterer Aspekt muss bei der Bewertung des SDDC-Trends betrachtet werden: In den heutigen -Rechenzentren mit den weitgehend virtualisierten Workloads ist der Status Quo die eigentliche Herausforderung. Kaum wurden die Vorteile der Servervirtualisierung in nennenswertem Umfang realisiert, tauchen neue Plagen auf:

  • Die Komplexität im Data Center ist, nicht zuletzt durch die Virtualisierung, deutlich gestiegen.
  • Das erforderliche Know-how der IT-Mitarbeiter im Unternehmen verlagert sich zunehmend vom Spezialisten zum Generalisten mit einer gehörigen Portion Verhandlungsgeschick und Soft-Skills.
  • Der Appetit der Fachbereiche in den Unternehmen ist mit der Flexibilität und Agilität der IT gestiegen. (Man ist versucht, zu sagen, dass die Anforderungen überproportional gestiegen sind.)

Die SDDC-Verfechter treten also an, um die Rechenzentren weiter zu flexi-bilisieren und effizienter zu gestalten. Das Mittel der Wahl ist die Virtualisierung weiterer Funktionsbereiche im Data Center (zum Beispiel Storage-, Networking-, Secu-rity- & Availability-Services) und darauf aufbauende -Automation bis hin zur Orchestrierung der gesamten IT-Prozesskette.

Zum Teil klingt der SDDC-Ansatz nach einer Zukunftsvision, die voraussichtlich – wenn sie denn irgendwann so umgesetzt sein wird – nur den großen IT-Organisationen Nutzen durch weitergehende Optimierung der IT-Produktion bescheren wird. Versteift man sich darauf, das gesamte Bild möglichst schnell und in vollem Umfang umzusetzen, mag die Einschätzung sogar stimmen. Doch die Erfahrungen, die IT-Verantwortliche in der Praxis beispielsweise mit dem Aufkommen der Servervirtualisierung sammeln konnten, zeigen, dass es sinnvoll ist, sich mit dem Thema SDDC frühzeitig intensiv auseinanderzusetzen. Zum einen sind einige Kerntechnologien des SDDC-Konzepts bereits heute nutzbringend einsetzbar. Zum anderen lassen sich bei Modernisierungen und Neubauten von (Ausweich-)Rechenzentren die Weichenstellungen mit Blick auf ein künftiges SDDC jetzt schon vornehmen. Und nicht zuletzt ist davon auszugehen, dass der Wettbewerbsdruck auf die Unternehmens-IT seitens externer Anbieter weiter steigen wird. Es ist also wichtig, alle Optionen zu bewerten, wo es sinnvoll erscheint, im geeigneten Umfang umzusetzen und den Mehrwert der eigenen IT-Dienstleistung gegenüber externen Angeboten fundiert und selbstbewusst zu kommunizieren. Solche Mehrwerte stellen beispielsweise auf das eigene Unternehmen maßgeschneiderte Angebote unter Berücksichtigung des spezifischen Schutzbedarfs für Daten und Systeme dar.

Software Defined Network. Das Netzwerk ist wohl eine der Domänen im Data Center, die den Wandel in der virtualisierten IT in der gelebten Praxis bisher – zumindest in der breiten Anwenderschaft – am wenigsten mitvollzogen hat. Konzeptionell und in ersten (Pilot-)Projekten befassen sich damit vor allem Service Provider. Die Vorteile sind hier vielversprechend:

  • Die Virtualisierung des Netzwerks ermöglicht verschiedene logische Sichten auf das Netzwerk und eine saubere Trennung unterschiedlicher Teilnehmer (Mandanten).
  • Ein zentrales Management von nur einem (redundant ausgelegten) Managementpunkt aus ermöglicht eine Gesamtsicht auf das Netzwerk sowie auf die Konfiguration des gesamten Netzwerks und nicht nur einzelner Geräte.
  • Einheitliche Software-Schnittstellen erlauben Programmierbarkeit und Automation.

Die Kernelemente der SDN-Architektur lassen sich folgendermaßen zusammenfassen: (siehe Abbildung 1).

Abbildung 1: Die Kernelemente der SDN-Architektur.

Abbildung 1: Die Kernelemente der SDN-Architektur.

Natürlich haben alle relevanten Netzwerkhersteller eine SDN-Strategie. Es werden Standards definiert, Kooperationen vereinbart und erste Produkte für den breiten Produktiveinsatz vorgestellt. Doch die unterschiedlichen technologischen Strategien, die unterstützten Protokolle und das jeweilige Ökosystem teilen den Markt. In groben Zügen können die aktuellen Entwicklungsrichtungen der wichtigsten Marktteilnehmer mit folgendem Bild charakterisiert werden: (siehe Abbildung 2).

Abbildung 2: Entwicklungsrichtungen der wichtigsten Marktteilnehmer.

Abbildung 2: Entwicklungsrichtungen der wichtigsten Marktteilnehmer.

Bemerkenswert, jedoch nicht unerwartet, ist das Engagement von VM-ware in diesem Umfeld. Nach der -Akquisition von Nicira bietet der Virtualisierungs-Marktführer mit VMware NSX eine Netzwerk- und Security-Virtualisierungsplattform an, die vereinfacht als programmierbares Overlay-Netzwerk auf Layer 2-4 mit APIs und Gateways in die physische Welt aufgefasst werden kann. So lassen sich logische Netzwerk-/Security-Geräte und -Dienste von der physischen Netzwerkhardware abstrahieren und können zum Beispiel mit der Mobilität der VMs Schritt halten.

Anbieter von Application Delivery Controllern wie F5, Citrix, Radware etc. tragen auf vielfältige Weise zur Optimierung, Absicherung und Verfügbarkeit der Anwendungen bei und verfügen über Applikations-spezifische Laufzeitdaten. Sie nutzen die Tatsache, dass sie gewissermaßen mitten im Datenstrom der Anwendungen stehen, um das SDN-Konzept durch eine Application Plane zu erweitern. Die Aussage »…we will move SDN to the application layer« wird durch enge Kooperation mit den Netzwerkherstellern und einer wachsenden Anzahl von Softwareschnittstellen (APIs) und Produktintegrationen untermauert.

Umfassende Lösung zur Automation und Orchestrierung. Bereits in heutigen, meist heterogenen, Data-Center-Umgebungen benötigen die Betreiber dringend ganzheitliche, umfassende Lösungen, die Automation und Orchestrierung über alle IT-Funktionsbereiche hinweg ermöglichen. Umso mehr gilt dies auf dem Weg zum Software Defined Data Center. Denn Monitoring und Management sind nur die halbe Miete. Eine umfassende Lösung zur Automation und Orchestrierung muss sämtliche vorhandenen IT-Systeme (physisch und virtuell), unterschiedliche Datenquellen und möglichst auch Geschäftsdaten als Informationsquelle für die Automations- und Orchestrierungsentscheidungen im dynamischen Data Center nutzen. Die Zielsetzung einer Orches-t-rierung liegt darin, viele automatisierte Schritte innerhalb der gesamten IT-Organisation zu einem sinnvoll geordneten und synchronisierten Prozess zusammenzufassen. Es kommt also auf eine aussagefähige Korrelation der Informationen an. Die wesentlichen Aspekte sind:

  • die Sammlung aller relevanten Daten im Data Center und im Geschäftsbetrieb – unabhängig von Menge, Quelle oder Struktur
  • die Erfassung der Bedeutung der Daten, um zielgerichtet zu automatisieren und zu orchestrieren
  • die Bereitstellung standardisierter und abrechenbarer IT-Dienstleistungen für Konsumenten

Es gibt eine Reihe sogenannter Cloud Management Systeme (unter anderem OpenStack, CloudStack, VMware -vCloud, Eucalyptus), die sich durch den Grad an Interoperabilität, Automationsmöglichkeiten und Abdeckung von Security-Aspekten sowie durch verschiedene Architekturansätze unterscheiden. Hauptsächlich sind diese Lösungen auf die Bereitstellung und den Betrieb einer IT-as-a-Service (ITaaS)-Umgebung ausgelegt. Soll es darum gehen, alle Funktionsbereiche im Data Center abzudecken und beispielsweise auch Aspekte wie Business-Impact-Analyse und Management in die Orchestrierung einzubeziehen, wird das Angebot übersichtlicher. Hier sticht die Lösung des innovativen deutschen Unternehmens fluidOperations hervor. Sie korreliert strukturierte und unstrukturierte IT- und Geschäftsdaten mithilfe modernster semantischer Technologien. Die Anwender erhalten somit die Möglichkeit, ihre Infrastrukturen zentralisiert zu überwachen, zu bewerten und intelligent zu steuern, und zwar mandantenfähig, über geographische und Unternehmensgrenzen hinweg.

Resümee. Die aktuellen Entwicklungen bieten in einem virtualisierten -Data Center beachtliche Potenziale zur Kostensenkung. Auch wenn die Umstellung auf ein vollständig Software-gesteuertes DC (SDDC) ein langwieriger, organischer Prozess ist, tun Unternehmen gut daran, jetzt die Weichenstellungen vorzunehmen. Wichtige Architekturkomponenten sind bereits verfügbar. So kann der Betrieb eines Data Centers schon heute deutlich vereinfacht werden. Allerdings gehören Migrationen und Modernisierungen von Rechenzentren zu den anspruchsvollsten IT-Projekten. Sie erfordern tiefes, themenübergreifendes Know-how, ein nahtloses Zusammenspiel aller IT-Bereiche und entsprechendes Augenmaß. Oft ist es unerlässlich, einen breit aufgestellten Partner zu Rate zu ziehen, der die Expertise aus verschiedenen Funktionsbereichen im Rechenzentrum in einem Team vereint. So können erste Orientierungsgespräche, Design- und Architektur-Workshops bis hin zur Realisierung aus einer Hand – also unter Berücksichtigung der vielfältigen Abhängigkeiten und Wechselwirkungen – erfolgen. Als Systemintegrator und IT-Dienstleister steht Controlware den Kunden hier als kompetenter Partner zur Seite.


autor_adam_hufnagelAdam Hufnagel, Business Development Manager
für die Bereiche Data Center und Application Delivery,
Controlware GmbH

www.controlware.de

Bild: Shutterstock.com/pixeöparticle

 

Weitere Artikel zu