Wie CIOs die wachsenden Herausforderungen an die IT mit einer hybriden Cloud-Infrastruktur sicher beherrschen

Hybride Cloud-Infrastruktur

Die IT-Abteilung steht heute vor der Aufgabe, die ständig zunehmenden Datenmengen sicher und effizient bearbeiten zu müssen. Außerdem sollen IT-Leistungen schneller und flexibler bereitgestellt werden. Für immer mehr Unternehmen führt dies zu einer cloud-basierten IT-Strategie. Mit Cloud-Ressourcen lassen sich zwar wechselnde Workload-Anforderungen vergleichsweise einfach erfüllen, jedoch bleibt die Schwierigkeit, die häufig in Silos verankerten Daten zu bewegen.

Cloud Computing hat für das 21. Jahrhundert eine vergleichbare Bedeutung wie die Elektrizität für das 20. Jahrhundert: die IT-Leistung aus der Cloud revolutioniert derzeit die Art und Weise, wie Unternehmen arbeiten. Dabei ist Cloud Computing längst kein reines IT-Thema mehr, sondern gehört auf der Unternehmensebene als strategische Option verankert, um die eigene Organisation fit für den globalen Wettbewerb zu machen.

Eher selten wird eine Cloud-Strategie unternehmensweit einheitlich und planvoll umgesetzt, da dafür kaum Zeit ist. In der Realität drängen Fachbereiche die IT-Organisation zu schnellen Lösungen. Verfügt die IT nicht über die notwendige Agilität, beschafft sich der Fachbereich auch gerne eigenständig die dringend benötigte IT-Leistung aus der Cloud. Das geht in einigen Fällen wie bei Online-Storage sogar auf Knopfdruck, zu klar kalkulierbaren Kosten und erspart Diskussionen mit dem eigenen CIO. Langfristig führt dieses Vorgehen jedoch in eine Sackgasse, denn so entstehen verteilte und untereinander nicht mehr verbundene Datensilos. Für das Unternehmen bedeutet dies, dass sich keine Verknüpfungen zwischen den Datenbeständen der Fachabteilungen herstellen lassen. Eine durchgängige Big-Data- oder Cloud-Strategie ist damit zum Scheitern verurteilt.

Datenberge und Goldminen. Im April 2014 überraschten die Marktforscher von Research Now mit ihrer Aussage, nach der 60 Prozent der in den USA befragten CIOs davon ausgehen, dass ihre bestehenden Speicherkapazitäten innerhalb der nächsten zwölf Monate nicht mehr ausreichen.

Die ständig wachsenden Datenmengen, neue und branchenspezifische Compliance-Richtlinien und fortwährend neue Anforderungen aus den Fachbereichen fordern daher von den IT-Verantwortlichen neue und innovative Ansätze für das Datenmanagement. Gleichzeitig müssen sich IT-Organisationen neu aufstellen und IT-Services für Fachbereiche schneller und flexibler erbringen. Denn die internen Kunden vergleichen die Leistung der eigenen IT-Abteilung mit den über die Cloud angebotenen Diensten von Drittanbietern.

Für den CIO liegt eine Lösung in der Implementierung von hybriden IT-Infrastrukturen im eigenen Rechenzentrum. Hierbei werden unternehmenskritische IT-Leistungen weiterhin im eigenen Datacenter (On-Premise) über Legacy-Systeme erbracht. Alternativ auch in der modernen Variante als Private-Cloud-Lösung unter Verwendung von Virtualisierungstechnologien. Bei Umsetzung einer hybriden IT-Strategie werden diese Systeme um IT-Leistungen aus der Public Cloud erweitert. Die IT kann so ihre Agilität und Leistung sowie die Geschwindigkeit in der Bereitstellung steigern.

Flexibilität und Datenmobilität zwischen Privat und Public Clouds.

Flexibilität und Datenmobilität zwischen Privat und Public Clouds.

Diese Maßnahmen auf der Infrastrukturebene sind ein erster konkreter Schritt für den CIO, um die eigene IT-Performance zu stärken. Der zweite Schritt besteht darin, mit der IT noch direkter die geschäftlichen Ziele der Gesamtorganisation zu unterstützen. Dies gelingt beispielsweise dadurch, im Rahmen einer Big-Data-Strategie die im Unternehmen vorhandenen operativen Daten zu analysieren und daraus Mehrwert für fachliche Entscheidungen sowie zur Strategieplanung zu liefern. Denn immer mehr Organisationen realisieren, dass die im Unternehmen vorhandenen Daten einem Goldschatz gleichen und dabei helfen, besser auf Kundenanforderungen eingehen zu können und vorhandenes Umsatzpotenzial zu heben.

Hoher Nutzen, aber auch neue Anforderungen. Wie bereits erwähnt, verbleiben bei einer hybriden IT-Lösung einige unternehmenskritische Daten und Applikationen im eigenen Rechenzentrum, während besonders standardisierte Systeme und Daten in die Public Cloud verlagert werden. Auf Business-Ebene lösen Unternehmen dadurch deutlich effizienter ihre Anforderungen an Datensicherheit und Datenverfügbarkeit, da die ausgelagerten Daten in zertifizierten und hochverfügbaren Rechenzentren spezialisierter IT-Dienstleister lagern. Wie so häufig bei Nutzung neuer Konzepte, entstehen dadurch wiederum neue Herausforderungen: Zentrale Fragen bei einer hybriden Cloud-Lösung sind beispielsweise, wie sich große Datenmengen effizient verwalten lassen, die über mehrere Standorte und manchmal sogar über verschiedene Service-Provider verteilt sind. Darüber hinaus ist der Daten- und Zugriffsschutz zu klären, damit nur berechtigte Anwender Zugang zu unternehmenskritischen Informationen erhalten. Schließlich ist das Thema Compliance zu beachten, da hybride Cloud-Strukturen auch unterschiedliche Cloud-Provider in mehreren Ländern vereinen können und damit die jeweils landesspezifischen Datenschutzvorschriften greifen.

Was zur Nutzung hybrider Cloud-Umgebungen benötigt wird, ist eine übergreifende Plattform für das Datenmanagement. Die Lösung soll Unternehmen dabei unterstützen, bestehende Storage- und Datenmanagement-Architekturen mit einheitlichem Management und Monitoring auf hybride Cloud-Architekturen auszuweiten. Eine solche Lösung muss eine Reihe von Anforderungen erfüllen. Hierzu zählt die dynamische Datenportabilität, um Datenbestände sicher und in vorgegebenen Zeitfenstern mithilfe von Replizierungstechnologien zwischen Cloud-Umgebungen zu transferieren. Weiterhin sollte es möglich sein, unter verschiedenen öffentlichen Public-Cloud-Anbietern zu wählen. Wichtig ist hierbei, dass die Daten tatsächlich portabel bleiben und es nicht zu einem Vendor Lock-in kommt. Der dritte wichtige Punkt ist eine nahtlose und sichere Anbindung der eigenen IT-Systeme an alle genutzten Cloud-Umgebungen. Bei einer Multi-Cloud-Strategie ist daher eine unterbrechungsfreie Anbindung über redundante Netzwerke sinnvoll. In der Praxis ist es heute technologisch möglich, die volle Datenkontrolle auch in hybriden Cloud-Umgebungen zu behalten. Dazu ist es notwendig, dass die Unternehmen ihre eigenen Anforderungen präzise kennen und eine hierzu passende Datenmanagementplattform einsetzen. Wie eine solche Lösung aussehen kann, zeigt beispielsweise NetApp mit ihrer neu vorgestellten Plattform Clustered Data ONTAP 8.3 (siehe Kasten).

Frischer Wind in der IT-Abteilung. Die Einführung einer hybriden Cloud-Infrastruktur bringt darüber hinaus kulturelle Änderungen mit sich und macht eine neue Denkweise in der IT notwendig. Die häufig noch vorhandenen Sicherheitsbedenken gegen die Cloud gilt es aufzugreifen und beispielsweise durch eine Zusammenarbeit mit zertifizierten Cloud-Providern mit Rechenzentren in Deutschland zu entkräften. Gleichzeitig benötigen die IT-Mitarbeiter neue Fähigkeiten. Die eigenen IT-Experten müssen in der Lage sein, die Leistungen von externen Cloud-Providern bewerten und vergleichen zu können. Dieser Prozess unterscheidet sich erheblich von den bisherigen Vorgehensweisen beim Kauf von Software und Lizenzen. So wandelt sich schließlich auch die Aufgabe der IT-Abteilung: Diese wird immer mehr zum Vermittler von Applikations- und Informationsservices.

Blick nach vorne. In der Zukunft wird sich das Multisourcing im Rechenzentrum weiter durchsetzen. Wo IT-Leistung noch erhebliche Wertschöpfung im Kerngeschäft erbringt, wird On-Premise auch weiterhin erste Wahl bleiben. Hoch standardisierte Services jedoch, wie etwa Collaboration, Backup und Infrastruktur, werden hingegen immer mehr als Managed Services oder in der Public Cloud ausgeführt. Das Rechenzentrum wird also eine Koexistenz verschiedener Betreibermodelle erleben und damit auch den weiteren Einzug von Cloud-Technologien.

 

NetApp: Lösungen für eine Hybrid-Cloud-Strategie

Mit dem Storage-Betriebssystem NetApp ONTAP und NetApp Private Storage wird für Unternehmen die hybride Cloud zur Realität. Bestehende Storage-Infrastrukturen können flexibel und homogen in die Cloud erweitert werden. So lassen sich Cloud-Ressourcen von Hyperscale-Providern wie Amazon AWS, IBM Softlayer oder Microsoft Azure in die eigene Unternehmens-IT einbinden. Dies funktioniert über Colocation-Anbieter, die ihre Standorte in unmittelbarer Nähe der großen Cloud-Provider besitzen und daher an diese Datacenter über eine ultraschnelle Netzverbindung angebunden sind. In den USA ist Equinix einer dieser Dienstleister, der im Kundenauftrag den Betrieb von NetApp-FAS-Storage-Lösungen in seinem Rechenzentrum übernimmt. Unternehmen können so die Daten aus ihrem eigenen Datacenter in den Systemen der Colocation-Anbieter replizieren. Sobald die Daten dort gespeichert sind, kann der Kunde die Hyperscale-Cloud-Services von AWS oder Azure für Analysen auf seinen jeweils aktuellen operativen Daten verwenden, die beim Colocation-Anbieter zuvor gespiegelt wurden. Der Vorteil für Unternehmen: sie können hochmoderne und extrem leistungsfähige IT-Ressourcen aus der Cloud nutzen und behalten trotzdem noch die volle Kontrolle über ihre Daten. Auf Basis der ONTAP-Technologie gelingt so die Integration beliebiger weiterer Cloud-Provider und die Nutzung weltweiter Cloud-Ressourcen.

NetApp: Lösungen für eine Hybrid-Cloud-Strategie Mit dem Storage-Betriebssystem NetApp ONTAP und NetApp Private ­Storage wird für Unternehmen die hybride Cloud zur Realität. Bestehende Storage-Infrastrukturen können flexibel und homogen in die Cloud erweitert werden. So lassen sich Cloud-Ressourcen von Hyperscale-Providern wie Amazon AWS, IBM Softlayer oder Micro­soft Azure in die eigene Unternehmens-IT einbinden. Dies funktioniert über Colocation-Anbieter, die ihre Standorte in unmittelbarer Nähe der großen Cloud-Provider besitzen und daher an diese Datacenter über eine ultraschnelle Netzverbindung angebunden sind. In den USA ist Equinix einer dieser Dienstleister, der im Kundenauftrag den Betrieb von NetApp-FAS-Storage-Lösungen in seinem Rechenzentrum übernimmt. Unternehmen können so die Daten aus ihrem eigenen Datacenter in den Systemen der Colocation-Anbieter replizieren. Sobald die Daten dort gespeichert sind, kann der Kunde die Hyperscale-Cloud-Services von AWS oder Azure für Analysen auf seinen jeweils aktuellen operativen Daten verwenden, die beim Co­location-Anbieter zuvor gespiegelt wurden. Der Vorteil für Unter­nehmen: sie können hochmoderne und extrem leistungsfähige IT-Ressourcen aus der Cloud nutzen und behalten trotzdem noch die volle Kontrolle über ihre Daten. Auf Basis der ONTAP-Technologie gelingt so die Integration beliebiger weiterer Cloud-Provider und die Nutzung weltweiter Cloud-Ressourcen.                 Clustered Data ONTAP von NetApp ist eine der technologischen Grundlagen für das Multi-Cloud-Datenmanagement. Die im Oktober 2014 neu vorstellte Version ONTAP 8.3 ist eine universelle Plattform für das Datenmanagement und unterstützt die vertikale und horizontale Skalierung, Software defined Storage (SDS) und Cloud-Infrastrukturen sowie Flash-basierte Storage-Lösungen.

Clustered Data ONTAP von NetApp ist eine der technologischen Grundlagen für das Multi-Cloud-Datenmanagement. Die im Oktober 2014 neu vorstellte Version ONTAP 8.3 ist eine universelle Plattform für das Datenmanagement und unterstützt die vertikale und horizontale Skalierung, Software defined Storage (SDS) und Cloud-Infrastrukturen sowie Flash-basierte Storage-Lösungen.

 


autor_johannes_wagmuellerJohannes Wagmüller, 
Director Systems Engineering,
NetApp

www.netapp.com/de

 

Bild: © cs_stockphoto/shutterstock.com