Cloud Computing 2.0 – aktuelle Marktentwicklungen bei IaaS – Versprochenes halten

Cloud Computing 2.0 –  aktuelle Marktentwicklungen bei IaaS

Cloud Computing hat sich etabliert und bleibt dennoch ein Sorgenkind. Doch der Markt bietet Lösungen. Wird die Cloud nun endlich wirklich flexibel und kostengünstiger?

Man ist versucht, es Ernüchterung zu nennen, was gerade auf dem Cloud-Computing-Markt passiert. Das Thema scheint leidlich ausdiskutiert und in den IT-Chefetagen einigermaßen etabliert zu sein. Schlagkräftige Argumente, wie etwa mehr Flexibilität, Skalierbarkeit und Kostenkontrolle, sprechen für die Cloud – zumindest theoretisch. Denn noch immer sehen sich Anwender von Infrastructure-as-a-Service–Lösungen meist vordefinierten Preis- und Instanzmodellen gegenüber, was die Flexibilität einschränkt und bei der Skalierung Softwareanpassungen notwendig machen kann. Sicherheitsbedenken befördern die Diskussion um sogenannte Hybrid Clouds, die eine Kombination aus Private und Public Cloud darstellen. Solch eine Infrastruktur ist aber nicht ganz einfach zu managen, wieder leiden Flexibilität und Skalierbarkeit. Neue Entwicklungen, Cloud Computing Version 2.0 genannt, schicken sich nun an, wirklich umzusetzen, was die Technologie schon lange versprochen hat.

Vertikal skalieren im laufenden Betrieb. Viele Infrastructure-as-a-Service- Anbieter geben vor, was der Anwender erhalten soll: Man kann kleine, mittlere oder große Pakete buchen – je länger die Vertragsdauer, desto günstiger die Konditionen. Bei diesen vorgefertigten Instanzen sind Prozessorkerne, RAM und Speicherkapazitäten in einer festen Konstruktion zusammengefasst. Die Anbieter machen es sich hier einfach: Sie teilen die Kapazitäten ihrer Server in Segmente ein, an die sich der Kunde halten muss. Werden Ressourcen hinzugebucht, werden weitere Server – als vordefinierte Instanz – bereitgestellt. Dieses sogenannte horizontale Skalieren oder Scale-out kann unangenehme Folgen haben: Zum einen muss die verwendete Software für den Parallelbetrieb geeignet sein oder entsprechend angepasst werden. Zum anderen wächst der Administrationsaufwand, mögliche Fehler sind schwieriger zu lokalisieren. Darüber hinaus entsteht nun ein Overhead für die Kommunikation zwischen den Maschinen, der sich auf die Performance auswirkt.

Beim vertikalen Skalieren oder Scale-up hingegen werden die zusätzlich benötigten Ressourcen auf demselben physischen Server gebucht. Weitere Prozessoren, mehr Arbeitsspeicher oder Festplattenplatz können in jeder beliebigen Kombination genutzt werden. So reduziert sich der Umstellungsaufwand deutlich, im Prinzip stehen die neuen Ressourcen innerhalb weniger Minuten bereit. Einige Betriebssysteme, wie etwa neuere Linux-Versionen, können zudem mit sich ändernden Ressourcen zur Laufzeit umgehen. Das bedeutet, der zu erweiternde Server muss für das Hinzubuchen neuer Ressourcen nicht einmal neu gestartet werden. Diese Technologie nennt sich Live Vertical Scaling und verschafft Anwendern echte Flexibilität.

IaaS wird günstiger. Kommt zum vertikalen Skalieren im laufenden Betrieb noch eine minutengenaue Abrechnung hinzu, wird IaaS zu einem Werkzeug, das sich gezielt nach Bedarf einsetzen und auch wieder loswerden lässt. Für rechenintensive Projekte können beispielsweise schnell externe Ressourcen zu Hilfe genommen werden, das nachfrageintensive Weihnachtsgeschäft von Online-Shops erhält für die begrenzte Zeit Unterstützung oder wird in den Nachtstunden auf ein benötigtes Minimum beschränkt. Ohne Vertragslaufzeiten und administrativen Vorlauf entstehen den Anwendern tatsächlich nur dann Kosten, wenn sie die Ressourcen wirklich nutzen. Das entlastet das Budget für die IT-Infrastruktur erheblich.

Mit den derzeit üblichen vorgefertigten Instanzen ist dies allerdings nicht wirklich möglich. Moderne Preismodelle müssen so aussehen, dass Cores, RAM und Storage zu jeweils klaren Preispunkten völlig frei kombinier- und buchbar sind und minutengenau beziehungsweise bei Storage nach Volumen abgerechnet werden. Das macht die Kosten transparenter und verhindert, dass nicht genutzte Ressourcen mitbezahlt werden müssen. Gerade bei Storage ist es auch wichtig zu betrachten, ob sogenannter Block Storage eingesetzt wird, oder ob der Provider nicht nutzbaren flüchtigen Speicher mitverkauft. Schließlich sollten keine Zusatzkosten für Firewall, Loadbalancer und internen Traffic anfallen und 24/7 Support selbstverständlich sein. Unterm Strich lassen sich mit einem solchen Preismodell Einsparungen gegenüber Cloud Computing 1.0 von bis zu 80 Prozent erzielen.

Privatsphäre in der Public Cloud. Um eine solch flexibel gestaltbare Infrastruktur zur Verfügung zu stellen, benötigt der Provider ein virtualisiertes Netzwerk, das in jede Richtung elastisch ist und unabhängig von dem Ein- und Ausstöpseln von Kabeln ist. Ein Software Defined Network (SDN) erfüllt diese Anforderungen: Alle wesentlichen Steuerungsfunktionen sowie die Kommunikation zwischen den Ressourcen werden von der Hardware abstrahiert und über Software-Controller abgebildet. Daraus ergeben sich völlig neue Gestaltungsmöglichkeiten. Jede Netzwerkkomponente steht zu jedem Zeitpunkt genau so zur Verfügung, wie sie benötigt wird.

Mit dieser Technologie ist es möglich, in ein und derselben Cloud von-einander getrennte Netzwerke einzurichten und, wenn nötig, diese vom Internet abzuschirmen – ein wertvolles Stück Privatsphäre innerhalb der öffentlichen Cloud, das die Sicherheitsbedenken einiger Anwender zerstreuen dürfte. Für Managed Service Provider bedeutet dies, dass sie so die Netze ihrer Kunden strikt trennen und diese trotzdem zentral verwalten können.

Die Hybrid Cloud lohnt sich nicht.Private Netze innerhalb der Public Cloud, Rechenzentren in Europa und der Abschluss der Verträge nach deutschem (oder europäischem) Recht werfen die Frage auf, ob sich der Aufbau einer hybriden Cloud überhaupt lohnt. Hybride Clouds werden aufgebaut, um sensible Daten und Anwendungen als Cloud-Dienstleistung zur Verfügung stellen zu können, ohne die Kontrolle darüber zu verlieren oder sie in fremde Hände zu geben. Doch der Aufwand, um das eigene Rechenzentrum wenigstens teilweise in eine Cloud zu verwandeln, ist hoch. Hinzu kommt eine zusätzliche Managementebene, die die Zusammenarbeit mit dem im herkömmlichen Stil betriebenen Rechenzentrum und der Public Cloud koordiniert. Können Provider sichere, flexibel buchbare und dadurch kostengünstige Ressourcen zur Verfügung stellen, könnte das Modell der Hybrid Cloud überflüssig werden.

Der Markt ist in Bewegung. Vertikales Skalieren im laufenden Betrieb, virtualisierte Rechenzentren und minutengenaue Abrechnung ohne langwierige Verhandlungen und Verträge bilden die Basis für die nächste Entwicklungsstufe des Cloud Computing, vor allem im Infrastrukturbereich. Dank erhöhter Nachfrage und verbesserter Technologien sinken nun auch die Preise der Provider – Grund genug, neu darüber nachzudenken.


autor_andreras_gaugerAndreas Gauger ist
Gründer und Geschäftsführer
von ProfitBricks aus Berlin

www.profitbricks.de

 

Titelbild: Shutterstock.com/Mr. Aesthetics