- IT-Verantwortliche entwickeln Strategien, um Virtualisierung, Big Data und »Third-Plattform-Computing« noch wirksamer einzusetzen.
- Unternehmen investieren in entsprechende Infrastruktur-Technologien und -Dienste.
Passend zum Jahreswechsel veröffentlicht EMC eine Übersicht über die aus Sicht des Unternehmens wichtigsten IT-Trends für 2016. Reimund Willig, CTO bei EMC Deutschland, geht davon aus, dass Schlüsseltechnologien wie Betriebssystem-Virtualisierung, Big Data und Cloud Computing sich im neuen Jahr weiter entwickeln werden. Dadurch erreichen Sie neue Reifegrade, die Unternehmen und IT-Verantwortlichen wiederum neue Möglichkeiten etwa zur Digitalisierung eröffnen, aber auch neue Strategien und Investitionen erforderlich machen.
Trend #1: Container erreichen »Enterprise-grade«
»Container-Technologien« zur Betriebssystem-Virtualisierung wurden ursprünglich für große Internetdienste wie Facebook oder Netflix entwickelt. Doch inzwischen haben sie sich auch als Werkzeuge für das Entwickeln neuer Mobile-Apps, Web- oder Big-Data-Anwendungen bewährt. 2016 könnte das Jahr werden, in dem die Container endlich auch in der Unternehmens-IT Einzug halten – mit neuen Features, die ihren Einsatz mit Geschäftsanwendungen erlauben.
Doch noch stehen dieser Entwicklung zwei Hemmnisse entgegen: Erstens unterstützen Container bisher keine Laufzeit-Persistenz: Die »statless applications«, für die Container-Verfahren ursprünglich entwickelt wurden, kommen ohne dieses Feature aus. Fällt in der Umgebung etwa eines Social-Media-Dienstes ein einzelner Container aus, wird dieser einfach neu aufgesetzt. Doch für Geschäftsanwendungen ist es von wesentlicher Bedeutung, da es gewährleistet, dass Daten im Bedarfsfall umgehend wiederhergestellt werden können.
Um dieses erste Hemmnis zu überwinden, könnten Entwickler Container-Spezifikationen künftig um Enterprise-Grade-Storage-Einheiten erweitern – und diese entweder über bestehende Protokolle oder über neue, Container-spezifische Abstraktionen ansteuern. Das würde die Virtualisierungs-Anwendungen in der Lage versetzen, Laufzeit-Informationen zwischenzeitlich oder dauerhaft speichern.
Zweitens werden viele Container-Entwickler während der nächsten Monate fortschrittliche Steuerungs- und Sicherheitskonzepte implementieren. Und die werden den Containern eben jene »Enterprise-IT-Features« bescheren, die ihnen bisher fehlten: Möglichkeiten zur Validierung, Prüfung oder Sicherheits-Zertifizierung beispielsweise, oder interne Firewalls.
Trend #2: Big Data beschleunigt auf Echtzeit
Auch Big-Data-Analytics-Technologien werden 2016 weiter reifen und ein neues »Zwei-Schichten«-Betriebsmodell hervorbringen: Dessen erste Schicht wird aus »herkömmlichen« Big-Data-Analytics-Verfahren bestehen, die sehr große Datenmengen zeitverzögert auswerten. In der zweiten Schicht werden dagegen neue Analytics-Verfahren eingesetzt werden, die verhältnismäßig große Datenmengen mittels In-Memory-Technologie in Echtzeit auswerten. Dabei werden Technologien wie DSSD, Apache Spark oder GemFire eine Rolle spielen, die der von Hadoop in nichts nachsteht.
Diese »zweite Schicht« könnte Unternehmen und Behörden neue Möglichkeiten beim Nutzen von »Data Lakes« erschließen – und beispielsweise Ad-hoc-Auswertungen möglich machen, mit denen die Organisationen schon auf Veränderungen reagieren können, während diese noch passieren. So könnte sie ein neues, bisher nicht dagewesenes Höchstmaß an Agilität und Reaktionsvermögen ermöglichen.
Bevor die In-Memory-Analytics-Schicht diese Versprechen wirklich einlösen kann, müssen IT-Verantwortliche jedoch noch zwei Hürden überwinden.
Erstens brauchen sie Infrastruktur-Technologien, die genügend Raum und Speicherplatz für große Big-Data-Bestände bieten, sowie einen Plan dafür, wie Daten effizient zwischen Objektspeicher- und In-Memory-Maschinen verschoben werden. Schließlich unterscheidet sich die Arbeitsgeschwindigkeit der beiden Geräte-Arten erheblich, und die zuständigen Systemadministratoren werden den Demarkationspunkt im Auge behalten müssen, damit Daten schnell und transparent hin und her wandern können.
Viele Hersteller entwickeln deshalb bereits neue Objektspeicher, Rack-Scale-Flash-Storage oder Technologien, mit denen Anwender beides zu einheitlichen Systemen zusammenzufassen können. Und auch Open-Source-Initiativen arbeiten daran, die Herausforderung der verschiedenen Übertragungsgeschwindigkeiten zu meistern.
Zweitens sollten die Betreiber großer In-Memory-Infrastrukturen diese mit Daten bespielen, die sowohl persistent als auch dynamisch sind. Die Schwierigkeit dabei besteht darin, dass beim »Persistieren« von Daten auch alle Fehler mitgespeichert werden, die diese Daten gegebenenfalls haben. Das kann zur Weiterverarbeitung invalider Daten, verfälschten Auswertungen oder gar zu Fehlern in Anwendungen führen.
Deshalb dürften 2016 jede Menge Datendienste im »Storage-Stil« Einzug in In-Memory-Umgebungen halten: Deduplikation, Snapshots, Tiering, Caching, und Replikation sowie die Fähigkeit, den letzten bekannten Status zu speichern, an dem Daten valide waren oder eine Umgebung fehlerfrei.
Trend 3: Enterprise-Clouds werden Workload-spezifisch
Im kommenden Jahr werden viele Unternehmen Cloud-Dienste besser verstehen und einsetzen als bisher. Und einige dürften so weit gehen, einen neuen Cloud-Computing-Ansatz zu verfolgen: Dafür werden sie Cloud-Service-Portfolios nutzen, die jeweils mehrere, für verschiedene Anwendungs-Workloads optimierte Dienste bereitstellen. Also etwa einen Dienst für SAP-Workloads und einen anderen für Mobile Apps.
Momentan suchen IT-Verantwortliche meist noch nach einzelnen Cloud-Services, die alle oder zumindest mehrere Geschäftsanforderungen erfüllen. Doch dieser Ansatz war schon immer zu simpel. Und je weiter sich Cloud-Computing verbreitet, desto deutlicher zeichnen sich vier Arten von Cloud-Diensten ab, zwischen denen IT-Verantwortliche wählen können und sollten: Zwei ermöglichen es, bereits bestehende Investitionen in die zweite Plattform der IT in die Cloud zu verlagern. Die zwei anderen zielen dagegen auf den Aufbau völlig neuer Cloud-Services und Infrastrukturen der dritten Plattform der IT. (Der Begriff »Plattform« bezeichnet hier Computing-Varianten. Die »First Plattform« besteht aus Mainframes, die »Second Plattform« aus Servern und Clients, die »Third Plattform« aus Cloud, Mobile- und Internet-of-Things-Technologien):
Die vier Formen der Cloud sind:
- On-Premise Cloud für die zweite Plattform der IT
- Hybride Cloud (teils on-, teils off-premise) für die zweite Plattform der IT
- On-Premise Cloud für die dritte Plattform der IT
- Off-Premise Cloud für die dritte Plattform der IT
Organisationen werden Cloud-Strategien benötigen, die alle vier dieser Cloud-Formen berücksichtigen. Wer keinen Plan für alle vier hat, nimmt in Kauf, Workloads auf dafür ungeeigneten Clouds zu betreiben – und entsprechende wirtschaftliche oder regulatorisch-rechtliche Risiken einzugehen.
Derart umfassende Cloud-Strategien werden natürlich nicht ohne die Möglichkeit auskommen, Daten und Workloads sicher und nachvollziehbar zwischen den verschiedenen Clouds hin- und her zu bewegen. Zudem sollten IT-Verantwortliche Off-Premise-Ressourcen natürlich genauso verwalten können wie solche aus dem eigenen Rechenzentrum. Beides ist keineswegs einfach, aber möglich: Technologien wie Cloud Gateways, Cloud-Abstraktionen wie CloudFoundry und Virtustream xStream, Software-definierte Datenreplikation oder Verschlüsselungsdienste machen »Cloud Interworking« realisierbar.
Trend #4: Unternehmen suchen Cloud-Native-Entwickler
Je mehr Unternehmen dazu übergehen, Clouds nicht mehr nur zu bauen, sondern auch zu nutzen, desto klarer wird: Beim Cloud Computing geht es überwiegend darum, das Entwickeln und Bereitstellen verschiedenster Geschäftsanwendungen zu vereinfachen. Doch das Entwickeln in der Cloud verlangt nach grundsätzlich anderen Fähigkeiten als denen, die bisher für die Anwendungsentwicklung erforderlich waren. Deshalb entsteht in vielen Unternehmen eine »Kompetenzlücke« – und die kann die Umsetzung von Cloud-Strategien erheblich erschweren.
Das können sich die Unternehmen nicht leisten. Die Fähigkeit, »Cloud-native«-Anwendungen zu entwickeln, dürfte in diesem Jahr zu einem Wettbewerbsvorteil werden, vielleicht sogar zu dem Wettbewerbsvorteil.
Deshalb werden Unternehmen ihre Softwareentwicklung im kommenden Jahr entsprechend verändern – entweder durch das Schulen eigener Mitarbeiter oder das Beauftragen externer Entwickler.
Trend #5: Flash setzt sich durch – und Unternehmen müssen mit dem Schlimmsten rechnen.
Der fünfte Trend für 2016 ist weniger eine Vorhersage als eine Warnung: Im Storage-Bereich kann es vorkommen, dass unerwartete Schwierigkeiten mit neuen Technologien auftreten, sobald diese eine gewisse Verbreitung und Bedeutung erreichen. Und bisweilen führen diese Schwierigkeiten zu schwerwiegenden Ausfällen in einer gesamten Branche. Auch wenn nichts dafürspricht, dass etwas Derartiges im Zusammenhang mit Flash eintreten könnte, sollten Unternehmen diese Tatsache berücksichtigen. Denn diese Speichertechnologie wird 2016 eine ernstzunehmende Verbreitung erreichen.
Während der vergangenen Jahrzehnte gab immer wieder Ausfälle aufgrund zunächst unbemerkter Fehler oder Schäden in CPU-Speicher-Chips und Festplatten, oder auf Grund von Umstellungen bei Silizium oder anderen technischen Bestandteilen. In solchen Fällen zahlt es sich immer aus, eng mit Herstellern zusammenzuarbeiten, die die Branche sehr gut kennen und Erfahrung im Umgang ähnlicher Vorfälle haben (EMC machte beispielsweise 2010 vor, wie derartige Krisen zu bewältigen sind: Das Unternehmen tauschte einen Großteil aller weltweit eingesetzten Seagate-Moose-Festplatten aus, nachdem diese auf Grund eines technischen Fehlers unbrauchbar wurden – vgl. »Seagate Moose Drive failure«).
Also lautet der Rat für Unternehmen im Jahr 2016, nicht in die Falle zu tappen und zu hoffen, dass schon Nichts passieren wird. Eine vorausschauende Planung für den schlimmsten anzunehmenden Fall hat sich häufig bewährt.