2018: Kryptowährungen, künstliche Intelligenz und Datensicherheit

In 2018 ergeben sich neue Relevanz und Aufgaben für Datenmanagement und Datenspeicher.

Illustration: Geralt Absmeier

Schlagzeilen über Datendiebstahl und digitale Währungen haben das vergangene Jahr geprägt. Dadurch wurde sehr deutlich, dass in Wirtschaftsunternehmen nicht nur der »reale« Geldfluss, sondern auch der Fluss der Daten besser kontrolliert und geschützt werden muss. Daten sind mittlerweile – nicht nur im Sinne von Bitcoin & Co. – eine Währung, die zusätzliche Verantwortung für den Inhaber in sich trägt, insbesondere wenn persönliche Informationen betroffen sind. Der sichere Umgang mit diesen Daten wird 2018 durch die EU-DSGVO strenger reglementiert werden. Ein schlechtes Ergebnis bei einem Datenschutz-Audit wird dann zukünftig ähnliche finanzielle Konsequenzen und Auswirkungen auf die Reputation eines Unternehmens haben wie das Scheitern bei einem klassischen Finanz-Audit.

Die richtige Datenspeicherinfrastruktur und der richtige Datenfluss sind außerdem unerlässlich, um Unternehmen die Möglichkeit zu geben, die Vorteile des maschinellen Lernens und Technologien der künstlichen Intelligenz zu nutzen. Führende Unternehmen in verschiedenen Branchen setzen diese modernen Technologien bereits erfolgreich ein.

Die Möglichkeit, Daten und Workloads zwischen Clouds zu verlagern, um Multi-Cloud- und Hybrid-Architekturen zu nutzen, während die Cloud-Nutzung und Regulierungslandschaft sich weiterentwickeln, wird zu einer Schlüsselfunktion für IT-Teams avancieren. Daher muss die Bereitstellung nativer Integration über öffentliche Clouds und lokale Plattformen hinweg zu einer Priorität für Anbieter werden.

Abgeleitet von diesen Beobachtungen erwartet Markus Grau, Principal Systems Engineer bei Pure Storage, aus technologischer Perspektive diese vier Entwicklungen rund um Storage und Data Management im neuen Jahr:

 

  1. »Data Stewardship« muss im Jahr 2018 zu einer Kernkompetenz werden

Die Umsetzung der EU-DSGVO steht unmittelbar bevor. Grundsätzlich müssen Unternehmen heute gute Datenmanager sein, und das wird im neuen Jahr umso mehr gelten. Das bedeutet, zu wissen und aufzeigen zu können, wo sich persönliche Daten befinden und ebenso, wo sie sich nicht befinden. Dazu gehört auch eine umfassende Kontrolle über die Daten von deren ersten Aufnahme im Datenverarbeitungssystem bis zu deren Löschung.

Eine vorbildliche Datenverwaltung oder effektive Reaktion auf Sicherheitsvorfälle ist nahezu unmöglich bei Systemen, die Tage benötigen, um Daten zu sichern, zu indizieren oder im Bedarfsfall wiederherzustellen. Um zu einem Stadium zu gelangen, in dem dieses Kontroll- und Schutzniveau unmittelbar möglich ist, werden wir im Jahr 2018 erhebliche Investitionen in schnellere Netzwerke, Suchvorgänge und Indexierungen tätigen. Tools und Plattformen zur Verbesserung der Sichtbarkeit, Verwaltbarkeit und Leistung von Datenpipelines im Allgemeinen werden ebenfalls erhebliche Investitionen erfordern.

Allerdings werden sich Unternehmen, die sich allein auf die Technologie für die Einhaltung der DSGVO verlassen, schwertun. Die Regelung gilt gleichermaßen für alles, von der Datenspeicherung mit heutigen Cloud-Technologien, zurück bis zum 20 Jahre alten Backup-Band oder gar verstaubten Mikrofiches im vernachlässigtem Archiv. Dies bedeutet, dass Technologie allein nicht ausreicht, um alle Daten zu erfassen, die geschützt werden müssen. Es werden hierzu auch bedeutende kulturelle und verfahrenstechnische Veränderungen erforderlich sein, um die Einhaltung der DSGVO erst einmal zu erreichen und später aufrechtzuerhalten. Die richtigen kulturellen Ansätze müssen vom oberen Management angeführt werden, und die richtigen Werkzeuge müssen implementiert werden, um dieses Verhalten unternehmensweit zu etablieren. Die IT kann hier helfen, aber sie muss Teil eines End-to-End-Ansatzes sein, der mit dem Datenarchitekten beginnt und das Unternehmen vom Back-Office bis hin zu jedem einzelnen Firmenvertreter durchdringt.

 

  1. Cloud-Überwachung – Hybridarchitekturen werden dominieren

Die Debatte um den Einsatz von Cloud-Technologien ist Geschichte. Multi-Cloud-Bereitstellung ist jetzt zur Norm geworden. Mit einem wachsenden Bewusstsein dafür, dass die Preiskalkulation außer Kontrolle geraten kann, ist eine Rückkehr zu einer Hybridarchitektur im Gange, die die Stärken kontrollierbarer Kosten, hochperformanter lokaler Systeme und flexibel skalierbarer globaler Cloud-Dienste vereint. Die verschärften Anforderungen an die Datenkontrolle werden die Attraktivität des Hybridmodells weiter erhöhen.

Mit dem Übergang von Virtualisierung zu cloud-nativen und »containerisierten« Anwendungen werden nahtlose Private/Public-Cloud-Anwendungen und Datenmobilität bis 2020 immer stärker in den Fokus rücken. Diese Technologien sind in der Lage, Sicherheit mit Performance und Mandantenfähigkeit zu verbinden. Die On-Demand-Mobilität wird zur treibenden Kraft und zum Mind-Share-Leader im Markt für Datenmanagement. Die Fähigkeit, Daten effizient zu migrieren und auch wieder ins lokale Rechenzentrum zurückzuholen, wird ein Schlüsselmerkmal der Cloud-Fähigkeit sein. Wo Anwendungen und Daten vorgehalten werden, ist für Unternehmen sowohl aus rechtlicher als auch betrieblicher Sicht zunehmend relevant.

Die Rückführung von Daten in zentralisierte Pools in jeder legislativen Region wird wahrscheinlich häufiger werden. Dies wird zunehmend, sogar am Netzwerkrand, durch direkt verbundene Hochleistungsspeicherung und Hochleistungsrechenressourcen auf lokaler Ebene für unternehmenskritische Echtzeit- oder hochsensible Anwendungen erfolgen.

 

  1. Nutzung von KI und maschinellem Lernen

Die Herausforderungen bei der Speicherung und Bereitstellung von Daten, die zum Trainieren von KI und ML benötigt werden, können heute größtenteils bereits bewältigt werden. Hier kommen fortschrittliche Technologien wie All-Flash-Speicher und Deep Learning Großrechner zum Einsatz. Daher besteht die Herausforderung für CTOs im Jahr 2018 darin, die »Störgeräusche« herauszufiltern, um festzustellen, was jetzt machbar ist und was davon Geschäftsvorteile bringen kann.

Moderne Anbieter von Data Management und Storage haben bereits in 2017 innovative ML-Techniken erfolgreich in ihre Softwareentwicklungs- und Support-Ökosysteme integriert. Erste Anwender können den realen Nutzen dieses Ansatzes bestätigen, um sowohl internen Entwicklungsteams als auch den Anwendern Geschäftsvorteile zu bieten. Das Trainieren einer Datenpipeline zum Lernen, Filtern nach Ausnahmen und Anwenden von Geschäftsregeln auf diese Ausnahmen ist jetzt für jedes Unternehmen in Reichweite, unabhängig davon, ob es sich um autonomes Fahren, Softwareentwicklung, medizinische Bildanalyse oder Cybersicherheit handelt.

Erfolgsstorys wie Google Alpha Go Zero von Google DeepMind, das Go besser spielt als das vorherige AlphaGo-System (das bereits alle Anwärter besiegt hatte), vermittelt in diesem Fall ein Gefühl für das ungenutzte Potenzial von ML und Restricted Learning (RL). Für 2018 ist zu erwarten, dass der Einsatz von ML und RL in einer Reihe von Branchen in breiterem Umfang erfolgen wird, um arbeitsintensive Aufgaben zu straffen und die Ausführungsqualität dieser Aufgaben zu erhöhen.

Robotik ist eine der interessantesten Anwendungen der KI-Technologie, nicht mehr nur für Industrieroboter in der Fertigung, sondern auf für Rettungsschwimmer an Stränden, um Schwimmer zu retten und Haie zu beobachten, bis hin zur Medizintechnik, für fortschrittliche Prothesen, um Menschen mit Wirbelsäulenverletzungen zu helfen.

Daten von Forrester deuten darauf hin, dass 70 Prozent der Unternehmen im nächsten Jahr irgendeine KI-Implementierung planen. Die Vorteile von ML dürften jedoch in der gesamten Branchenbandbreite unmittelbarer spürbar werden. ML-basierte Automatisierung hat sich bereits bei der routinemäßigen Administration der IT-Infrastruktur bewährt. Die Instrumentierung von Systemen über das Internet der Dinge und die Verwendung von ML zur Analyse der Daten liefern wertvolle, umsetzbare Informationen, mit denen Probleme automatisch gelöst werden können, bevor sie geschäftliche Auswirkungen haben. Pure Storage beispielsweise hat Kunden, welche die Automatisierung und Beratung, die von Pures eigenen ML-basierten Systemen bereitgestellt werden, mit einem zusätzlichen Infrastrukturingenieur, der rund um die Uhr beschäftigt ist, gleichsetzen. Dadurch können IT-Mitarbeiter Zeit in die Nutzung der Daten investieren, die sie für ihre Unternehmen speichern und schützen.

 

  1. Beim Thema Storage wird sich alles um Daten drehen

Technisch und kommerziell kann das Problem der Bereitstellung von hochleistungsfähigem, robustem, einfachem und skalierbarem Speicher heute bereits als gelöst betrachtet werden. 2018 wird als ein Wendepunkt angesehen, an dem Automatisierungs- und Orchestrierungstechnologien moderne Infrastrukturtechnologien zu einem REST-API-Aufruf von Ansible, Chef, Puppet, Kubernetes etc. abstrahieren.

Entwickler werden jetzt Zugriff auf den benötigten Block-, Datei- und Objektspeicher auf einer gemeinsamen skalierbaren Plattform erhalten, mit der Gewissheit über die verfügbare Performance und eine fortlaufende, unterbrechungsfreie Verbesserung der zugrundeliegenden Technologie. Sie müssen nicht mehr darüber diskutieren, woher das nächste Terabyte kommt oder wie es geliefert wird. Die damit einhergehende Vereinfachung des Datenmanagements eröffnet Datenwissenschaftlern, Forschern und Entwicklern die Möglichkeit, sich auf ihre Datenpipelines zu konzentrieren und F&E-Prozesse zu verbessern, anstatt sich mit der Infrastruktur auseinandersetzen zu müssen.

 


 

Hier folgt eine Auswahl an Fachbeiträgen, Studien, Stories und Statistiken die zu diesem Thema passen. Geben Sie in der »Artikelsuche…« rechts oben Ihre Suchbegriffe ein und lassen sich überraschen, welche weiteren Treffer Sie auf unserer Webseite finden.

 

Studie mit teilweise überraschenden Befunden: Software-defined Storage, Hyper-converged und Cloud-Speicher

Datensicherheit 2018: Ransomware, RPO/RTO, Cloud und DSGVO 2018 im Trend

Hybride Wartungsmodelle für Server und Storage – Third-Party Maintenance als Alternative

Backup-Daten in die Cloud und trotzdem alles unter Kontrolle – Daten sicher in der Wolke

Software-definierte Netzwerktechnologien und Cloud-Management in der Medizin

Cloud und Preistransparenz: Nobody is Perfect

Fünf Schritte zum richtigen Cloud-Modell