Master Data Management in Zeiten von Big Data – Von Rohdaten zu Business Insights

Master Data Management in Zeiten von Big Data

»Der Erfolg jeder Analytics-Initiative hängt maßgeblich davon ab, welchen Einfluss sie auf das Geschäft hat. Es geht nicht nur um das Sammeln von Rohdaten, sondern darum, wie man sie in Erkenntnisse umwandelt, auf deren Basis man Geschäftsentscheidungen treffen kann. Dies wiederum führt zu mehr Gewinn, Effizienz und Kosteneinsparungen. Denn Daten sind das neue Öl – und Öl muss raffiniert werden, bevor man es nutzen kann.«

Was der frühere Wissenschaftsleiter von Amazon, Andreas Weigand, hier sagt, klingt einfach und einleuchtend. Daten sind eine wertvolle Komponente und für funktionierende Geschäftsprozesse mittlerweile nicht mehr wegzudenken. Sie müssen zur Quelle zurückverfolgt, gesammelt und verwaltet werden, bevor sie einen echten Mehrwert für Unternehmen bieten. Dies verdeutlicht, welche Rolle Daten heute für die IT spielen: Genauso wie die Industrie auf Öl angewiesen ist, benötigt die Informationswirtschaft Daten, die bereinigt und analysiert wurden. Nur so können sie effektiv für Business Intelligence zur Entscheidungsfindung, für effiziente Geschäftsprozesse und größtmöglichen Einfluss auf die Geschäftsentwicklung genutzt werden.

Es ist sicherlich keine neue Erkenntnis, dass eine Vielzahl an Fähigkeiten, viel Erfahrung und Wissen notwendig sind, um Rohdaten nutzbar zu machen. Man muss auf alle möglichen Formen von Daten zugreifen, sie sammeln, sortieren, vorbereiten, umwandeln und extrahieren können – und dies immer und überall. Deshalb nimmt die Vorbereitung der Daten für die Analyse allein 80 Prozent der Zeit eines Datenexperten in Anspruch. Während das reine Sammeln der Daten schnell abgeschlossen werden kann, muss umso mehr Zeit auf die Extrahierung und Identifizierung der relevantesten Daten verwendet werden. Dazu gehört das Herausarbeiten einer Vielzahl von Indikatoren, Anomalien und Trends, um so die Datensätze mit dem größten Informationswert für die Analyse herauszufiltern. Dies wird immer komplexer, je weiter sich Daten fortentwickeln.

Komplexere Daten, komplexere Prozesse. Genau wie die Daten, muss sich deshalb auch der Analysesektor maßgeblichen Innovationen unterziehen. Dies kann nicht nur Vorteile für Datenexperten, sondern auch Probleme mit sich bringen. Denn durch die Weiterentwicklung steigt auch die Komplexität – ein Problem, mit dem sich Datenexperten vermehrt auseinandersetzen müssen. In den letzten Jahren sind viele neue Analyse-Plattformen entstanden, angefangen von Analyse-Anwendungen, über In-Memory-Datenbanken bis hin zu flexiblen Business-Intelligence-Tools wie Hadoop. Diese Analytics-Lösungen der nächsten Generationen sind mittlerweile in der Lage, eine immer größere Reihe an Daten und Analytics-Problemen zu adressieren.

Doch wie kann man nun die Datenvorbereitung automatisieren, um selbst mehr Zeit für wertvolle Analysen und die Entscheidungsfindung zu erhalten? Wie kann man alle technologischen Innovationen nutzen, ohne seine Mitarbeiter neu schulen zu müssen? Und wie kann man schnell vom Pilotprojektstatus zur normalen Produktion übergehen?

Dazu benötigt man eine Informationsplattform, die alle Arten von Analytics unterstützt – darunter auch alle Formen der neuesten Big-Data-Technologien. Die Plattform muss in der Lage sein, die Unterschiede der darunter liegenden Rechenplattformen und Sprachen zu verstehen, so dass man es nicht selbst muss. Das Ziel ist, in Zeiten von Big Data alle Datenarten zu erkennen, schnell Erkenntnisse gewinnen zu können und Innovationen schneller umzusetzen.

Die Cloud – Retter in der Not. Um dies leisten zu können, wenden sich immer mehr Unternehmen Cloud-Lösungen zu. Cloud Computing ist in der Tat eine Technologie, die die gesamte IT-Branche fundamental verändert hat. In den vergangenen Jahren wirkte die Cloud eher wie eine profane Bewegung, die irgendwann dazu führen wird, dass Anwendungen aus privaten Rechenzentren zu Software-as-a-Service- (SaaS) und Platform-as-a-Service-Diensten (PaaS) wandern. Doch auch wenn der Übergang von Anwendungen und Entwicklungsplattformen in die Cloud einfach erschien, war dies für Analytics durchaus komplizierter. Relational-Data-Base-Technologien sind einfach nicht für diesen Umfang ausgelegt. Es war zunächst schwer vorstellbar, auf die große Menge an Daten, die innerhalb eines Unternehmens produziert werden, als Managed Service in der Cloud zuzugreifen, sie zu integrieren und zu analysieren. Deswegen wurde angenommen, dass Analytics der Hauptgrund ist, warum sich IT-Organisationen noch viele Jahrzehnte mit hybriden IT-Architekturen herumschlagen müssen.

Diese Annahme stellt sich aus heutiger Sicht klar als falsch heraus. Die Möglichkeiten von Hadoop und die Entstehung von hochflexiblen Cloud-Analytics-Diensten wie AWS EMR und Redshift, Microsoft Azure oder Salesforce Wave Analytics haben das letzte Kontra-Argument, die gesamte IT-Infrastruktur in die Cloud zu verlagern, praktisch vom Tisch gewischt. Deshalb wage ich nun eine ganz eigene Annahme: Cloud Analytics ist die »Killer-Anwendung«, die innerhalb der nächsten zehn Jahre den Übergang zu einer Cloud-only-Welt maßgeblich beschleunigen wird.

Mit Cloud Analytics zu Cloud-only-Umgebungen. Warum? Ganz einfach: Das Geschäft mit Daten hat sich in den letzten zehn Jahren stets weiterentwickelt. Mittlerweile müssen Lösungen sicherstellen, dass Unternehmen ihre Daten integrieren, sinnvoll verknüpfen, verwalten und sichern können. Dabei konnte man eine regelrechte Evolution der verschiedenen Analytics-Plattformen beobachten – von spezialisierten OLAP-Datenbanken, über säulenartige Datenbanken, Analytics-Instrumente und Hadoop bis hin zu agilen Business-Intelligence-Lösungen. Dennoch ist mit Cloud Analytics die Entwicklungsphase für Analytics für die nächsten Jahrzehnte erst einmal abgeschlossen – sozusagen das »Omega« von Analytics. Die schier unendliche Skalierbarkeit, das unschlagbare Preis-Leistungs-Verhältnis und die einfache Anwendbarkeit, die domainspezifische und nutzerspezifische Fähigkeiten in der Cloud bieten, machen sie zur besten Wahl. Cloud Analytics wird nicht nur bereits genutzt, es hat auch einige Wellen geschlagen und bewiesen, dass es noch eine ganze Weile die dominierende Technologie im Bereich Analytics bleiben wird.

Eine Cloud für die Clouds. Doch für eine leistungsstarke Analytics-Cloud-Lösung benötigt man eine ebenso starke Integrationslösung. Hier bieten sich Cloud Integration Platforms-as-a–Service (iPaaS) an, da sie von Grund auf dafür ausgelegt sind, die oben genannten Leistungsmerkmale wie Skalierbarkeit, Zuverlässigkeit und Sicherheit für Cloud Analytics [2] zu gewährleisten. Daten werden täglich in AWS Redshift, Azure und Salesforce Wave integriert – egal ob Sales Analytics oder Daten aus dem Bereich IoT. Dazu benötigen Unternehmen eine Cloud, die wiederum die Clouds – und bestehende On-premise-Lösungen – miteinander verbindet. Genau dies kann iPaaS abbilden. Es bleibt also spannend zu sehen, wie sich die IT-Landschaft von »Cloud first« zu »Cloud only« entwickeln wird.

 


autor_dirk_haeussermannDirk Häußermann,
Geschäftsführer EMEA Central bei Informatica

 

 

 

[1] Basierend auf den Texten »The Future of Cloud Analytics…is now…« von Ash Kulkarni und »Harnessing Big Data«
[2] Cloud Analytics https://www.informatica.com/products/cloud-integration.html

 

Illustration: © ifong, USBFCO/shutterstock.com