SAP Data Intelligence: Datenströme orchestrieren – mit dem Dirigenten in der Cloud

Illustration: Absmeier Pixabay

Ob im Sales, HR oder in der Finanzplanung: Unternehmen brauchen für ihre Auswertungen und Planungen verlässliche Daten. Die Datenmenge wird jedoch immer komplexer, die Anzahl der Tools, die darauf zugreifen, immer umfangreicher. Um die vorhandenen Daten sinnvoll verarbeiten zu können, müssen die verschiedenen Datenströme zunächst angebunden, aufbereitet und an die folgenden Systeme verteilt werden. Für diese Orchestrierung braucht es ein ergänzendes Tool.

 

Unternehmen setzen immer mehr Softwarelösungen ein, um ihre Prozesse zu optimieren und zu digitalisieren. Für die verschiedenen Unternehmensbereiche gibt es inzwischen eine Vielzahl spezieller Tools – sei es für die Personalverwaltung und Zeiterfassung, für die Finanzplanung und das Berichtswesen oder für den Vertrieb und das Kundenmanagement. Neben einer gesteigerten Anzahl an Systemen stehen auch immer mehr Datenquellen zur Verfügung, die zwar umfassendere und genauere Analysen ermöglichen, die Komplexität der Datenerfassung und -verarbeitung aber erhöhen. Die Daten den entsprechenden Tools bereitzustellen, wird deshalb eine immer größere Herausforderung. Ob Verkaufsdaten, Finanzdaten oder Zeiterfassungsdaten, sie alle müssen dorthin geleitet werden, wo sie gebraucht werden. Damit die jeweiligen Tools die Daten aber verarbeiten können, müssen sie zunächst geordnet und ein Stück weit aufbereitet – sprich orchestriert – werden. Denn die übergeordneten Systeme bauen in der Regel darauf auf, mit bereits strukturierten Daten zu arbeiten. Die sind so aber nicht von vorneherein vorhanden, erst recht nicht in der Online-Welt.

 

»Werkzeugkasten« für die Orchestrierung zwischenschalten

Datenströme manuell zu orchestrieren ist für kleine Datensätze zwar möglich, aber viel zu aufwändig. Für große Datenmengen ist die Vorstellung der manuellen Orchestrierung sogar vollkommen illusorisch. Daher braucht es ein zwischengeschaltetes Tool für die Datenstrom-Orchestrierung. Um zum Beispiel die Arbeitszeiten, Krankheits- und Urlaubstage von Mitarbeitern zu erfassen, gibt es spezielle HR-Tools (Human Ressource). Gerade international agierende Unternehmen stehen hier schon allein vor der Herausforderung, in welchem Format Uhrzeiten angegeben werden – ob mit Punkt, Komma oder Doppelpunkt als Trennzeichen für Dezimalzahlen. Greifen Nutzer zusätzlich manuell ein, lässt sich eine einheitliche Darstellung nicht mehr gewährleisten. HR-Tools – und auch alle anderen Systeme – kommen so schnell an ihre Grenzen, weil sie eben einheitliche, strukturierte Daten verlangen.

Mit Data Intelligence bietet SAP sozusagen einen Werkzeugkasten, um in der immer komplexeren IT- und Datenlandschaft die Kontrolle über die Datensätze und ihre Wege zu behalten. Das Tool ist modular aufgebaut, enthält einfache Möglichkeiten zum Machine Learning und verschiedene Applikationen, mit denen sich das System verwalten und nutzen lässt. Der Connection Manager zum Beispiel gibt einen guten Überblick über alle Verbindungen zu den weitergehenden Tools, seien es Datenbanken wie ein Business Warehouse, Online-Speicher wie ein S3 Bucket, bestimme Programmierschnittstellen (APIs) oder E-Commerce-Plattformen wie Amazon. Über den Connection Manager können Anwender URLs und Zugangsdaten eingeben, die App verwaltet diese und führt definierte Operationen durch.

 

Hilfreiche Apps wie Metadata Explorer und Modeler

Weitere hilfreiche Apps sind der Metadata Explorer und der Modeler. Der Metadata Explorer geht sämtliche Verbindungen durch und prüft, welche Arten von Daten in den jeweiligen Quellen vorhanden sind. Welche Formate sind zum Beispiel in den einzelnen Excel-Files vorhanden, wie sind die Spalten definiert? Die Datenquellen lassen sich zudem mit Metadaten anreichern – wie Datentypen oder Spaltenbezeichnungen – und so für eine Datenexploration, dem ersten Schritt zur Datenanalyse, freigeben.

Der Modeler ist im Grunde die zentrale Komponente für die Datenstrom-Orchestrierung: Hier kommen die verschiedenen Datensätze zusammen und werden strukturiert. Mit dem Modeler lassen sich die unterschiedlichen Connections definieren und die Daten, die durch die sogenannten Pipelines laufen, ordnen. Hierfür liefert die App vorgefertigte Operatoren, es lassen sich aber auch eigene Logiken in einer frei wählbaren Programmiersprache erstellen.

Mit Data Intelligence lässt sich die Orchestrierung der Datenströme auch – wenn gewünscht – automatisieren. So kann zum Beispiel definiert werden, dass das System täglich zu einer bestimmten Uhrzeit Datensätze abruft und wiederum zu festgelegten Zeiten an bestimmte Nachfolgesysteme liefert. Endanwender können das System aber auch manuell starten.

 

Sales und Corporate Finance: Zwei Use Cases zur Veranschaulichung

Anhand eines beispielhaften Use Cases aus dem Bereich Sales lassen sich das Potenzial und die Notwendigkeit von Data Intelligence veranschaulichen. Plant ein Unternehmen zum Beispiel eine neue Filiale, lassen sich für die vorherige Standortanalyse zahlreiche Online-Daten nutzen. Von Google beispielsweise lassen sich Daten zu der möglichen Nachbarschaft ziehen, ebenso zum Durchlaufverkehr und auch zu Bewertungen bereits vorhandener Geschäfte: Was gibt es bereits in der Gegend, welche Ratings haben die Läden und die Umgebung, wie gut ist der Standort erreichbar? Zusätzlich können für die Analyse spezialisierte Research-Daten hinzugezogen werden, die eine noch präzisere Beurteilung erlauben.

Diese Google- und Research-Daten können jedoch nicht ohne Weiteres von Analyse-Tools genutzt werden, weil sie in unterschiedlichen Formaten vorliegen. Die Datenfülle manuell zu bereinigen wäre ein viel zu hoher Aufwand. Mit Data Intelligence aber können die Datenströme zusammengebracht, geordnet und an die Analyse-Tools weitergeliefert werden.

Ein weiterer Use Case betrifft den Bereich Corporate Finance: Möchte ein Hersteller zum Beispiel seinen Umsatz im nächsten Jahr prognostizieren, lassen sich eine Vielzahl von Daten nutzen. Zahlen zu Margen, Beständen und Verkäufen sind in verschiedenen Quellen vorhanden, je mehr Kunden ein Hersteller beliefert, auf desto mehr Statistiken kann er zugreifen. Diese Datenströme werden orchestriert und sie für eine weitergehende Finanzplanung zu Verfügung gestellt.

 

Cloud-Lizenz und Hilfe bei der Implementierung ratsam

Für die Lösung gibt es sowohl eine Lizenz für die Nutzung On Premises als auch eine für die Cloud. Das Tool On Premises zu verwenden ist jedoch weniger ratsam, weil SAP den Fokus mehr auf die Cloud Version legt. Auch braucht der komplexe Unterbau des Tools (Kubernetes Cluster) einen recht hohen Wartungsaufwand und Expertise. Mit der Cloud-Lizenz hingegen wird das System als eine SaaS-Lösung (Software as a Service) bereitgestellt und ist Teil der Business Technology Plattform. Innerhalb weniger Tage erhalten die Nutzer ein laufendes System.

Die eigentliche Implementierung ist dann aber ein Projekt, für das ein erfahrener IT-Dienstleister hinzugezogen werden sollte. Denn bevor Data Intelligence genutzt werden kann, gilt es vorab, den Business Case festzulegen und die Anforderung des Business an das System zu ermitteln. Zudem ist zu prüfen, wie die Daten aus den verschiedenen Quellen ankommen und ob die weiterverarbeitenden Tools mit diesen Formaten arbeiten können. Notwendig ist für die Implementierung ein ITIL-Prozess (Information Technology Infrastructure Libracy), also ein Framework aus einer Reihe von Prozessen, die ein effektives IT Service Management ermöglichen, und die an die Anforderungen eines Unternehmens individuell angepasst werden können.

 

Fazit

Mit der Lösung Data Intelligence lassen sich Daten aus verschiedenen Quellen orchestrieren, sodass sie von anderen Tools genutzt werden können. Seien es HR-Tools oder ein Business Warehouse – viele Systeme können unstrukturierte Daten nicht verarbeiten und können deshalb nicht ohne Weiteres alle zur Verfügung stehenden Datenquellen nutzen. Data Intelligence aber bündelt die verschiedenen Datenströme und bereitet die Datensätze ein Stück weit auf. Für Unternehmen bringt das Tool den Mehrwert, dass sie auf einfache und schnelle Weise sehr viel mehr Daten nutzen können.

Dr. Marco Schramm, CALEO Consulting GmbH

CALEO – SAP Corporate Performance Management