Big Data und Data Analytics gehören zu den Kernthemen, mit denen sich Unternehmen heute im Rahmen der Digitalisierung ihrer Geschäftsmodelle auseinandersetzen. Externe Unterstützung in der Vorbereitungs- und Aufbauphase hilft Unternehmen, schnell und zielgerichtet eigene Strukturen aufzubauen, um Daten zur Wertschöpfung nutzen zu können.
Big Data ist für die Mehrheit der Unternehmen inzwischen ein relevantes Thema, denn Datenanalyse wird zunehmend als wichtiger Beitrag zur Wertschöpfung gesehen. Wer es versteht, mit Hilfe von Data Analytics aus großen Datenmengen Erkenntnisse abzuleiten, kann bessere Entscheidungen treffen und Risiken frühzeitig erkennen. Effizientere datengetriebene Lösungen in Produktion, Supply Chain Management und Logistik sowie weit genauere, personalisierte Kundenansprachen, verhelfen Unternehmen, zu einem Wettbewerbsvorteil. In einer Erhebung von Bitkom Research und KPMG [1] gaben 36 Prozent der Befragten an, Big Data bereits zu nutzen, weitere 42 Prozent planten die Einführung oder diskutierten darüber.
Externe Unterstützung wird vor allem beim Aufbau von Data Analytics benötigt
Wo liegen die Herausforderungen beim Einsatz von Data Analytics, in welchen Phasen und für welche Aufgaben sollten sich Unternehmen Hilfe suchen? Technisch ist es kein Problem mehr, große Datenmengen sicher zu speichern und in hoher Geschwindigkeit auszuwerten. In riesigen Data Lakes lassen sich selbst unstrukturierte oder polystrukturierte Daten auf Vorrat zur späteren Auswertung ablegen. Unternehmen können also selbst alle notwendigen Informationen wie Bewegungs-, Transaktions- und Maschinendaten erfassen. Zur Speicherung und Analyse stehen Tools, wie etwa Hadoop, Spark, R etc., als Open-Source-Anwendungen zur Verfügung.
In der eingangs erwähnten Studie wurde auch untersucht, für welche Aufgaben externe Partner eingeschaltet werden: Die Datensammlung erledigen 82 Prozent der Befragten vollständig intern; bei der Speicherung, Aufbereitung und Visualisierung der Daten liegt der Anteil der internen Leistung jeweils über 60 Prozent. Mehr Hilfe brauchen die befragten Unternehmen aber bei der Vorbereitung: Für Aufbau und Design von Datensystemen greifen rund 60 Prozent auf externe Unterstützung zurück.
Der erste Schritt: Die passenden Big-Data-Anwendungen finden
Erfahrungsgemäß haben Unternehmen, wenn sie nach Beratung und Unterstützung für Big Data fragen, noch gar keine konkrete Anwendung im Fokus. Um wirklich Nutzen aus der Datenanalyse zu ziehen, ist es jedoch entscheidend, jeweils zum Unternehmen passende und erfolgversprechende Anwendungen zu finden. Die erste Aufgabe ist es also, herauszufinden, welche Erkenntnisse aus Datenanalysen dem Unternehmen mit seinem spezifischen Geschäftsmodell helfen würden. Für viele Unternehmen ist gerade das sehr schwierig und unübersichtlich, da die Technologie noch neu ist und auch die Spezialisten im eigenen Hause fehlen. Werden bereits in dieser frühen Phase externe Berater und Partner, wie beispielsweise Spectrum AG, eingeschaltet, lassen sich Fehler vermeiden und wertvolle Zeit sparen.
Dabei hat sich ein Stufenmodell bewährt: Nach einem Überblick zu den Möglichkeiten von Data Analytics und einer gemeinsamen Ideensammlung, meist mit der Führungsebene, sucht man in Workshops mit den einzelnen Fachbereichen nach konkreten Fragestellungen. Dabei wird auch überprüft, in welcher Qualität die Daten vorliegen und ob es sich tatsächlich um Fragestellungen für Data Analytics handelt. In der Regel verbleiben dann 4 bis 5 Anwendungen. Häufige Fragestellungen sind zum Beispiel:
- Analysen zur Optimierung der Customer Journey
- Next best offer: Basierend auf Daten zu bisherigen Einkäufen können Angebote ermittelt werden, die für bestehende Kunden mit hoher Wahrscheinlichkeit auch interessant sind
- Reduzieren der Kundenabwanderung (Churn reduce): Hier gilt es zunächst zu analysieren, welche Kunden mit hoher Wahrscheinlichkeit demnächst kündigen wollen, um nur dieser Zielgruppe neue oder erweiterte Angebote zu unterbreiten
- Aufdecken von Betrugsversuchen: Es geht darum, neue Muster zu finden, aber auch bestehende Annahmen zu überprüfen
- Prozessoptimierung: Mit Hilfe von Datenaufzeichnungen lassen sich Abweichungen vom eigentlichen Prozess aufdecken. Vorgänge dauern zum Beispiel in der Realität länger als in der Planung vorgesehen, wenn an bestimmten Stellen regelmäßig Rückfragen notwendig werden. Basierend auf der Datenanalyse können dann die Prozesse so angepasst werden, dass die benötigten Informationen parallel erhoben werden und rechtzeitig vorliegen.
Use Case und Pilotprojekt
Im nächsten Schritt wählt man aus den so identifizierten Fragestellungen einen Use Case zur Durchführung eines Pilotprojekts. Im Falle einer Versicherung zum Beispiel sollte als Pilotanwendung eine effizientere Methode zur Rechnungsüberprüfung entwickelt werden. Die Ausgangssituation: Im Rahmen der Zusammenarbeit mit zahlreichen Partnerfirmen fielen jährlich über 1,5 Millionen Einzelrechnungen an, nicht alle davon waren richtig ausgestellt. Da eine Überprüfung aller Rechnungen aufgrund der Datenmenge nicht umsetzbar war, wurden, neben einer Standardprüfung einiger typischer Fehlerquellen, manuell etwa 12 Prozent der Rechnungen nach dem Zufallsprinzip ausgewählt. Letztlich erwiesen sich nur etwa 1,2 der so untersuchten Fälle als fehlerhaft. Der Aufwand war also im Vergleich zum Ergebnis zu hoch. Im Data-Analytics-Pilotprojekt sollte das Zufallsprinzip durch einen datenbasierten Algorithmus ersetzt werden, sodass bei gleichem Aufwand eine höhere Trefferquote erreicht würde. Die Berater analysierten dazu die Daten nach mehreren Kriterien wie Sparten, Regionen, Vertragsausprägungen und Informationen der Partnerfirmen. Im Ergebnis wurde ein komplexes mathematisches Modell entwickelt, um Rechnungen zur manuellen Überprüfung herauszufiltern. Von diesen erwiesen sich etwa 40 Prozent als fehlerhaft.
Aufbau der eigenen Data-Analytics-Infrastruktur: Lab-Factory-Ansatz
Hat sich ein Unternehmen – meist nach einem erfolgreichen Pilotprojekt – entschlossen, Data Analytics fest in sein Geschäftsmodell zu integrieren, so bietet sich als nächster Schritt der Aufbau einer Lab-Factory-Struktur an. Die Trennung in dieser zwei Bereiche ist wichtig, da beide unterschiedliche Aufgaben haben: Im Labor geht es darum, verschiedene Fragestellungen zu untersuchen und auch zu experimentieren. Dazu sollten alle Daten und Tools schnell verfügbar und für alle Beteiligten direkt zugänglich sein. Nach erfolgreichen Tests, etwa in Form eines Prototypens, werden geeignete Anwendungen zur Umsetzung in die Factory beziehungsweise Produktion übergeben. Hier kommt es dann vor allem auf stabile und effiziente Prozesse, Datensicherheit und Skalierbarkeit an.
Parallel ist die Aufgabe zu lösen, wer das neue Aufgabenfeld künftig betreut. In größeren Unternehmen geht die Entwicklung bereits dahin, dass Chief Data Officers (CDO) berufen werden. In jedem Fall muss ein Team aufgebaut werden. Da Data Scientists derzeit zu den gefragtesten Spezialisten gehören und schwer zu finden sind, wird es in den meisten Fällen auf eine Kombination aus dem Gewinnen neuer Fachkräfte und dem Upskilling der eigenen Mitarbeiter hinauslaufen. Auch hier kann ein externes Unternehmen durch Fachkräftebeschaffung, ergänzendes Training und spezielle Upskilling-Initiativen wirkungsvoll unterstützen.
Letztlich wird das Unternehmen nach gründlicher Vorbereitung und externer Unterstützung bei der Vorbereitung und dem Aufbau eines Data-Analytics-Systems, in der Lage sein, die Datennutzung selbstständig weiterzuentwickeln und auch für künftige Wertschöpfung gewinnbringend einzusetzen.
Christian Laus, Leiter Big Data & Data Analytics, SPECTRUM Financial IT-Services GmbH & Co. KG
[1] KPMG/Bitkom Research. Pressekonferenz »Mit Daten Werte schaffen«. Berlin, 10. Juni 2016, S.8
Hier folgt eine Auswahl an Fachbeiträgen, Studien, Stories und Statistiken die zu diesem Thema passen. Geben Sie in der »Artikelsuche…« rechts oben Ihre Suchbegriffe ein und lassen sich überraschen, welche weiteren Treffer Sie auf unserer Webseite finden.
Data Analytics wird in den kommenden fünf Jahren zum kritischen Faktor für die Industrie