Advanced Analytics und eine neue Rolle im Unternehmen

Illustration: Absmeier, xresch

Werden Big-Data-Projekte beschrieben, überwiegen üblicherweise technische Aspekte wie die Art der Datenbank, die Analytics-Software, die Schnittstellen und die Visualisierungslösungen. Gelegentlich wird als Voraussetzung für den Erfolg von Projekten im Bereich von Big Data Analytics außerdem ein kulturelles Umdenken im Anwenderunternehmen erwähnt. Das ist soweit richtig, unterschlägt jedoch einige Aspekte.

Der Top-Down-Ansatz ist empfehlenswert

Für Big-Data-Projekte empfiehlt sich oft ein Top-Down-Ansatz. Ziel eines Top-Down-Ansatzes ist, dass von der Unternehmensleitung über die Fachabteilung bis zur IT alle Beteiligten nicht nur an einem Strang ziehen – sondern auch in die gleiche Richtung. Die notwendigen Geschäftsprozesse werden entwickelt oder umgeformt. Auch an die Entwicklung von geeigneten Datenmodellen wird gedacht. Die Datenmodelle entsprechen idealerweise nicht nur dem konkreten Analysemodell, sondern sorgen auch für die Weiterverwendbarkeit der Daten in anderen Analytics-Projekten, in Corporate Data Pools und Industrial Data Pools.

Solche Data Pools sind übrigens eine sinnvolle Erfindung. Unternehmen können sich Daten, die durch eigene Analysen schon »ausgelaugt« sind, ein weiteres Mal monetarisieren. In Japan haben sich Anwender aus verschiedenen Branchen schon zu solchen Initiativen zusammengeschlossen. Für einen vierstelligen Betrag im Jahr können sie in den Daten anderer Unternehmen stöbern. Mit diesen Daten könnten Unternehmen die Zeit sparen, die sonst beispielsweise für eine aufwändige Kundenbefragung erforderlich wäre. Im Big Data Pool könnten die Versanddaten oder Statistiken anderer Unternehmen, durchaus auch Wettbewerbern, liegen. im Idealfall schließen sich Unternehmen hier zusammen und legen die Regeln für die Daten fest.

Datenverantwortliche werden immer wichtiger

Nicht nur im Zusammenhang mit Daten-Pools (ob nun hausintern, branchenübergreifend oder offen) wird eine Rolle immer wichtiger: Die der Datenverantwortlichen. Datenverantwortliche werden im Big-Data-Zeitalter nicht nur Einhaltung der DSGVO und anschließender Bestimmungen beachten müssen, sie sind auch für die Monetarisierung der Daten verantwortlich. Monetarisierung ist auch keine Einbahnstraße, denn für Advanced-Analytics-Projekte müssen oft auch externe Daten eingekauft oder eben einem Pool entnommen werden. Datenverantwortliche bekommen eine Rolle, die sich über verschiedene Unternehmensbereiche erstreckt und deshalb nicht allein von Admin & Management, der Fachabteilung oder der IT allein übernommen werden kann, wenngleich die Person für alle Bereiche zumindest ein Verständnis haben muss.

Wichtige Fragestellungen

Haben die Daten im Unternehmen ein einheitliches Format, beziehungsweise gibt es ein übergreifendes Metadatenformat, das alle im Unternehmen anfallenden Daten erfassen und darstellen kann? Befinden sich die Daten an einem einheitlich zugreifbaren Speicherort, der gegebenenfalls Cloud-Speicher ist? Ist bekannt, welche Nutzergruppen im Haus auf diese Daten zugreifen oder zugegriffen haben? Welche Daten wurden im definierten Zeitraum nicht genutzt? Stammen die Daten aus vertrauenswürdigen Quellen, insbesondere wenn die Daten eingekauft werden? Liegen die Informationen auch für die automatisch auf Daten zugreifende Systeme vor? Wie können diese Daten verwertet werden? Welche Maßnahmen der Normalisierung, Neutralisierung oder Pseudonymisierung, nicht nur personenbezogener Daten, sind vor einer weiteren Verwertung anzuwenden? – Dies sind nur einige zu stellende Fragen. Diese Fragen gelten nicht nur für verfallene Daten, sondern sie müssen genauso auf die aktuell genutzten Daten angewendet werden.

Fazit

Die Monetarisierung von Daten über ihre ursprüngliche Nutzung hinaus benötigt also eine neue Rolle, die nicht unbedingt von vorhandenen Rollen wie dem Datenbankadministrator oder anderen IT-Mitarbeitern, dem CDO, dem Datenschutzbeauftragten und auch nicht in Einkauf oder Vertrieb »am Rande der regulären Tasks« mitbewältigt werden kann. Die Rolle sollte bereichs- und standortübergreifend geplant werden.

Big Data Analytics liefern somit nicht nur durch ihre neuen Erkenntnisse einen Mehrwert, sondern die Daten selbst können monetarisiert werden – am einfachsten durch Datenverantwortliche – eine neue Rolle, die noch nicht in vielen Unternehmen verankert ist.

Holm Landrock, ISG

 


Big Data Analytics – Aus Rohdaten wird Gewinn

Verborgene Schätze – Sensoren, Maschinenlogs, SAP-Daten, Remote-Plattformen oder andere Quellen liefern jeden Tag enorme Datenmengen. Sie bleiben häufig ungenutzt. Die Herausforderung ist es, diese Big Data so aufzubereiten, dass man daraus Werte schaffen kann – auf der Kosten-, der Risiko- und vor allem der Wachstumsebene.

Die Erkenntnis, dass Datenanalysen in allen relevanten Bereichen eines Unternehmens einen Mehrwert bieten können, hat sich inzwischen bei den meisten Organisationen durchgesetzt. Es geht etwa darum, Fehler frühzeitig zu erkennen, vor Geschäfts- und Marktrisiken zu warnen, das Geschäftsmodell um neue datengetriebene Services zu erweitern oder die Qualität in der Produktion zu verbessern. Doch wie lassen sich die verfügbaren Massendaten transformieren und in strukturierte, intelligente Informationen, sogenannte Smart Data, umwandeln? In welchen Prozessen steckt verborgenes Potenzial? Welche Methodik, welcher Anwendungsfall verspricht Erfolg? Welches Know-how und welche Tools werden benötigt? Sind diese im Unternehmen vorhanden oder sollte man die Expertise von spezialisierten Anbietern nutzen?

Daten und Datenanalysen unterstützen viele wichtige Unternehmensentscheidungen. Subjektive Entscheidungsfindungen auf der Grundlage von Erfahrung und Bauchgefühl werden immer häufiger durch objektive, datenbasierte Erkenntnisse ersetzt oder zumindest ergänzt. Es ist in der Praxis jedoch alles andere als trivial, aus Daten einen erkennbaren und planbaren Nutzen zu ziehen. Es kommt dabei auf die Menge der richtigen Daten, die darauf angepasste Analyse und besonders die qualitätsgesicherte Bedeutung an, um den Wert der extrahierten Daten flexibel für individuelle Einsatzszenarien auszuschöpfen.

Die bessere Steuerung der operativen Prozesse, die Entwicklung neuer Ideen sowie bessere Entscheidungen sind die wichtigsten Gründe für den Einsatz von Big Data Analytics.

Die bessere Steuerung der operativen Prozesse, die Entwicklung neuer Ideen sowie bessere Entscheidungen sind die wichtigsten Gründe für den Einsatz von Big Data Analytics.

Erfolgskritisch hierfür ist mathematisches Know-how, das in Kombination mit Expertenwissen über etwa Druckmaschinen mittels komplexer Algorithmen bisher unentdeckte Informationen sichtbar macht. Hierbei ergänzen sich die datenbasierte Analyse eines Data Scientisten und das erfahrungsbasierte Know-how des Maschinenexperten, um die Bedeutung neuer Erkenntnisse qualitätsgesichert zu erarbeiten. Ob dies durch externe Unterstützung oder den Aufbau einer neuen Abteilung entsteht, hängt von drei wesentlichen Faktoren ab: Kapazität, Zeit und Kosten. Nach dem Motto »Think big, start small, gain fast« wird im Folgenden ein Ansatz skizziert, bei dem es mit externer Unterstützung gelingt, einen ersten Anwendungsfall rasch zu erarbeiten und umzusetzen – mit wenig Aufwand und geringen Kosten. Dies funktioniert in vier einfach zu erklärenden Schritten:

1.  Use Case − was soll optimiert werden? Der externe Data Scientist erarbeitet interaktiv mit dem Maschinen-Experten den ersten Use Case zur individuellen Verbesserung. Dies kann beispielsweise das Detektieren von anomalen zeitlichen Verläufen physikalischer Messgrößen sein. Oder das Auffinden von Korrelationen zwischen Ereignissen in Logdaten. In einem ersten Gespräch wird erörtert, welche Fehler oder Störungen datenbezogen gesichtet werden sollen und wo es Optimierungsbedarf gibt. Die anschließende Untersuchung und Begutachtung der Daten wird von Seiten dieses Teams beispielhaft aufgearbeitet und verfeinert. Das Ergebnis dieses wichtigen Schritts ist die Business-Value-Definition unseres ersten Anwendungsfalls.

2. Prototyp − funktioniert es? Nun folgt der Schritt der Datenvorbearbeitung: der Data Scientist bereitet die Daten speziell für den Anwendungsfall auf. Hierbei werden beispielsweise Offsets korrigiert und falsche Sensorwerte (Öltemperatur unter Null in einer beheizten Halle) eliminiert. Dies ist insbesondere wichtig, um ungewünschte Seiteneffekte in der anschließenden Analytics zu vermeiden. Jetzt entwickelt er den individuell angepassten Algorithmus, beispielsweise aus den Bereichen des maschinellen Lernens oder der kognitiven Intelligenz. Muster, Unregelmäßigkeiten und Ausreißer werden somit identifiziert und bislang unbekannte Kausalzusammenhänge aufgezeigt. Die Basis zur Optimierung ist jetzt geschaffen.

Die Basis zur Optimierung schaffen: Muster, Unregelmäßigkeiten und Ausreißer werden identifiziert und bislang unbekannte Kausalzusammenhänge aufgezeigt.

Die Basis zur Optimierung schaffen: Muster, Unregelmäßigkeiten und Ausreißer werden identifiziert und bislang unbekannte Kausalzusammenhänge aufgezeigt.
Quelle: USU

3. Umsetzung − ab in die Praxis! Es folgt die Transformation auf die Big-Data-Plattform. Dazu migriert der Data Engineer den prototypisch entwickelten Algorithmus, so dass dieser performant und zuverlässig auch auf große Datenmengen angewandt werden kann. Durch die abschließende Integration in die Wertschöpfungskette wird das in Schritt eins festgelegte Ziel erreicht. Neue Geschäftsmodelle entstehen sehr oft dadurch, dass Daten, die ohnehin in Massen verfügbar sind, in einen neuen Kontext gestellt und auf neuartige Weise verknüpft werden. So kann man beispielsweise durch Peer-Group-Vergleiche erkennen, wo der Wertstromprozess verbessert werden kann. Dabei ist es notwendig, die Topentscheider einzubinden, denn die Strategie muss sich nach den Firmenzielen richten – und diese werden von der obersten Ebene ausgegeben.

4. Anwendung − Gewinn einholen! Die Wertschöpfung wird erst dann realisiert, wenn die Zielgruppe den gewählten Anwendungsfall als erfolgreich annimmt. Und genau so entstehen gewinnbringende Smart Services: Beispielsweise ist der Servicebereich durch Predictive Maintenance jetzt in der Lage, frühzeitig Fehler zu erkennen und dadurch eine proaktive Handlungsempfehlung auszusprechen. Diese führt unmittelbar zur Steigerung der Produktivität und Risikominimierung. Oder mittels Peer-Group-Vergleich konnte die Basis geschaffen werden, einen Beratungsansatz zur Performance-Steigerung anzubieten, mit dem Ziel der Effizienzsteigerung des Wertstromprozesses und Qualitätsverbesserung in der Produktion. Hierbei sind aus der Erfahrung heraus durchaus Steigerungen von 40 Prozent OEE (Overall Equipment Effectiveness) erreichbar. Um das Gesamtziel zu erreichen, erarbeitet das Team auf diese Weise sukzessive Use Case für Use Case. Und durch Know-how-Transfer entsteht – quasi als Nebeneffekt – die neue interne Abteilung für Big Data Analytics.

Lessons Learned. Neue Smart Services müssen implementiert werden und sich etablieren. Wichtig bei der Integration in die Wertschöpfungskette ist es, das Unternehmen auf den neuen Anwendungsfall vorzubereiten. Dabei kommt es sowohl darauf an, den Menschen mitzunehmen, dessen Arbeitsumfeld sich verändert, als auch, die Strukturen und Strategien in Vertrieb und Marketing anzugleichen.

 

Fakten zu Big Data Analytics

  • Neue Marktgesetze: »schnell gegen langsam« ersetzt »groß gegen klein«
  • Alleine oder durch externe Unterstützung hängt ab von: Kapazität, Zeit und Kosten
  • Agiles Vorgehen durch Erarbeitung und Umsetzung von klar definierten Use Cases
  • Auf dem Markt schnell mit wenig Aufwand erste Erfolge zeigen und testen
  • Erfolg entsteht durch Technik, Mensch und Wandel innerhalb des Unternehmens
  • Jetzt beginnen

 



Christine Krase ist
Business Unit Managerin
bei der USU Software AG
in Möglingen und verantwortet
den Vertrieb im Geschäftsfeld
Katana.
https://katana.usu.de

 

Illustration: © Anna_leni/shutterstock.com

 

 

 


Big Data Analytics erfordert eine verlässliche Datenbasis

Studie zu Big Data Analytics deckt Defizite und Potenziale bei der Digitalen Transformation auf

Wie positionieren sich die Anbieter von Big Data Analytics im Schweizer Markt?

Big Data und Data Analytics: Schritt für Schritt zur eigenen Infrastruktur

Big Data Analytics: So wird jeder Tag zum Black Friday

Die Trends 2017 für Analytics, künstliche Intelligenz und Big Data