Data-Analytics-Strategie – Wie Unternehmen nachhaltig von Data Analytics profitieren

In der Breite nutzen bisher nur wenige Unternehmen künstliche Intelligenz (KI), oft bleibt die Entwicklung nach einem ersten Proof of Concept oder Pilotprojekt stecken. Damit sich das ändert, bedarf es einer funktionierenden Datenkultur. Vor allem gilt es jedoch, die Intelligenz an die richtige Stellen im Prozess zu bringen.

Viele Unternehmen tun sich noch schwer damit, fortgeschrittene Analysen rund um das Thema Machine Learning zu nutzen. Das hat unterschiedliche Gründe: Teilweise wurden schon erste, unbefriedigende Erfahrungen gesammelt, teilweise erscheinen die Hürden beim Datensammeln und Managen zu hoch. Schon seit vielen Jahren ist in den Fachmedien zu lesen, dass Unternehmen zunächst Transparenz in ihre Daten bringen müssen, bevor fortgeschrittene Analysen aus dem Bereich der künstlichen Intelligenz gute Ergebnisse liefern. Die Diskussion um KI hat zunächst suggeriert, dass Unternehmen einfach ohne viel Aufwand mit KI-Werkzeugen loslegen können. Allerdings hat sich daraus bei weitem nicht immer ein Nutzen entwickelt. 

Zu den häufigsten technischen Hürden für Data Analytics gehören eine schlechte Datenqualität, inkonsistente Daten oder grundsätzliche Probleme, die mit einer verstreuten, heterogenen Datenlandschaft einhergehen. Es gibt aber noch eine andere Instanz, die über den Erfolg von KI- und Analytics-Projekten entscheidet, und das ist der Mensch. Es muss an einigen Stellschrauben gedreht werden, damit Mitarbeiterinnen und Mitarbeiter überhaupt innovativ und angstfrei damit arbeiten möchten. 

Datenkultur hat vor allem mit Menschen zu tun. Es ist eine komplett neue Fehlerkultur nötig, denn es geht immer wieder darum, Neues auszuprobieren, Ideen für Optimierung zu entwickeln und sich an optimale Lösungen heranzutasten. Immer wieder werden durch Data Analytics Fehler identifiziert, die schon lange und vielleicht auch aktuell gemacht werden. In der Folge wird häufig aus reinem Selbstschutz die ganze Technologie abgelehnt. Die neue Fehlerkultur sollte also alte Fehler verzeihen und Mitarbeitende nicht für Fehler der Vergangenheit abstrafen. Stattdessen gilt es, einen guten gemeinsamen Weg zu finden, die Fehler abzustellen. Doch vor allem ist eine Strategie gefragt, um eine neue Datenkultur aufzubauen. 

Anzeige

Damit zum Beispiel die Bereitschaft wächst, Daten sauber zu pflegen, sollten möglichst viele Mitarbeitende möglichst schnell erste Erfolge durch Data Analytics erleben. Deshalb ist es sinnvoll, am Anfang des Kulturwandels mit Projekten zu beginnen, die schnellen Nutzen bringen. Dazu zählen beispielsweise Bedarfsprognosen im Lager. Wenn Bedarfe täglich verbucht werden, sobald sie anfallen, statt wie oft üblich erst am Ende einer Woche oder sogar eines Monats, dann verbessert sich die Qualität der Prognosen innerhalb kürzester Zeit. So entsteht Transparenz darüber, welche Teile zum Beispiel nachbestellt werden müssen, damit keine ärgerlichen Nachschublücken entstehen. Im anderen Extremfall wird das Anhäufen von teuren und sinnlosen Überbeständen vermieden.

Einen Data-Science-Workflow aufbauen. Die Verantwortung für Data Analytics sollte immer auf Topmanagement-Ebene angesiedelt sein, denn Data Analytics tragen zu Innovationen bei, die das komplette Geschäftsmodell betreffen. Ganz wichtig ist zudem: Für eine gelingende Datenkultur braucht es immer Menschen, die sich für das Thema Data Analytics verantwortlich fühlen und es vorantreiben. Deshalb ist gilt es gleich zu Beginn eines Projekts festzulegen, wer im Unternehmen, am besten sogar abteilungsübergreifend, dafür verantwortlich ist. Ohne klare Verantwortung schläft die Entwicklung zum einen oft rasch wieder ein, zum anderen fehlt der Sparringspartner für externe Spezialisten.

Die Erfahrung zeigt zudem, dass viele Projekte in der Vergangenheit gescheitert sind, weil eine klare Vorstellung fehlt, was genau mit Data Science erreicht werden soll. Es ist also erfolgsentscheidend, gleich im ersten Schritt gemeinsam mit den Stakeholdern zunächst das eigentliche Problem umfassend zu verstehen. Zwar kommen Unternehmen oft mit einer Fragestellung und zum Beispiel dem Wunsch nach einer Prognostik auf Experten zu. Allerdings reicht es nicht aus, das Projektergebnis zu erreichen: Das Unternehmen muss auch wissen, wie es mit validen Prognoseergebnissen umgehen soll. Beispielsweise lassen sich die Kapazitäten, die nach einer Kapazitätsprognose in den nachfolgenden Bereichen gebraucht werden, nicht einfach variieren. Stattdessen sind hier ebenfalls eine konkrete Umsetzungsplanung und ein Verständnis für den gesamten Anwendungsfall nötig.

Anzeige

Ergebnisse in den operativen Prozess bringen. Ohne die vollintegrierte Rückführung der Ergebnisse in die operativen Systeme bringt in den meisten Fällen selbst das beste Projekt nichts. Prognosewerte oder Optimierungsergebnisse müssen an der richtigen Stelle nahtlos in den digitalen Prozess einfließen und als Grundlage für weitere Schritte dienen. Maßgabe sollte dabei sein, die Lösungen komplett in die aktuelle IT-Landschaft zu integrieren, anstatt neue Inseln oder Silos zu schaffen. Ein Beispiel: Eine intelligente Preisoptimierung, die Abverkaufsprognosen einbezieht, muss die Ergebnisse zurück ins ERP-System spielen, damit die jeweiligen Preise in der Filiale oder im Online-Handel gesetzt und gesteuert werden können. In einer Excel-Liste oder einem anderen System bringt sie wenig.

Cloud-Plattformen und deren Services beschleunigen Data-Analytics-Projekte heute ganz erheblich. Mit den Data & AI Services der Cloud-Plattform Azure von Microsoft lassen sich beispielsweise deutlich schneller und automatisierter mathematische Modelle zusammenfügen. Zwar bleibt in der Designphase fundiertes Fachwissen weiterhin notwendig, doch es entfällt sehr viel kleinteilige Arbeit zum Beispiel beim manuellen Manipulieren von Prognosemodellen. Dadurch kann viel Zeit bei typischen Data-Science-Aufgaben eingespart werden – das erlaubt es auch kleineren Unternehmen, aufgrund von deutlichen Effizienzsteigerungen von KI zu profitieren. Insbesondere bei den sogenannten Cognitive Services helfen standardisierte Dienste: Ohne großen Programmieraufwand können beispielsweise Funktionen wie Bild-, Gesichts- oder Spracherkennung, die jeder vom Smartphone kennt, relativ einfach auch innerhalb intelligenter Use Cases in die Unternehmenswelt integriert werden. 

Technologieplattform richtig auswählen. Als Grundlage dafür eignet sich am besten eine durchgängige Cloud-Plattform, die alle Bereiche verbindet. Die Microsoft-Azure-Plattform bietet sich als Industriestandard an. Hier sind Hunderte von Services verfügbar, die ineinander greifen und je nach Use Case und Unternehmen zusammengestellt werden können, dabei jedoch immer eine einheitliche Datenarchitektur bilden. Vor allem für die Unternehmen, die noch keine eigenen Architekturen wie Data Warehouses oder Data Lakes aufgebaut haben, wird der Einstieg über solche Cloud-Plattformen deutlich einfacher. Mit Synapse gibt es jetzt zudem einen Analysedienst, der Datenintegration, Data Warehousing und Big-Data-Analysen verbindet. Auf dieser Basis sind individuelle Datenabfragen möglich, die Allokation der Rechenkapazitäten erfolgt dabei automatisch im Hintergrund. Damit lassen sich über eine Oberfläche sämtliche Aufgaben rund um Datenerkundung, -aufbereitung und Visualisierung im Rahmen von Machine Learning oder BI erledigen.

Durchgängige, zentrale Datenplattformen, die als Single Source of Truth dienen, helfen vor allem dabei, Abteilungsdatensilos zu überwinden. Das wird umso wichtiger, je stärker ein Unternehmen Ende-zu-Ende-Prozesse im Sinne seiner Kunden entwickeln möchte, denn die machen nicht an den Abteilungsgrenzen Halt. Transparenz darüber, welche Daten im Unternehmen vorhanden sind, trägt zudem zur Innovation bei. Anhand von Datenkatalogen können die Mitarbeiter und Mitarbeiterinnen sehen, welche Informationen es aus anderen Bereichen gibt, die bei einer Fragestellung zu besseren Ergebnissen führen könnten. Eine Mindestunternehmensgröße gibt es für den Aufbau einer Data-Analytics-Strategie nicht, das zeigt die Praxis: Es gibt immer mehr kleine und mittlere Unternehmen, die auf der Basis ihres Wissens aus den Daten erfolgreich ihre Business-Modelle umschreiben und ihre Kunden dabei stärker in den Mittelpunkt stellen.

 


Maximilian Heppel,
Business Development Manager
bei der COSMO CONSULT Data & Analytics GmbH

 

 

Illustration: © Bakhtiar Zein/shutterstock.com

 

1386 Artikel zu „Data Analytics“

Gut kombiniert: Data Analytics-Anwendungen mit künstlicher Intelligenz – KI-gestützt in die Zukunft

Datenanalysen gestützt durch künstliche Intelligenz (KI) stehen hinsichtlich ihres Einsatzes noch am Anfang. Doch es zeichnet sich bereits ab, dass beide immer mehr Bereiche des Geschäftsalltags erobern werden. Manage IT hat Philipp Kleinmanns, Abteilungsleiter Business Innovation bei Materna, befragt, inwieweit moderne Datenanalyse-Anwendungen und KI-Prozesse das Geschäft revolutionieren könnten.

Robuste und widerstandsfähige Lieferketten: So hält Data Analytics die Supply Chain am Laufen

Die rasche Verbreitung von Covid-19 hat viele Lieferketten unter Stress gesetzt. Hamsterkäufe und Produktionsstopps angesichts fehlender Rohstoffe machten es schwer, die Nachfrage der Märkte zu erfüllen. Da viele Branchen von Lieferungen aus anderen Ländern abhängig sind, müssen Entscheidungsträger in der Lage sein, schnell Anpassungen an der Supply Chain vorzunehmen. Dies funktioniert jedoch nur, wenn verlässliche…

IT-Trends 2020: Hybrid Cloud, Predictive Data Analytics und Nachhaltigkeit bestimmen die Agenda

Zum Ende des Jahres wird es Zeit, die Technologien und Ansätze ins Auge zu fassen, die 2020 die Unternehmens-IT beeinflussen werden. Sage hat fünf Trends identifiziert, mit denen sich Entscheider und Entwickler vermehrt beschäftigen sollten, um Effizienz und Wettbewerbsstärke voranzutreiben. Hybrid Cloud, Data Analytics, DevOps, energieeffiziente Software und Security by Design sind, so Oliver Henrich,…

Advanced, predictive, preventive: Data Analytics – Trend oder Zukunft?

Die Themen Digitalisierung und Big Data stehen bereits seit Jahren auf der »To-do-Liste« der Unternehmen und sind auch in den Fachmedien mehr als präsent. Allerdings steckt die Umsetzung in der Realität bei vielen Unternehmen noch in den Kinderschuhen. Das Potenzial, das Daten bieten, ist häufig nicht auf den ersten Blick ersichtlich. Erst durch eine detaillierte Analyse der Daten lassen sich diese optimal nutzen. Mittlerweile eröffnen sich hier mit Data Analytics ganz neue Möglichkeiten.

Fünf Vorurteile über Data Analytics

Die Entwicklungen von Big Data, Machine Learning und künstlicher Intelligenz werden 2019 wieder zu einem spannenden Jahr machen. Dank der Zukunftstechnologien gewinnt vor allem die Datenanalyse an Fahrt und Unternehmen werden noch weniger um die effektive Auswertung ihrer Informationen herumkommen. Manch einer tut sich aber schwer mit dieser neuen, tragenden Säule im Geschäftsalltag. IT-Experten sehen…

»Data Analytics«-Markt: Machine Learning – Preise sinken, die Produktreife steigt

»Machine Learning as a Service« ist zu einem umkämpften Markt geworden, in dem sich nahezu alle wichtigen IT-Provider positionieren. Sie müssen die Funktionen, zugrundeliegenden Algorithmen und Modelle dabei qualitativ wie quantitativ schnell weiterentwickeln, um Marktanteile und Kunden zu gewinnen. Dies stellt der neue große Anbietervergleich »ISG Provider Lens Germany 2019 – Data Analytics Services &…

Data Analytics in der Praxis – 7 Beispiele für erfolgreiche BI- und Big-Data-Projekte

  Angesichts sich immer schneller ändernder Rahmenbedingungen ist die Bedeutung von Datenanalyselösungen rapide gestiegen. Unternehmen müssen in immer kürzerer Zeit immer weitreichendere Entscheidungen treffen. Dazu brauchen sie einen verlässlichen Datenbestand, der einerseits alle Informationen der Organisation enthält und andererseits rasch und unkompliziert ausgewertet werden kann. Die nachfolgenden, branchenübergreifenden Praxisbeispiele zeigen, wie Unternehmen Daten systematisch analysieren…

Robotik, KI, AVs, Blockchain, Big Data Analytics und Sensoren krempeln die traditionelle Lieferkette um

95 % der Unternehmen noch nicht in der Lage, Vorteile der Digitalisierung für Supply Chains voll auszuschöpfen. Neue Technologien entwickeln sich so rasant, dass Schritthalten für Unternehmen schwierig ist. Mehr als 75 % erkennen potenzielle Vorteile von Informationstechnologie zur Kostenreduzierung, scheitern jedoch bei Implementierung an internen Hürden.   Der Report von DHL zur Digitalisierung in…

Big Data Analytics – Aus Rohdaten wird Gewinn

Verborgene Schätze – Sensoren, Maschinenlogs, SAP-Daten, Remote-Plattformen oder andere Quellen liefern jeden Tag enorme Datenmengen. Sie bleiben häufig ungenutzt. Die Herausforderung ist es, diese Big Data so aufzubereiten, dass man daraus Werte schaffen kann – auf der Kosten-, der Risiko- und vor allem der Wachstumsebene.

Big Data und Data Analytics: Schritt für Schritt zur eigenen Infrastruktur

Big Data und Data Analytics gehören zu den Kernthemen, mit denen sich Unternehmen heute im Rahmen der Digitalisierung ihrer Geschäftsmodelle auseinandersetzen. Externe Unterstützung in der Vorbereitungs- und Aufbauphase hilft Unternehmen, schnell und zielgerichtet eigene Strukturen aufzubauen, um Daten zur Wertschöpfung nutzen zu können. Big Data ist für die Mehrheit der Unternehmen inzwischen ein relevantes Thema,…

Big Data Analytics: So wird jeder Tag zum Black Friday

Vier Ansätze, wie Händler mit Big Data ihre Umsätze steigern. In den letzten Jahren sind Diskussionen über den Erfolg des Black Friday aufgekommen. Gründe dafür waren erste Angebote schon Tage vor dem Verkaufs-Freitag und schließlich die Erkenntnis, dass die Schnäppchen gar nicht so günstig sind, wie sie von den Unternehmen beworben werden. Dazu hat sich…

Data Analytics wird in den kommenden fünf Jahren zum kritischen Faktor für die Industrie

Studie zeigt: Trotz des Mangels an Fachleuten sehen die Unternehmen in Data Analytics ein erhebliches wirtschaftliches Potenzial. Industrial Analytics, also die Auswertung der in der Industrie über den Lebenszyklus der Produkte anfallenden Daten, führt in der öffentlichen Wahrnehmung ein Nischendasein. Doch im Rahmen der digitalen Transformation ist es für die Industrie von vitaler Bedeutung, wie…

Consulting 4.0: Data Analytics verändert die Beratungswelt

Bei Managementberatungen besteht Aufholbedarf in der Nutzung von Business-Intelligence-Software. Einsatz analytischer Software wichtiger Erfolgsfaktor für Beratungsangebote rund um die digitale Transformation. Managementberater erwarten, durch analytische Software den Zeitaufwand in der Analyse- und Umsetzungsphase zu halbieren. Egal ob im Vertrieb, der Fertigung oder in sozialen Netzwerken – heute werden überall Daten gesammelt und das Datenvolumen steigt…

Elastische Visibilität und Analytics für alle Data-in-Motion – Die Visibilitätslücke beseitigen

Durch Home Office, Hybrid-Cloud-Netzwerke und unkontrollierten Datentransfer hat sich die Sicherheitslage in den meisten Unternehmen verkompliziert. Olaf Dünnweller, Senior Sales Director Central Europe bei Gigamon erklärt, warum Visibilität über die gesamte Architektur der Schlüssel zum Erfolg ist.