Fundierte Datenstrategie und Datenanalytik – Klare Konzepte für das wichtigste Unternehmens-Asset

Auf dem Weg zum datengetriebenen Unternehmen sind sowohl eine klare Datenstrategie als auch eine bewusste Datenkultur wesentlich. Durch KI-Chatbots und neue Data-Analytics-Architekturen verändern sich die Möglichkeiten derzeit massiv. Max Heppel, Business Development Manager Data & AI beim Microsoft-Partner COSMO CONSULT erklärt, wie Unternehmen sich hier am besten aufstellen können.


Wo liegen in der Praxis derzeit die größten Herausforderungen für Unternehmen, wenn es um ihre Daten­strategie und Data Analytics geht?

Es gibt aktuell zwei Themen, mit denen sich die Unternehmen besonders stark auseinandersetzen: Das ist zum einen natürlich das Thema Large Language Models (LLM), Stichwort ChatGPT. Hier geht es um die Frage, wie und wo man LLM sicher einsetzen und damit Nutzen erzielen kann. Zum anderen ist das aber auch die unglaubliche Dynamik, mit der sich der Data-Analytics-Markt seit einiger Zeit verändert. In der Microsoft-Welt gibt es mit Microsoft Fabric bald einen völlig neuen Ansatz, mit Daten umzugehen und mehr Menschen in den Fachbereichen zu befähigen, Datenanalytik zu nutzen. Aus der Praxiserfahrung wissen wir: Der Weg zum datengetriebenen Unternehmen kann nicht ohne fundierte Datenstrategie gelingen. Diese beiden Aspekte haben jedoch einen massiven Einfluss auf die Datenstrategie und beide greifen direkt ineinander.

 

Max Heppel,
Business Development Manager Data & AI
bei COSMO CONSULT

 


Inwieweit verändern sich Data-Analytics-Technologien mit Fabric?

Anstatt wie sonst üblich getrennt, verschmelzen die Integration und Verarbeitung der Daten im Data Lake/Data Warehouse und die Analysetechnik wie Data Science, BI oder Real-Time Analytics innerhalb einer Lösung. Aus Sicht von Microsoft-CEO Satya Nadella ist die Einführung von Fabric der wichtigste Produkt-Launch seit dem SQL-Server. Noch gibt es die Lösung nur als Preview, die weitere Entwick­lung bleibt also abzuwarten.


Was verändert sich mit solchen neuen Ansätzen?

In den letzten Jahren gab es mit MS Synapse bereits die Möglichkeit, die Infrastruktur für Data Analytics zu vereinfachen. Dabei werden nach dem PaaS-Gedanken (Platform as a Service) einzelne Services in der Azure Cloud genutzt, um Daten zentral zusammenzuführen, zu verarbeiten und zu managen. Mit MS Fabric steht perspektivisch ein Architekturwechsel hin zu Software as a Service im Umgang mit Daten an. Wie schon bei Office oder Power BI brauchen sich die Nutzerinnen und Nutzer nicht mehr um die Provisionierung einzelner Services, generelle Infrastrukturfragen oder Security-Themen kümmern. Sie müssen die zugrunde liegende Infrastruktur für die Umgebungen weder integrieren, noch verwalten oder verstehen. Das lässt viel mehr Raum für die eigentliche Nutzung dieser Werkzeuge. Die Anwendung von Data Analytics wird zusätzlich noch einmal stark vereinfacht, indem Low-Code/No-Code zum Einsatz kommt. Dann können sich User beispielsweise auf einer sogenannten Canvas (Leinwand), also einer grafischen Oberfläche, die Datenstrecken selbst zusammenbauen. Im Hintergrund werden sie in Programmcode und SQL-Statements übersetzt. Hier kommen jetzt zusätzlich die Assistenztechnologien auf Basis großer Sprachmodelle ins Spiel, über die alle Anweisungen in natürlicher Sprache gegeben werden können.


Welche Veränderung entsteht, wenn die KI-Sprachfähigkeit von Large Language Models und neue Data-Analytics-Architekturen aufeinander treffen?

Seit November steht die KI-Assistenztechnologie Microsoft Copilot zum Teil schon in den Office-Anwendungen (Microsoft 365) für Enterprise-Kunden bereit. Perspektivisch wird die KI in alle Systeme wandern, etwa mit dem Dynamics 365 Copilot oder Sales Copilot. Im Bereich Data Analytics ist es in Power BI als Teil von Microsoft Fabric dann zum Beispiel möglich, den Copilot in natürlicher Sprache zu bitten, auf Basis eines vorliegenden Datenmodells für ein oder mehrere angezeigte Datensets einen Vertriebs-Report mit bestimmten Kennzahlen zu erstellen. Mit weiteren mündlichen Anweisungen kann das Ergebnis verfeinert oder verändert werden.


Welche Rolle spielen ein zentrales Stammdatenmanagement und ein Single Point of Truth für datengetriebene Geschäfts­modelle?

Bisher findet sich in den Unternehmen fast immer eine Vielzahl an Datensilos, die viele Herausforderungen mit sich bringen. Oft gibt es Probleme mit der Datenqualität und beim Zusammenführen von Daten oder Kennzahlen aus den einzelnen Silos. Mit Fabric sollen diese Limitationen überwunden werden. Im neuen Konzept werden alle Daten zentral in einem Datentopf namens One Lake gespeichert, anstatt sie mehrfach für verschiedene Zwecke abzuspeichern und an unterschiedliche Stellen zu kopieren. Dazu setzt die Technologie auf sogenannte Shortcuts, die sämtliche Datenquellen verknüpfen. Das spielt vor allem eine wichtige Rolle für Multi-Cloud-Umgebungen, die in der Praxis immer üblicher werden. Braucht die Marketingabteilung beispielsweise Sales-Daten, wird ein solcher Shortcut erstellt. Er ist als eine Art Verknüpfung zu verstehen, die ein Kopieren oder Duplizieren der Daten unnötig macht. Erst mit übergreifend definierten Daten und Kennzahlen in einer verbindlichen Quelle der Wahrheit entsteht das nötige Vertrauen in die Validität der Ergebnisse aus Data Analytics und KI.


Wie gut sind kleine und mitteständische Unternehmen beim Thema Datenanalytik heute mittlerweile aufgestellt? 

In Summe betrachtet, muss man hier sagen, dass die Reifegrade sehr unterschiedlich sind. Neben Unternehmen, die heute schon viele Potenziale ausschöpfen, treffen wir in der Praxis häufig auch auf KMU, die im Bereich Data Analytics erst wenig Funktionalität aufgebaut haben. Oft ist das Argument, dass man noch nicht so weit ist und erst einmal die Daten in den Griff bekommen oder überhaupt Daten sammeln muss. Diese Annahme verhindert allerdings, dass sich Unternehmen mit dem Nutzen beschäftigen, den sie aus ihren Daten ziehen können. An erster Stelle braucht es eine Datenstrategie, um zu wissen, wie sich beispielsweise mit den Daten Geld verdienen lässt. Teilweise sehen wir auch, dass sich Unternehmen jetzt ins Thema Large Language Models stürzen und einzelne Lösungen basteln, ohne das große Ganze im Auge zu behalten. Hier wird nicht nur Zeit und Geld in den Sand gesetzt, häufig werden dabei vor allem die Gefahren übersehen. Mit dem Einsatz einiger KI-Bots wie OpenAI wird von den Anbietern etwa das eingespeiste Wissen für die Anfragen an die KI – sogenannte Prompts – direkt als Trainingsmaterial in den Algorithmus übernommen. Damit kann im Worst Case intellektuelles Eigentum preisgegeben werden.


Ohne Strategie geht es also weder für die Zauderer noch für die Vorreiter. Wie sollten Unternehmen das Thema Datenstrategie heute angehen? 

Ganz wichtig ist ein Zielbild, das genau definiert, wie mit dem Einsatz von Data Analytics Mehrwert für das Unternehmen geschaffen werden soll, erst einmal unabhängig von Technologien. Hier ist der Fokus auf sinnvolle, mehrwertstiftende Anwendungsfälle wesentlich, die auch tatsächlich im Unternehmen akzeptiert werden. Eine Datenstrategie sollte also klar die Ziele benennen und in eine kluge Umsetzungsreihenfolge bringen. In Form einer Roadmap werden dabei die Schritte benannt, die zum Erreichen dieser Zielen führen – aber auch die Erfolge, die man auf dem Weg feiern kann, um für Motivation zu sorgen. Für Zögerer wird so klar, welche Daten gesammelt werden sollten und auf was es dabei ankommt. Bastler hingegen vermeiden, am Business Value vorbei zu entwickeln.


Eine neue Datenkultur zu etablieren, ist in der Praxis eine echte Herausforderung. Welche Aspekte sind besonders wichtig, damit das gelingt?

Das Thema Datenkultur wird auf dem Weg zur Data-driven Company mit neuen, digitalen Geschäftsmodellen noch einmal wesentlich wichtiger. Durch eine solche Transformation verändern sich viele Abläufe und Aufgabenstellungen. Das kann nur dann gut gelingen, wenn alle Mitarbeitenden an Bord sind: Dafür muss beispielsweise die Bedeutung einer hohen Datenqualität jeder und jedem im Unternehmen durch konkrete Beispiele nachvollziehbar sein. Hier unterliegen viele Unternehmen dem Irrtum, dass dafür eine Schulung ausreicht. Stattdessen ist ein langer Atem gefragt. Der Aufbau der Datenkultur klappt zum Beispiel besonders gut in Unternehmen, die ein internes Marketing dafür aufbauen und in die interne Kommunikation investieren, um mehr »Fans« für das Thema zu gewinnen. Auch eine Art Data Leadership ist wichtig, durch ihr Verhalten setzen Führungskräfte ein wichtiges Beispiel. Dazu gehört auch, die Zielvorgaben zu verändern und die Organisation entsprechend anzupassen. Zusätzlich braucht es Verantwortliche für die jeweiligen Datenbereiche, um wiederum Themen wie etwa die Datenqualität im Griff zu haben.

Vielen Dank für das Gespräch

 


Illustration: ©  Roman Samborskyi | Dreamstime.com