Data Analytics as a Service – Mehr Erkenntnisgewinn für alle

Mit Lösungen wie Microsoft Fabric stehen jetzt auch Data Analytics as a Service zur Verfügung. Zusammen mit KI-Assistenztechnologie und Low-Code-Entwicklungsplattformen ist damit ein echter Sprung bei der Demokratisierung von Analysetechnologie möglich.

Im Bereich Datenanalytik hat sich die Entwicklung in letzter Zeit immer mehr beschleunigt. Vor allem die Architekturen im Hintergrund setzen zunehmend auf Vereinfachung. Mittlerweile stehen mit Lösungen wie Microsoft Fabric auch Data Analytics as a Service bereit. Dafür werden Daten aus sämtlichen Quellen abgeholt und zentral analysiert, anstatt Daten immer wieder für unterschiedliche Anwendungen zu kopieren. Ein wichtiger Unterschied besteht darin, dass die Integration und Verarbeitung der Daten im Data Lake oder Data Warehouse und die Analysetechniken wie BI, Data Science oder Realtime Analytics nicht mehr voneinander getrennt werden. Alle Aufgabenbereiche sind innerhalb einer Lösung zusammengefasst. Microsoft-CEO Satya Nadella nennt die Einführung von Fabric den wichtigsten Produkt-Launch seit der Einführung des SQL-Server.

Analytics in die Breite bringen. Der Nutzen von Data Analytics als Service liegt vor allem darin, dass eine sehr viel größere Anzahl von Menschen im Unternehmen die Technologie für erkenntnisbasiertes Handeln anwenden kann. In den meisten Organisationen ist eine hohe Zahl an Datensilos zu finden, die viel Komplexität mit sich bringen. Oft gibt es Probleme mit der Datenqualität und beim Zusammenführen von Daten oder Kennzahlen aus den einzelnen Silos. Gerade im KI-Umfeld ist damit zu rechnen, dass Unternehmen in den nächsten Jahren immer mehr Use Cases umsetzen. Die Skalierung von KI-Technologie fällt allerdings oft noch schwer. Zu den größten Herausforderungen gehören hier zum einen fehlende Datenexpertise- und IT-Ressourcen. Zum anderen stellt sich jeweils die Frage, wie Datenerfassung, Datenqualität, Datenschutz und Datensicherheit für den einzelnen Anwendungsfall aufgesetzt werden sollen. Viel Aufwand ist auch mit der Anbindung aller relevanten Systeme verbunden. Bisher entfiel der größte Zeitaufwand auf die Aufbereitung der Daten. Typischerweise sind an Projekten rund um Data Analytics zudem viele unterschiedliche Player beteiligt, darunter Data Engineers oder Fachanwender. Auf der Fabric-Plattform arbeiten alle Beteiligten wie Business-Anwender und Entwickler direkt zusammen, damit wird der Austausch effektiver. Darüber hinaus deckt sie sämtliche Analysetypen von Reporting und BI bis hin zu KI-Vorhersagemodellen über alle Daten hinweg ab.

Generative KI verändert auch Data Analytics. Die größte Veränderung entsteht durch die Verbindung mit Generative AI auf Basis von Large Language Modellen (LLM) wie ChatGPT, die im Microsoft-Umfeld in Form der KI-Assistenztechnologie Copilot direkt in die Prozesse integriert ist. Die KI-Unterstützung ermöglicht, dass Fachbereichsanwenderinnen und -anwender deutlich mehr Spielraum und Optionen bekommen als vorher. Im Bereich Data Analytics ist es in Power BI als Teil von Microsoft Fabric dann zum Beispiel möglich, den Copilot in natürlicher Sprache zu bitten, auf Basis eines vorliegenden Datenmodells für ein oder mehrere angezeigte Datensets einen Vertriebs-Report mit bestimmten Kennzahlen zu erstellen. Die KI übersetzt Anfragen in natürlicher Sprache in Programm-Code und SQL-Statements. Im Zusammenspiel mit einer Low-Code-Entwicklungsplattform lassen sich auf einer visuellen Oberfläche so zum Beispiel auch Anfragen stellen und umsetzen, für die bis jetzt Data-Engineering-Kenntnisse und IT-Entwicklungsarbeit nötig waren. Hier können sich Business-User beispielsweise auf einer sogenannten Canvas (Leinwand), also einer grafischen Oberfläche, die Datenstrecken selbst zusammenbauen. Durch die Assistenztechnologien auf Basis von LLM können alle Anweisungen in natürlicher Sprache gegeben und die Ergebnisse in den nächsten Schritten ebenfalls mündlich weiter verfeinert werden. Die KI erweitert hier praktisch die Fähigkeiten der Menschen in den Fachbereichen.

Mehr Analysen, weniger Routineaufgaben. Viele Analyse- und KI-Services standen auch bisher schon bereit. Der Unterschied liegt darin, dass es nicht mehr wie etwa bei Microsoft Synapse um Infrastruktur as a Service für Data Analytics geht, sondern um Software as a Service. In Fabric sind verschiedene Technologien in einem einheitlichen Plattformmodell zusammengefasst, darunter die Azure-Services Data Factory, Synapse und Power BI, sowie Echtzeitfunktionen und Copilot. Wie schon bei Office oder Power BI brauchen sich die Nutzer und Nutzerinnen nicht mehr mit der Provisionierung einzelner Services, Security-Themen oder Infrastrukturfragen auseinandersetzen. Sie müssen die unterliegende Infrastruktur für die Umgebungen weder integrieren, noch verwalten oder verstehen. Damit entfallen viele aufwendige und mühevolle Aufgaben: Für die Mitarbeiterinnen und Mitarbeiter ist das in der Regel eine echte Erleichterung. So entsteht deutlich mehr Zeit für die strategische Nutzung von Analyse-Werkzeugen.

Das Data Mesh kommt. Im neuen Konzept werden Daten aus sämtlichen Quellen, beispielsweise auch aus Multicloud-Umgebungen unterschiedlicher Hyperscaler, abgeholt und zentral in einem Datentopf namens OneLake analysiert. Die Technologie setzt auf sogenannte Shortcuts, die sämtliche Datenquellen verknüpfen. Braucht die Marketingabteilung beispielsweise Sales-Daten oder die Produktion Daten aus der Beschaffung, wird ein solcher Shortcut als eine Art Verknüpfung erstellt. Der OneLake-Ansatz sorgt dafür, dass die Daten nicht mehr aufwendig an unterschiedlichsten Stellen dupliziert und synchronisiert werden müssen. Eine verbindliche Quelle der Wahrheit mit übergreifend definierten Daten und Kennzahlen ist eine wichtige Voraussetzung, damit das nötige Vertrauen in die Validität der Ergebnisse aus Data Analytics und KI entsteht. Hinter der neuen Plattform steht die Idee des Data Mesh. Damit ist eine Abkehr vom bisherigen Enterprise-Analytics-Konzept hin zu dezentraler, Domain-basierter Architektur gemeint – und eine andere Art, über Unternehmensdaten und eine Datenstrategie nachzudenken. Jede Domäne übernimmt die Verantwortung für ihre Daten in Gestalt eines Product Owner, der das Know-how für die jeweiligen Daten mitbringt. Dennoch ist eine zentrale Governance über alle Daten hinweg gesichert.

Eine neue Datenkultur für die Data-driven Company. Themen wie Datenstrategie und Datenkultur werden für Organisationen, die auf digitale Geschäftsmodelle setzen und sich auf den Weg zum datengetriebenen Unternehmen gemacht haben, noch zentraler. Durch den damit verbundenen Transformationsprozess verändern sich viele Abläufe und Aufgabenstellungen. Einer der wichtigsten Erfolgsfaktoren ist dabei, die Belegschaft an Bord zu holen. So sollte für jeden Menschen im Unternehmen die Bedeutung einer hohen Datenqualität klar verständlich und anhand konkreter Beispiele nachvollziehbar sein. Dafür reicht nicht nur eine Schulung, vielmehr ist ein langer Atem gefragt. Das Etablieren einer gelungenen Datenkultur klappt zum Beispiel besonders gut in Unternehmen, die ein internes Marketing dafür aufbauen und in die interne Kommunikation investieren, um mehr Menschen für das Thema zu gewinnen. Wichtig ist zudem »Data Leadership«, denn durch ihr Verhalten setzen Führungskräfte ein wichtiges Beispiel. Oft ist es notwendig, Zielvorgaben zu verändern und die Organisation entsprechend anzupassen. Zusätzlich braucht es die Sicht auf Daten als Produkt und Verantwortliche für die jeweiligen Datenbereiche (Data Ownership), um wiederum Themen wie etwa die Datenqualität im Griff zu behalten.

 


Max Heppel,
Business Development Manager Data & AI
bei Cosmo Consult

 

 

Illustration: © Max Leron, Anatoly Stojko | Dreamstime.com