
foto freepik ki
An Daten herrscht in den meisten Unternehmen kein Mangel, doch in der Regel sind sie über unzählige Standorte und Systeme verteilt. Zum Training von KI oder für KI-Auswertungen lassen sie sich daher nur schlecht effizient einsetzen. Unternehmen benötigen neue Ansätze, Daten effizient zu verwalten und nutzbar zu machen.
KI lebt von Daten – von vielen und hochwertigen Daten, und genau damit fangen für die meisten Unternehmen die Probleme schon an. Sie verfügen zwar über viele Daten, doch die sind über verschiedene Clouds und Speichersysteme an unterschiedlichen Standorten verteilt. Die Informationen stecken in Datenbanken, Anwendungen und File-Shares, werden möglicherweise in Data Warehouses und Data Lakes zusammengeführt und fließen durch ein vielschichtiges Geflecht aus Daten-Pipelines. Für KI-Projekte sind solche unübersichtlichen Landschaften kaum geeignet: Zum einen verschwenden die Mitarbeiter viel Zeit mit der Suche nach Daten, statt sie zu nutzen und Erkenntnisse aus ihnen zu ziehen. Zum anderen verursachen die komplexen Zugriffe durch aufwendige Pipelines und ETL-Prozesse (Extract, Transform, Load) hohe Kosten. Nicht selten ist die strukturierte Nutzung verteilter Daten gar nicht möglich. Das heißt: Unternehmen verlieren in ihren KI-Projekten viel Zeit durch die ineffiziente Datensuche und -bereitstellung und können am Ende oft doch nur einen Teil ihrer Daten mehrwertbringend einsetzen.
Hinzu kommt: Selbst dort, wo sich Daten ohne Schwierigkeiten nutzen lassen, sind die Prozesse häufig nicht auf die Bedürfnisse von Data Scientists zugeschnitten. Diese müssen die Informationen eigentlich aufbereiten, sprich: auf Qualität prüfen, bereinigen und gegebenenfalls mit weiteren Informationen anreichern. Das erzeugt hohe Aufwände oder ist schlicht nicht möglich, weshalb die KI dann direkt auf die Rohdaten zugreift. Dieses Vorgehen birgt jedoch das Risiko von ungenauen, falschen oder vorurteilsbehafteten Ergebnissen, da Datenbestände von sich aus selten perfekt sind und üblicherweise auch unvollständige, veraltete und verzerrte Informationen enthalten.
Vor allem Data Lakes, in denen riesige Datenmengen zusammenfließen und lange aufbewahrt werden, sind dafür anfällig – oft gleichen sie eher einem Sumpf als einem See. Zudem ist es schwierig, die darin gesammelten unstrukturierten und halbstrukturierten Daten mit klassischen, strukturierten Unternehmensdaten zu korrelieren. Letztlich benötigen Unternehmen daher neue ganzheitliche Ansätze beim Datenmanagement, um ihre KI- und GenAI-Initiativen erfolgreich voranzutreiben. Damit wird dieses oft stiefmütterlich behandelte Thema plötzlich strategisch wichtig.
Dezentrale Datenquellen verbinden
Ein vielversprechender und moderner Ansatz, verteilte Datenbestände in den Griff zu bekommen, sind Federated Queries. Statt zu versuchen, alle Informationen in einem zentralen Data Lake oder in anderen monolithischen Architekturen zu vereinen und dort zu analysieren, werden die verschiedenen Datenquellen wie Datenbanken, Data Lakes und Data Warehouses über eine moderne Analytics Engine verbunden – unabhängig davon, ob sie sich in der Cloud oder im Rechenzentrum befinden. Die über den verteilten Datenquellen sitzende Managementplattform der Analytics Engine sorgt für eine einheitliche Sicht auf alle Informationen und kümmert sich auch um die Data Governance, inklusive rollenbasierter Zugriffsrechte und Datenmaskierung. Auf diese Weise gewinnen Unternehmen an Transparenz und behalten die volle Kontrolle über ihre bestehenden Daten, auch wenn die zugrunde liegende Datenlandschaft unübersichtlich ist.
Der Vorteil dieses Ansatzes: Alle Systeme sind auf einheitliche Art ansprechbar, sodass Daten über verschiedene Quellen hinweg mit einer einzigen Abfrage analysiert werden können. Komplexe Daten-Pipelines werden dadurch überflüssig, was sowohl den Verwaltungsaufwand als auch die Latenz sowie die Last auf den Speichern und im Netzwerk verringert. Die Bestandssysteme bleiben bestehen und müssen nicht abgelöst werden – vorhandene Anwendungen können ihre Daten wie gewohnt speichern beziehungsweise auf sie zugreifen.
Zusätzlich besteht die Möglichkeit, einen S3-kompatiblen Objektspeicher als innovativen Speicherort und modernen Data Lake für strukturierte und halbstrukturierte Daten, die für neue Anwendungen benötigt werden, einzusetzen und in das Gesamtkonzept zu integrieren. Ein solcher Speicher ist im Vergleich zu bisherigen Lösungen äußerst kosteneffizient und liefert eine hohe Performance, die ebenso wie die Kapazität bei Bedarf unkompliziert skaliert.
Aus Daten werden Produkte
Mit einem Ansatz wie Federated Queries können Unternehmen bedeutende Fortschritte bei der Transformation hin zu einem datengetriebenen Unternehmen erreichen. Eng mit diesem Ansatz verbunden ist ein Konzept namens Data Mesh, das verschiedene moderne technologische und organisatorische Ideen vereint, darunter Federated Analytics – verteilte Datenanalysen, deren Ergebnisse in einem KI-Modell zusammengeführt werden – sowie Data as a Product und dezentrale Verantwortlichkeiten für das Teilen von Daten.
Die letzten beiden Punkte bedeuten, dass Daten im Unternehmen als Produkt betrachtet werden, das nicht von einem IT- oder Infrastrukturteam nebenbei verantwortet wird, sondern von den Datenproduzenten in den Fachbereichen oder einem auf Datenprojekte spezialisierten Center of Excellence (CoE). Die dortigen Data Product Manager und ihre Teams pflegen jeweils ihre Daten, bereiten sie auf und stellen sie als einfach nutzbares Data Product bereit. Die Nutzer erhalten also keine Rohdaten oder Datenbankzugriffe mehr, sondern saubere, qualitativ hochwertige Datensätze. Es ist eine Art der Daten-Demokratisierung, da die Hürden zur Beantwortung datenbezogener Fragen deutlich sinken.
Welche Data Products angeboten werden, hängt von den konkreten Anwendungsfällen im Unternehmen ab. Data Product Manager achten darauf, dass ihre Produkte optimal zu den Anwendungsfällen passen und halten engen Kontakt zu den Nutzern, um die Data Products gegebenenfalls weiterzuentwickeln oder neue Data Products zusammenzustellen.
Die Umsetzung dieses Konzepts ist in der Regel mit organisatorischen Veränderungen verbunden – es gibt neue Aufgaben, Zuständigkeiten und Abläufe, ja idealerweise sogar eine neue datenzentrierte Firmenkultur. Da zudem die Auswahl geeigneter Lösungen alles andere als trivial ist und Unternehmen oft auch wenig Erfahrung mit neuartigen Anwendungsfällen rund um KI und GenAI haben, ist das Thema insgesamt sehr beratungs- und dienstleistungsintensiv.
Mehr als ein Data Lakehouse
Bei der Modernisierung von Datenmanagement-Konzepten und -Architekturen helfen Plattformen wie Dell Data Lakehouse, die weit über ein klassisches Data Lakehouse hinausgehen. Ein solches bringt üblicherweise Struktur in einen Data Lake, indem es offene Tabellenformate (OTF) einführt, die schnellere und effizientere Abfragen ermöglichen. Moderne Plattformen erweitern das um einen vollständigen Software-Stack für die Erkennung und Abfrage von Informationen bei unterschiedlichen Quellen auf Basis von Analytics-Engines wie Starburst Enterprise.
In vielen Fällen greift die Analytics-Engine dennoch nicht direkt auf die Quelldaten zu, um die Systeme nicht durch zusätzliche Abfragen zu überlasten und möglicherweise geschäftskritische Anwendungen auszubremsen. Stattdessen wird unter anderem mit Kopien und Snapshots von Datenbanken gearbeitet. Wie regelmäßig diese aktualisiert werden, hängt etwa davon ab, wie schnell sich der Datenbestand verändert oder wie häufig die Informationen tatsächlich abgefragt werden. Solche smarten Optimierungsfunktionen verhindern auch, dass immer der gesamte Datenbestand durchforstet wird. Die Engine weiß recht genau, wo sie suchen muss, welche Daten sie in einem Cache vorhalten sollte und ob es womöglich ausreicht, das Ergebnis einer früheren Abfrage zum Beispiel mittels sogenannter Materialized Views erneut auszuliefern, weil sich keine relevanten Daten verändert haben. Das alles sorgt dafür, dass Nutzer die benötigten Ergebnisse schnell erhalten und die Last auf den Systemen gering bleibt.
Schlussendlich helfen alle technischen und organisatorischen Veränderungen, die mit der Umsetzung eines Mesh-Konzepts einhergehen, dabei, Daten leichter nutzbar zu machen und schnellere Einblicke zu erhalten, und das, ohne bestehende Infrastrukturen großflächig austauschen zu müssen.
Christian Scharrer und Christian Spindeldreher
Christian Scharrer ist Enterprise Architect und CTO Ambassador bei Dell Technologies in Deutschland (Quelle: Dell Technologies)
Christian Spindeldreher, EMEA Data Management & Analytics Community Lead bei Dell Technologies (Quelle: Dell Technologies)
64 Artikel zu „Data Mesh“
News | Industrie 4.0 | Künstliche Intelligenz
Vier Prinzipien des intelligenten Data Mesh auf dem Weg hin zu Industrie 4.0

Künstliche Intelligenz (KI) und maschinelles Lernen (ML) sind für Fabriken von erheblichem Nutzen. Es gibt jedoch nach wie vor Herausforderungen. Diese liegen normalerweise nicht in der Datenwissenschaft – denn der Code funktioniert in der Regel gut. Bei der Umsetzung von KI/ML-Projekten in großem Maßstab liegen die Herausforderungen vorwiegend in der Architektur und Datenverwaltung. Hersteller müssen…
News | Infrastruktur | Strategien | Ausgabe 11-12-2023
Data-Mesh-Konzept – Wie ein Datennetz funktionieren kann
News | Business | Strategien | Ausgabe 1-2-2023
Datenmanagement mit Data-Mesh-Ansatz – Erfolgsfaktoren für die Umsetzung
News | Business Process Management | Trends 2022 | Rechenzentrum
Data-Mesh-Architektur: Daten besser nutzen

Die Dezentralisierung von Datenplattformen nimmt Fahrt auf – das Data Mesh gilt als vielversprechendes Architekturparadigma. Nachholbedarf existiert beim Self-Service: Datenanalysen bleiben bislang noch spezialisierten Teams vorbehalten. Viele Unternehmen unterschätzen die Auswirkungen einer dezentralen Datenarchitektur auf die Arbeitskultur. Das Data Mesh etabliert sich zunehmend in deutschen Unternehmen als vorherrschendes Muster für Datenplattformen. Bereits 60…
News | Business | Geschäftsprozesse | Services
Datenintensive Geschäftsmodelle brauchen professionelle Data Governance

Viele moderne Unternehmen sind einem großen Effizienzdruck unterworfen und müssen ihre Prozesse stark anpassen, um wettbewerbsfähig zu bleiben. Dabei setzen sie verstärkt auf datenbasierte Geschäftsmodelle, immer häufiger auf KI-Technologien. Verstärkte Nutzung und Abhängigkeit von digitalen Daten erfordern eine besonders akkurate, konsistente und regelkonforme Datenverarbeitung und -verwaltung. Das ideale Mittel dazu ist Data Governance, der systematische…
News | Künstliche Intelligenz | Services | Ausgabe 3-4-2024
Data Analytics as a Service – Mehr Erkenntnisgewinn für alle
News | Business Intelligence | Digitalisierung | Infrastruktur | Lösungen | Services
flaschenpost mit Databricks: Endlich genügend Rechenleistung für das Maximum an Datenanalyse

Anlässlich der Data & AI World Tour (DAIWT) baten wir Marco Lohaus, Head of Business Intelligence der Firma flaschenpost SE, über die Zusammenarbeit mit Databricks zu sprechen. Herr Lohaus, können Sie uns ihr Unternehmen kurz vorstellen? Die flaschenpost startete im Jahr 2016 als erster Onlineshop für die Sofortlieferung von Getränken innerhalb von 120 Minuten…
News | Business Process Management | Digitalisierung | Künstliche Intelligenz | Rechenzentrum | Services
Databricks: Wir sind in allen relevanten Bereichen des Data-Managements der Stand der Dinge

Am 7. November 2023 hat die Firma Databricks in den Münchner Eisbachstudios die Hausmesse Data + AI Summit veranstaltet. Wir haben dort mit Roman Pritzkow gesprochen, den RVP DACH. Herr Pritzkow, zum Einstieg eine provokante Frage: Kann durch KI der Fachkräftemangel gelöst werden? Roman Pritzkow: Eine interessante Frage. Im Augenblick generiert KI mehr Bedarf…
News | Services | Strategien | Ausgabe 11-12-2023
Der Weg zur operativen Datennutzung –
All Eyes on Data
News | Business Process Management | Cloud Computing | Effizienz | Geschäftsprozesse | Infrastruktur
Über kurz oder lang braucht jedes Unternehmen ein Service Mesh

Der Status Quo beim Service Mesh. Das Istio-Projekt geht als Pionier voran. Cloudbasierte Anwendungen sind heutzutage keine monolithischen Gebilde mehr, sondern bestehen aus Microservices und Containern. Die in viele kleine Teile, sogenannte Microservices, zerlegten Anwendungen sind, jeweils in einer eigenen schlanken und sehr portablen virtuellen Umgebung untergebracht, dem Container. Dies bietet technologisch einen großen Mehrwert,…
News | Business Intelligence | Business Process Management | Effizienz | Favoriten der Redaktion | Lösungen | Services | Strategien
GenAI bei der Datenarbeit: Manchmal ist KI nicht die beste Lösung

Generative KI (GenAI) wird 2025 zweifellos entscheidende Veränderungen bei unserer alltäglichen Arbeit mit Daten anstoßen. KI-basierte Modelle wie ChatGPT und LLama können Texte und Code generieren, Bilder erstellen und Dokumentationen automatisieren – und eröffnen damit unzählige Möglichkeiten zur Effizienzsteigerung in der Datenwissenschaft. Allerdings kann GenAI, je nach Anwendungsgebiet, Arbeitsabläufe auch unnötig verkomplizieren. Die Data-Science-Spezialisten von…
Trends 2025 | News | Digitale Transformation | Rechenzentrum | Services | Whitepaper
IT-Störungen: IT- und Datenmanagement – effizient, sicher und nachhaltig

Umfrage: Vier von zehn Beschäftigten klagen über IT-Störungen im Wochentakt. Neues Whitepaper zeigt Unternehmen Strategien und Lösungen für ein modernes IT- und Datenmanagement. Serverausfälle, Softwareabstürze, verschwundene E-Mails – in 40 Prozent der deutschen Unternehmen vergeht keine Woche ohne IT-Störung. Das ist das alarmierende Ergebnis einer aktuellen Umfrage, die im Auftrag von Lufthansa Industry Solutions…
News | Digitalisierung | Favoriten der Redaktion | Strategien | Tipps | Whitepaper
Neun (neue) Datentrends für 2025

Im Jahr 2025 wird sich die Art und Weise, wie Unternehmen Daten nutzen, signifikant verändern. Neue Trends in der Datenwelt gehen weit über technische Innovationen hinaus: Es geht um echte Geschäftsvorteile, nachhaltige Effizienzsteigerungen und neue Umsatzmöglichkeiten. Dr. Andreas Böhm, Gründer und Geschäftsführer der One Data GmbH, wirft deshalb im Folgenden einen Blick auf aktuelle…
News | Business Process Management | Digitalisierung | Lösungen | Services
Visuelle Workflows: Ist Ihr Ansatz zur Datenanalyse noch zeitgemäß?

Drei Gründe für den Umstieg auf visuelle Workflows bei der Datenarbeit. Ihre Datenanalysen bringen nicht die gewünschten Erkenntnisse oder dauern viel zu lange, weil Sie nicht genügend Ressourcen haben, um die Daten zu aggregieren, sie zu bereinigen, zu transformieren und zu analysieren? Dann ist es vielleicht Zeit zu prüfen, wie in Ihrem Unternehmen mit…
News | Business | Digitalisierung | Effizienz | Favoriten der Redaktion | Künstliche Intelligenz | Nachhaltigkeit | Strategien
Von biologischen Neuronen inspiriert – Neue VDE SPEC zu Neuromorphic Computing

Beim Neuromorphic Computing dienen die Eigenschaften neuronaler biologischer Systeme als Vorbild für die Entwicklung von Computerhardware und -software. Der Vorteil: Breitbandige Datenverarbeitung, mehr Leistungsperformanz, größere Energieeffizienz – allerdings stockt der Transfer in die Praxis. Mit den VDE SPECs bietet der VDE eine nützliche Standardisierung von Neuromorphic-Computing-Technologien, um den Weg von der Forschung in die Entwicklung…
News | Trends 2024 | Trends Infrastruktur | Trends Kommunikation | Industrie 4.0 | Künstliche Intelligenz | Marketing
Großer Veränderungswille bei deutschen Fertigungsunternehmen

90 Prozent der befragten deutschen Fertigungsunternehmen sehen die dringende Notwendigkeit für Transformation; 80 Prozent arbeiten bereits mit oder an Konzepten mit künstlicher Intelligenz. Maßgeschneiderte Cloud für die Fertigungsbranche vernetzt Maschinendaten mit Vertrieb, Marketing und Kundenservice. Salesforce, Anbieter von KI-gestütztem CRM, hat seinen neuen Branchen-Report »Trends in Manufacturing« veröffentlicht. Der Bericht deckt die größten Chancen…
News | Trends 2024 | Trends Security | Trends Infrastruktur | Favoriten der Redaktion | Industrie 4.0 | Internet der Dinge | IT-Security
Gravierende Mängel in der industriellen Cybersicherheit

Fast die Hälfte der Befragten hält die aktuellen Schutzmaßnahmen der Wirtschaft vor Cyberangriffen für unzureichend. Fast ein Drittel kennt die relevanten Standards und Vorschriften nicht. Bei einer aktuellen Befragung von IT-Verantwortlichen aus der deutschen Industrie zeigte sich nicht einmal die Hälfte (46 Prozent) davon überzeugt, dass die Wirtschaft ausreichend vor Cyberangriffen geschützt ist. Weniger…
News | Business | Business Process Management | Digitalisierung | Favoriten der Redaktion | Nachhaltigkeit | Strategien | Tipps
Nachhaltige Datenkultur im Unternehmen: Verborgene Umweltsünder – wie digitales Chaos unseren Planeten belastet

Datenmüll wird unterschätzt, sowohl unter ökologischen, ökonomischen als auch sozialen Aspekten. Im realen Leben kommt niemand an Mülltrennung und -vermeidung vorbei ‒ zu sehen auch am World Cleanup Day (20. September). Im digitalen Raum jedoch mangelt es oft an Bewusstsein und einer klaren Strategie, um unnütze, alte Daten effektiv auszumisten oder am besten direkt zu…
News | Business Process Management | Digitalisierung | Geschäftsprozesse
Logisches Datenmanagement: In fünf Schritten zur besseren Patientenversorgung

Das Management von Daten aus klinischen Informationssystemen wie KIS, LIMS oder auch der elektronischen Patientenakte (ePA) und ihre Überführung in ein gemeinsames klinisches Datenrepository stellt das Gesundheitswesen vor große Herausforderungen. Die Daten liegen meist in unterschiedlichen, voneinander getrennten Systemen und in ungleichen Formaten vor. Dies erhöht jedoch die Fehlerwahrscheinlichkeit, wodurch die Qualität der Patientenversorgung sowie…
News | Digitalisierung | Effizienz | Industrie 4.0 | Infrastruktur | Künstliche Intelligenz
Voraussetzungen für den Einsatz von KI in der Produktion

Dank künstlicher Intelligenz können Industrieunternehmen effizienter und kostengünstiger produzieren, die Produktionsqualität erhöhen und Produktionsstörungen vermeiden – die Einsatzmöglichkeiten für smarte Anwendungen in der Branche sind nahezu unbegrenzt. Doch wollen Unternehmen tatsächlich das volle Potenzial von KI ausschöpfen, benötigen sie dafür geeignete IT-Infrastrukturen. Was müssen diese bieten und leisten? KI ist das Herzstück der Smart…