»Die Entwicklung zum ›data driven‹ Unternehmen ist alternativlos«

Interview mit Frank Weber, Geschäftsführer Hitachi Vantara Deutschland.

 

 

Anzeige

Mit welchen Schritten stellen Unternehmen sicher, dass sie Zugang zu besseren Daten haben und mehr aus ihnen herausholen können?

Unser »digitaler Footprint« ist heute allgegenwärtig – und genauso verhält es sich auch mit den Daten, auf denen Unternehmen ihre »digitale Transformation« aufbauen. Je nachdem wie sie ihre Daten kontrollieren, darauf zugreifen und sie nutzen, können sie Informationen über neue Märkte erlangen und insgesamt effizienter werden. Entscheidend, um das digitale Potenzial zu maximieren, sind die Qualität und der Wahrheitsgehalt der Daten.

Anzeige

Allerdings ist bereits die Speicherung dieser Datenmengen eine Aufgabe, vor denen es vielen graut. Es erfordert eine Menge Intelligenz, Daten so zu organisieren, dass sie gefunden und genutzt werden können. Nach unseren Schätzungen sind heute rund 80 Prozent der Daten unstrukturiert und über das gesamte Unternehmen verstreut. Hier gilt es, einerseits Struktur in die unstrukturierten Daten zu bringen und andererseits zu akzeptieren, dass die Daten verteilt sind. Mit einem zentralen Repository lassen sich beispielsweise Daten aus verschiedenen Quellen integrieren, vernetzen und einsammeln, einschließlich strukturierter und halbstrukturierter Daten. Verantwortliche sollten sich auch Gedanken darüber machen, wie Rohdaten aufgenommen, gepflegt und innerhalb der Organisation über einen Katalog veröffentlicht werden können, den Data Scientists bei Bedarf für KI und ML nutzen können, während Compliance-Abteilungen dort Daten suchen und finden können.

 

Wie wichtig ist es, hier effiziente Prozesse zu schaffen, einschließlich eines zentralisierten Zugriffs auf Daten? Und wie können Unternehmen dies am besten angehen?

Anzeige

Es führt kein Weg daran vorbei, effiziente Prozesse zu etablieren und einen zentralen Zugriff auf Daten zu ermöglichen. Was nützen Informationen, die nicht gefunden werden? Intelligenz bedeutet in diesem Zusammenhang, zu wissen, was wo aufbewahrt wird, und die für Informationen jeweils  angemessene Aufbewahrung zu kennen. Also zum Beispiel zu wissen, wer Zugang zu ihnen hat, wie lange sie aufbewahrt werden können oder müssen und welche Daten sie enthalten. Intelligenz ermöglicht ein sauberes Reporting über all diese Aktivitäten, aber auch die Beschreibung der Daten selbst durch Metadaten. Das Datenwachstum wird uns auf absehbare Zeit erhalten bleiben – genau wie die Sensibilität der in den Daten enthaltenen Informationen –, so dass der Bedarf an intelligent verwalteten Daten weiter zunehmen wird.

Heute ist es ein Muss, dass Organisationen, mit denen wir zusammenarbeiten, eine angemessene Governance für ihre Daten haben. Warum? Weil sie hochsensible Informationen über uns enthalten: unseren persönlichen Internet-Suchverlauf, die Kommunikation mit Freunden und Unternehmen, Sprachaufzeichnungen, unsere Versicherungs- oder Gesundheitsdaten und Finanzinformationen – alle diese Informationen sind Teil unseres digitalen Fußabdrucks. Ein falscher Umgang mit den persönlichen Daten bricht unser Vertrauen und mindert unsere Bereitschaft, zukünftig Geschäfte mit einem Unternehmen zu tätigen.

 

Welche möglichen Hindernisse, sowohl intern als auch extern, sehen Sie in diesem Zusammenhang? Wie groß ist das Problem von Abteilungs-Silos und des fehlenden einheitlichen Umgangs mit Daten?

Das Versäumnis, Daten zu zentralisieren, zu bereinigen, zu ergänzen, zu verwalten und zu regeln, macht sie weniger transparent, schwerer auffindbar, schwer zu kontrollieren und fast unmöglich zu integrieren.

Die Zentralisierung von Daten muss aber keine physische Zentralisierung erfordern, es sollte keine Rolle spielen, wo sich die Daten in einer Unternehmensstruktur befinden. Stattdessen geht es im modernen Rechenzentrum darum, eine zentrale Form der Kontrolle einzurichten. Mit Hilfe eines zentralisierten, intelligenten Daten-Hubs können IT-Verantwortliche den Datenzugriff, die Verwaltung und die Governance standardisieren und Anwendern mehr Komfort bieten, ohne die Sicherheit oder Compliance zu beeinträchtigen.

 

Wie steht es um die Qualität der Daten selbst? Wie kann diese verbessert werden und wie können Organisationen ermutigt werden, sie auf dem neuesten Stand zu halten?

Datenqualität ist ein wichtiger Teil jeder Lösung. Bei unstrukturierten Daten beispielsweise wird es wichtig, Struktur hinein zu bringen, also sie zu indizieren, anzureichern und so zu beschreiben, dass sie gesucht und gefunden werden können. Dateisysteme sammeln typischerweise nur wenige Datenpunkte über die gespeicherten Informationen, wie Dateiname, Dateityp, Erstellungs-, Änderungs- und Zugriffsdatum. Einige Anwendungen und Geräte wie Digitalkameras und Smartphones generieren zusätzliche oder benutzerdefinierte Metadaten, um den Inhalt der unstrukturierten Daten weiter zu beschreiben. Diese sind jedoch in der Regel in die Datei eingebettet, so dass sie verborgen sind und daher nicht ausreichend genutzt werden.

Praktisch alle Anbieter von Datenspeichern bieten heute irgendeine Form von Metadaten-Tagging an. Aber nur wenige verfügen über erweiterte Funktionen für die Anreicherung, Indizierung, Suche, Analyse oder metadatengesteuerte Disposition. Erst die Integration dieser Technologien schafft die Grundlage für einen Business Value durch umfangreiche Metadaten. Die Fähigkeit, Metadaten zur Beschreibung einer Datei, etwa einer Sprachaufzeichnung, zu verwenden, ist von entscheidender Bedeutung. Wenn ich in der Lage bin, die Kommunikation in eine Textdatei zu übersetzen und diese der Sprachaufnahme hinzufügen, kann ich sie einfach für Compliance-Zwecke suchen und finden.

So genannte »Pipeline-Tools« transformieren und standardisieren Daten, unabhängig von ihrer Herkunft. Sie stellen die Einhaltung von Formaten sicher und bewahren die Datenintegrität. Hier können Unternehmen an der Datenqualität arbeiten, während sie die Daten in den intelligenten Hub einspeisen. Die Integration bestehender und neuer Daten verbindet eine Vielzahl von internen und externen Datenquellen und vereinheitlicht Informationen, egal wo sie sich befinden.

Die Verwendung eines Katalogdienstes für strukturierte Daten kann Daten auch mithilfe fortschrittlicher KI indizieren, sie automatisch klassifizieren und Prinzipien zur Datenqualität anwenden

 

Unternehmen haben bekanntlich eine natürliche Abneigung gegen Veränderungen. Welche Argumente sprechen dafür, dass sie trotzdem einfach loslegen sollten?

Um sich für den Erfolg zu rüsten, muss sich ein Sponsor in der Organisation finden, der Initiativen mit Blick auf Geschäftsergebnisse vorantreibt. Das kann die Betriebseffizienz, eine Verbesserung der Produktivität, Kostensenkung, Gewinnsteigerung oder einfach ein Projekt betreffen, bei dem Daten der Schlüssel zum Erfolg sind, ein gutes Beispiel ist hier Compliance. Sobald diese Person oder dieses Projekt gefunden sind, kann der erste Schritt auf dem Weg zum datengestützten Unternehmen gemacht werden, indem Daten zu einem strategischen Aktivposten bei solchen Initiativen oder bei der Ansprache, Interaktion und Bindung von Kunden werden. Der Prozess braucht Zeit und die meisten datengetriebenen Unternehmen haben Jahre gebraucht, um dorthin zu gelangen, wo sie heute sind. Aber die Entwicklung ist auch alternativlos.

 

Welchen Risiken sind Unternehmen ausgesetzt, die dies nicht tun? Oder anders herum: welche Vorteile können Unternehmen erwarten, die ihre Aversion überwinden und effizientere Prozesse rund um Daten einführen?

Wenn Organisationen sich von einem analogen zu einem datengestützten und schließlich »data driven« Unternehmen entwickeln, werden sie Geld verdienen, Geld sparen und durch fundiertere Entscheidungen wettbewerbsfähiger bleiben.

Bei der Entwicklung zum datengetriebenen Unternehmen müssen drei wichtige Dinge beachtet werden: Die Technologie muss eine datengetriebene Kultur unterstützen und Daten für alle Mitarbeiter verfügbar machen, die Kultur sollte jeden dazu ermutigen, sich mit der Idee anzufreunden, Daten für Geschäftsentscheidungen auf jeder Ebene zu nutzen, und es muss eine Organisationsstruktur geben, die diese datengetriebene Kultur unterstützt.

Hitachi fasst dies unter dem Begriff DataOps zusammen. Darunter verstehen wir ein Management von Unternehmensdaten für die KI-Ära, das Datenkonsumenten mit Datenerzeugern verbindet, um die Zusammenarbeit und digitale Innovation zu beschleunigen. DataOps ist kein Produkt, keine Dienstleistung oder Lösung. Es ist eine Methodik, ein technologischer und kultureller Wandel, um die Datennutzung im Unternehmen durch bessere Datenqualität, kürzere Zykluszeiten und besseres Datenmanagement zu verbessern. Aus technologischer Sicht geht es darum, die richtigen Daten am richtigen Ort und zur richtigen Zeit zu haben.

 

185 Artikel zu „data driven“

Von Data-Driven zu Choice-First: Konsumenten eine Wahl bei der Datenverarbeitung geben

Lediglich jeder vierte Deutsche ist der Meinung, dass maßgeschneiderte Werbebotschaften auf Mobilgeräten nützlich sind. Jeder Dritte (35 Prozent) bekommt durch aufdringliche oder irrelevante Werbung einen schlechten Eindruck von der jeweiligen App oder Website.   75 Prozent der Deutschen empfinden maßgeschneiderte Werbung, die passende Produkte oder Services auf mobilen Devices zeigt, ausschließlich als nervig. Das geht…

Robuste und widerstandsfähige Lieferketten: So hält Data Analytics die Supply Chain am Laufen

Die rasche Verbreitung von Covid-19 hat viele Lieferketten unter Stress gesetzt. Hamsterkäufe und Produktionsstopps angesichts fehlender Rohstoffe machten es schwer, die Nachfrage der Märkte zu erfüllen. Da viele Branchen von Lieferungen aus anderen Ländern abhängig sind, müssen Entscheidungsträger in der Lage sein, schnell Anpassungen an der Supply Chain vorzunehmen. Dies funktioniert jedoch nur, wenn verlässliche…

Advanced, predictive, preventive: Data Analytics – Trend oder Zukunft?

Die Themen Digitalisierung und Big Data stehen bereits seit Jahren auf der »To-do-Liste« der Unternehmen und sind auch in den Fachmedien mehr als präsent. Allerdings steckt die Umsetzung in der Realität bei vielen Unternehmen noch in den Kinderschuhen. Das Potenzial, das Daten bieten, ist häufig nicht auf den ersten Blick ersichtlich. Erst durch eine detaillierte Analyse der Daten lassen sich diese optimal nutzen. Mittlerweile eröffnen sich hier mit Data Analytics ganz neue Möglichkeiten.

Wie Automatisierung des Data Warehouse den Wert der Unternehmensdaten erhöhen kann

Volume, Velocity, Variety, Veracity. Im englischen IT-Sprachgebrauch haben sich die vier Vs der Datenspeicherung längst etabliert. Volumen, Geschwindigkeit, Vielfalt und Wahrhaftigkeit gilt es in Einklang zu bringen, um die Daten eines Unternehmens erfolgreich verwalten zu können. Herkömmliche Data-Warehouse-Infrastrukturen sind häufig nicht mehr in der Lage, die enormen Datenmengen, die Vielfalt der Datentypen, die Geschwindigkeit mit…

»Data Analytics«-Markt: Machine Learning – Preise sinken, die Produktreife steigt

»Machine Learning as a Service« ist zu einem umkämpften Markt geworden, in dem sich nahezu alle wichtigen IT-Provider positionieren. Sie müssen die Funktionen, zugrundeliegenden Algorithmen und Modelle dabei qualitativ wie quantitativ schnell weiterentwickeln, um Marktanteile und Kunden zu gewinnen. Dies stellt der neue große Anbietervergleich »ISG Provider Lens Germany 2019 – Data Analytics Services &…

Big Data 2018: Umsatz liegt erstmals über 6 Milliarden Euro

■  Umsatzwachstum von 10 Prozent prognostiziert ■  Ausbildung zum Data Scientist   Deutschland ist ein Wachstumsmarkt für Big Data. Im Jahr 2018 werden mit Hardware, Software und Services für Big-Data-Anwendungen voraussichtlich 6,4 Milliarden Euro umgesetzt, ein Plus von 10 Prozent im Vergleich zum Vorjahr. Das zeigen Berechnungen des IT-Marktforschungsunternehmens IDC im Auftrag des Digitalverbands Bitkom.…

Big Data: Standardisierung tut Not

Verzeihen Sie mir die etwas antiquierte Überschrift. Die digitale Transformation treibt viele Blüten. Cloud Services entstehen, und es wird in die Cloud verlagert, was das Zeug hält. Unternehmensprozesse »kippen um wie die Fliegen«. Als ich mich vor 20 Jahren etwas eingehender mit der Konstruktion und Entwicklung in der industriellen Fertigung beschäftigt habe, tauchte die Vision…

Chief Data Officer treiben das Geschäft an und ermöglichen die digitale Transformation im Unternehmen

Bis zum Jahr 2021 wird die Rolle des CDO unter allen Technologie-bezogenen C-Level-Positionen den höchsten Frauenanteil aufweisen. Die Rolle des Chief Data Officers (CDO) in Unternehmen gewinnt immer mehr an Bedeutung. Eine kürzlich von dem IT-Research-und Beratungsunternehmen Gartner durchgeführte Umfrage hat ergeben, dass sich diese Führungskräfte im Bereich Daten und Analytics als Dreh- und Angelpunkt…

Die Trends 2017 für Analytics, künstliche Intelligenz und Big Data

Für den Komplex Analytics, Big Data und neue, datengetriebene Geschäftsmodelle hat die Experton Group einige Schwerpunkte identifiziert, die 2017 eine große Rolle spielen oder an Bedeutung gewinnen werden. Data Lakes Da sind zunächst Data Lakes zu nennen, Stichwort Hadoop, wofür den Anwendern inzwischen weitgehend ausgereifte Distributionen zur Verfügung stehen. Wie wir vor einigen Jahren bereits…

Marketing Predictions 2017: Mehr Effizienz mit »Endless Data«

Smartphone und Tablet sind als mobile Begleiter im Alltag kaum mehr wegzudenken und die digitalen Fußspuren der User ziehen sich quer durch Websites und Social-Media-Netzwerke. Marketern stehen daher mehr Daten als jemals zuvor zur Verfügung. Doch nicht die reine Menge an Daten ist für erfolgreiche Marketing-Strategien entscheidend. Es kommt vielmehr darauf an, Daten zu relevanten…

Mehr als 40 Prozent der Data-Science-Tätigkeiten werden bis 2020 automatisiert sein

Laut des IT-Research und Beratungsunternehmens Gartner werden bis zum Jahr 2020 mehr als 40 Prozent der Data-Science-Tätigkeiten automatisiert sein – dies hat sowohl eine Produktivitätssteigerung zur Folge als auch eine intensivere Nutzung von Daten und Analytics durch sogenannte »Citizen Data Scientists«. Laut Gartner können Citizen Data Scientists die Lücke zwischen den Mainstream-Self-Service-Analytics der Businessanwender und…

Data Analytics wird in den kommenden fünf Jahren zum kritischen Faktor für die Industrie

Studie zeigt: Trotz des Mangels an Fachleuten sehen die Unternehmen in Data Analytics ein erhebliches wirtschaftliches Potenzial. Industrial Analytics, also die Auswertung der in der Industrie über den Lebenszyklus der Produkte anfallenden Daten, führt in der öffentlichen Wahrnehmung ein Nischendasein. Doch im Rahmen der digitalen Transformation ist es für die Industrie von vitaler Bedeutung, wie…

Verankerung im Fachbereich erhöht Profitabilität von Big-Data-Vorhaben

Weltweite Studie untersucht Erfolgsfaktoren von rentablen Big-Data-Projekten. Eine klar strukturierte Governance, die disziplinierte Implementierung und die Unterstützung durch das Top-Management sind die entscheidenden Faktoren für eine erfolgreiche Operationalisierung von Big-Data-Vorhaben – so die zentralen Ergebnisse der Studie »The Big Data Payoff: Turning Big Data into Business Value« von Informatica und Capgemini. Die Befragung von mehr…

Studie: Wandel durch Big Data lässt Unternehmen um ihre Wettbewerbsfähigkeit bangen

Viele Unternehmen fürchten angesichts der massiven Marktveränderungen durch Big Data, ihre Wettbewerbsfähigkeit zu verlieren, wenn sie keine Data-Analytics-Lösungen einsetzen – so das Ergebnis einer weltweit durchgeführten Studie von Capgemini und EMC. Für den Report »Big & Fast Data: The Rise of Insights-Driven Business« wurden mehr als 1.000 Entscheider befragt. Big Data verschärft Wettbewerb: Konkurrenz auch…

In-Memory-basierte Big-Data-Analyse – Verborgene Schätze

In-Memory-basierte Big-Data-Analyse

Big Data ist weit mehr als ein vielzitierter Hype, es ist pure Realität. Innerhalb von durchschnittlich nur 18 bis 24 Monaten verdoppeln sich produzierte Terabyte-Datenmengen in Unternehmen. Einem laut BITKOM (4/2014) bereits stolzen Big-Data-IT-Investitionsvolumen von 2,6 Milliarden Euro in 2014 steht laut Analysten jedoch die nüchterne Tatsache gegenüber, dass in diesem Jahr nicht einmal ein…

Intelligence Driven Security

Intelligence Driven Security

Das Thema Cyber-Sicherheit trifft heute jedes Unternehmen unabhängig von der Branche und der Größe. Hier muss das Bewusstsein um komplexe Bedrohungslagen im Cyber-Security-Umfeld weiter geschärft werden. Es findet eine Transformation statt – weg von technologisch geprägten reaktiven Ansätzen hin zu Risiko-basierten und proaktiven, agilen Strategien. Ein Interview mit Ralf Kaltenbach, Regional Director RSA Germany.

Big Data: Die Steigerung der Komplexitätsreduktion – Die Nadel entscheidet, nicht der Heuhaufen

Big Data: Die Nadel entscheidet, nicht der Heuhaufen

Die Goldgräber und die Öl-Sucher, alle sind sich einig: Daten sind der Goldschatz, den es zu heben, die neue Ader, die es anzuzapfen gilt. Die Devise: Mehr, mehr, mehr. Schneller, schneller, schneller. Die Technologien sind hinlänglich bekannt, das Bewusstsein für Big Data in den Köpfen der Anwender fest verankert. Doch was tun mit den geschaffenen Daten-Heuhaufen? Wo sind die Erkenntnis-Nadeln? Wie viele Nadeln gibt es überhaupt?

Deutsche Universitäten machen ihre Studierenden besonders fit für das Berufsleben

Deutschland springt im globalen Employabilty Ranking auf Rang 3 – Absolvent_innen sind im internationalen Vergleich bestens auf den Arbeitsmarkt vorbereitet.   Deutsche Universitäten bereiten ihre Studierenden besser auf das Berufsleben vor als das in den meisten anderen Ländern der Fall ist. Das ist das Ergebnis der aktuellen Global Employability Studie, die das Trendence Institut gemeinsam…

Einzelhandel und Corona: Zeitungs- und Klamottenläden haben es derzeit am schwersten

Im deutschen Einzelhandel gibt es in der Corona-Krise Gewinner und Verlierer. Wie die Statista-Grafik auf Basis von Daten des Statistischen Bundesamts zeigt, müssen derzeit insbesondere der Einzelhandel mit Zeitschriften und Zeitungen, Bekleidungshändler und Schuhgeschäfte deutliche Umsatzeinbußen gegenüber dem Vorjahresmonat verkraften. Die Umsätze von Zoofachhandlungen bewegen sich in etwa auf dem Niveau von vor 12 Monaten.…