Fünf Gründe für Automatisierung von Data Warehouses

Obwohl die Rolle von Daten bei der Entscheidungsfindung von Unternehmen zunehmend wichtiger wird, führen viele Firmen ihre ETL-Prozesse immer noch manuell durch und nehmen langwierige Prozesse und veralteten Daten in Kauf.

Illustration: Absmeier

In einem modernen Data Warehouse müssen Daten sich schnell und korrekt integrieren lassen, um ihre einfache Nutzung für die Geschäftsberichtserstattung sicherzustellen. Die traditionellen Ansätze zur Erfassung und Verwaltung riesiger Datenmengen durch manuelle ETL-Codierung sind für Unternehmen längst nicht mehr effektiv genug. Mit geeigneten Automatisierung-Tools können sie hingegen den zeitlichen Auflauf ihres Data Warehouse um bis zu 70 Prozent reduzieren und die Effektivität signifikant verbessern.

  1. Schnellere, effizientere Prozesse 

Der Lebenszyklus eines traditionellen Data-Warehouse setzt sich aus vielen Einzelschritten zusammen. Die verwendeten Tools adressieren jeweils nur eine Prozessphase, die am Ende mittels zeitaufwändiger manueller Coderevisionen an die nächste Prozessphase angepasst werden muss. In einem automatisierten Data Warehouse lassen sich dagegen bis zu 80 Prozent dieser Tätigkeiten durch automatisierte Softwareprozesse ersetzen.

Automatisierungs-Software orchestriert einen Data-Warehousing-Prozess durchgängig, sozusagen in einem Stück und bildet dafür zum Beispiel ein vereinfachtes Modell der gesamten Produktionslinie ab. Für ein datengetriebenes »data driven« Design, bei dem Unternehmen ihre digitalen Produkte auf Basis von realen Ausgangsdaten erstellen, muss sie außerdem die Möglichkeit bieten, eigene Datenquellen einzufügen und die Daten individuell, gemäß den eigenen Anforderungen zu modellieren. Unter Verwendung von Best Practices und basierend auf der Erfahrung vergangener agiler Projekte automatisiert die Software alle sich wiederholenden Aufgaben und baut neue Datenstrukturen schnell auf.

Besonders bewährt hat sich der Template-basierte Automatisierungsansatz, welcher die einzelnen Prozess-Pattern für den Integrationsprozess implementiert, testet und unter Berücksichtigung vorhandener Best Practices als Templates hinterlegt. Tauchen während der Implementierung neue Best Pattern auf, werden diese in die jeweilige Vorlage gekapselt und der Code wird automatisch neu generiert.

Die Rolle der Metadaten für den Automatisierungsprozess wird oft zu Unrecht unterschätzt. Dabei erfolgt die automatische Generierung der Datenbankschemata, Tabellenstrukturen, Transformationsroutinen und Workflows aller Data-Warehouse-Operationen vor allem auf Basis der Metadaten. Mit Hilfe von Metadaten lässt sich bestimmen, wem die jeweiligen Daten gehören, wer darauf zugreifen kann, wer sie verwendet und welche Art von Inhalten sie enthalten. Grundsätzlich müssen Metadaten immer eine Beschreibung des gesamten Datenökosystems von der Quelle bis zum Ziel enthalten, einschließlich der durchgeführten Aktionen und verwendeten Objekte. Nur so ist sichergestellt, dass neben der vollständigen Dokumentation auch eine automatisierte Versionskontrolle und ein leicht handhabbares Änderungsmanagement verfügbar ist.

  1. Die Daten-Komplexität im Griff behalten

Obwohl die Datenökosysteme schon seit Jahren zunehmend komplexer werden, gilt der ETL-Prozess (Extract-Transform-Load) unter den traditionellen Unternehmen immer noch als Standardprozess. Irgendwann in den 70er-Jahren entwickelt arbeiten ETL-Tools heute, fünfzig Jahre später, immer noch auf Basis manueller Programmierung. Ein zeit- und ressourcenintensives Unterfangen, wenn man bedenkt, dass jede Data Pipeline über ihren eigenen individuellen Code verfügt, der nur für den jeweiligen Anwendungsfall ausgegeben wurde. Ändert sich die Anwendung, dann stimmt auch der Code nicht mehr und löst eine Unterbrechung der Pipeline aus. Damit der Prozess weitergeht, müssen Dateningenieure von Hand erst einmal umfassende Code-Revisionen vornehmen.

Unternehmen, die komplexe Datenarchitekturen mit neuesten Technologien wie hybriden Cloud-Modellen, Multi-Cloud, Data Vault 2.0, usw. aufbauen und skalieren wollen, werden früher oder später vor die Wahl gestellt: Entweder sie stellen große und teure Teams von Dateningenieuren ein, die umfassende, manuelle Codevisionen an ihren Daten-Pipelines vorzunehmen oder sie betreuen mit einem wesentlich kleineren Team den Einsatz einer Automatisierungs-Software, die die Routinearbeiten und Orchestrierung übernimmt.

  1. Kulturwandel durch DevOps und DataOps

Automatisierte Data Warehouses sparen den Datenteams viel Zeit, die sie nutzen können, um agile Methoden wie DevOps und DataOps zu implementieren. Die beiden Kofferworte sind zurzeit, nicht nur in der BI-Welt, in aller Munde. DevOps legen fest, wie Anwendungen in Unternehmen entwickelt und bereitgestellt werden, während DataOps die möglichst effektive Nutzung der Daten spezifiziert. Beide Methoden sind über den gesamten Data Warehouse Lebenszyklus anwendbar, von der Datenaufbereitung über Datenvisualisierung bis hin zur Berichtserstellung.

DevOps streben die interdisziplinäre Vernetzung von Softwareentwicklung, Qualitätssicherung und IT-Management an, um die Automatisierung, Agilität und Zusammenarbeit zwischen Entwicklung und IT-Management effizienter zu gestalten. Programmierer sollen die strategischen Herausforderungen eines Unternehmens schon bei der Entwicklung berücksichtigen. Von den Qualitäts- und Operations-Manager wird hingegen erwartet, dass sie die vorhandene IT-Infrastruktur mit in ihre Planung einbeziehen.

DataOps-Prozesse erweitern DevOps um die Komponente Daten. Interdisziplinäre Teams aus Data Scientists, Software-Entwicklern und Fachabteilung sollen die Bereiche Statistik, IT und Branchenwissen zusammenbringen und die Qualität und Zykluszeiten von Datenanalysen verkürzen. Obwohl sich DataOps an DevOps Prozessen orientieren, sind sie in Bezug auf Technologie, Architektur, Tool, Sprache oder Framework von ihnen komplett unabhängig. DevOps und DataOps streben damit eine effektivere Zusammenarbeit zwischen Entwicklung, IT und Qualitätssicherung an, die das Potenzial hat, die Art, wie Daten im gesamten Unternehmen bereitgestellt und genutzt werden, dauerhaft und grundlegend zu verändern.

  1. Schnelles Prototyping im modell- und datengesteuerten Design

Automatisierungssoftware erstellt Prototypen in sehr großer Geschwindigkeit. Die meisten von ihnen unterstützen die Entwicklung von Prototypen sowohl im modell-, als auch im datengesteuerten Design.

Bei einem modellgesteuerten Design erstellt die Software zuerst Profile aller vorhandenen Datenquellen. Architekten wählen dann die am besten geeignete Struktur aus, erstellen auf dieser Basis den Prototypen und überprüfen, ob die Spezifikationen komplett und richtig implementiert wurden. Vor allem Unternehmen, die Data-Vault-Modellierung anwenden, profitieren vor dieser Form des Designs.

Beim datengetriebenen Design erstellt die Software Prototypen auf Basis tatsächlicher Unternehmensdaten. Dateningenieure können so ihren Stakeholdern bereits im Vorfeld  demonstrieren, wie sich ihre Spezifikationen im realen Data Warehouse verhalten werden und diese bei Bedarf ändern und neu erstellen.

  1. Data-Vault-Modellierung für agile Data Warehouses

Unternehmen mit sehr stabilen Geschäftsanforderungen bevorzugen in der Regel überschaubare dimensionale Datenmodelle. In unserer marktgetriebenen Zeit geraten jedoch auch stabile Geschäftsanforderungen schnell ins Wanken. Neue Modellierungsansätze wie Data Vaults zollen dieser Entwicklung Tribut. Im Gegensatz zu anderen Modellierungsmethoden, lassen sich neue Datenquellen hier auch dann integrieren, wenn die Architektur bereits steht.

Die Data-Vault-Modellierung teilt alle zu einem Geschäftskennwort (z.B. Kunde oder Produkt) gehörenden Informationen in drei Kategorien ein und legt sie in drei Typen von Datenbanktabellen ab: Hubs (Beschreibung, wie  z.B. Kundennummer), Links (Beziehung, die zwei oder mehrere Hubs verknüpft) und Satelliten (Attribut, das ein Kennwort oder eine Beziehung beschreibt, zum Beispiel das Auslaufdatum eines Produkts).  Alle drei Entitäten sind strikt voneinander getrennt und nur über Links, die auf die Hubs verweisen, miteinander verknüpft. Dadurch ist es möglich, Daten aus mehreren Quellsystemen flexibel zu integrieren, ohne den Rahmen des Data-Vault-Modells zu verändern.

Die Entwicklung und Wartung von Data Vaults ist jedoch komplex. Unternehmen, die Data-Vault-Projekte in nicht automatisierten Data Warehouses starten, kommen zwar anfangs meistens gut zurecht, doch spätestens bei der Integration größerer Mengen neuer Datenquellen fangen die Fehler und damit auch die Probleme an. Schon ein winziges Versehen kann enorme Auswirkungen haben, dessen Behebung bei manueller Programmierung mit einem großen Zeitaufwand verbunden ist. In automatisierten Data Warehouses funktioniert dagegen auch ein sehr komplexer Data Vault bereits nach kurzer Zeit.

Fazit

Immer mehr Unternehmen verstehen mittlerweile, welche Bedeutung Daten sowie deren Visualisierung und Nutzung für die Entscheidungsfindung haben. Wenn es um flexible und zeitkritische Business-Anforderungen geht, stoßen klassische Data-Warehouse-Lösungen schnell an ihre Grenzen. Mit einer Data-Warehouse-Automatisierung können Firmen hingegen erhebliche Zeit- und Kosteinsparungen realisieren und erreichen gleichzeitig eine höhere Flexibilität, Aktualität und Qualität ihrer Daten.

Thomas Heuer, Sales Director DACH, WhereScape

 

Zu Thomas Heuer, WhereScape
Thomas Heuer ist Sales Director DACH bei WhereScape, dem führenden Software-Anbieter für Data-Warehouse-Automatisierungen. Er spielt seit 2018 eine große Rolle beim Aufbau der ständig wachsenden Präsenz des Unternehmens auf dem DACH-Datenmarkt. Von seinen Kollegen liebevoll ‚Dr. DACH‘ genannt, hat sein Sinn für Humor, seine Professionalität und sein Produktwissen dazu beigetragen, ausgezeichnete persönliche Beziehungen zu Kunden und Partnern aufzubauen. Er festigt die Position von WhereScape im deutschsprachigen Raum als vertrauenswürdiger Partner für Unternehmen, die ihre Data-Warehouse-Ökosysteme modernisieren wollen.

 

97 Artikel zu „Data Vault“

Mit Data Vault zu mehr Agilität im Data Warehouse

Architekturen. Frameworks. Praxis. Data Vault ist eine Modellierungstechnik, mit der sich bestehende Data Warehouses (DWH) modernisieren und damit den aktuellen Anforderungen an Datenhaltung und Analytics anpassen lassen. DWH-Verantwortliche stehen unter immer größeren Druck, ihre Systeme anpassen zu müssen. Klassische DWH-Konzepte nach Inmon oder Kimball sind nicht dafür geeignet, weil sie schnell immer komplexer werden und…

Hadoop und Data Vault – Ein evolutionärer Ansatz für Big Data

Big Data liefert neue Möglichkeiten mit schwach strukturierten beziehungsweise unstrukturierten Daten umzugehen. Der »Data Lake« soll alle Daten sammeln; die Analysten von Gartner haben das Konstrukt in einen »Data Swamp« umbenannt. Die Entwicklungsgeschwindigkeit für neue Werkzeuge rund um Hadoop ist sehr hoch, es entstehen immer wieder neue Möglichkeiten der Datenanalyse. Es wird Zeit mit einem evolutionären Vorgehen die Vorteile zu nutzen, ohne gleich die komplette BI-Struktur neu aufzusetzen.

Distributor ADN räumt bei Commvault Awards 2021 doppelt ab

Der Value Added Distributor (VAD) ADN darf sich über sein Double bei den Commvault Awards 2021 in den Kategorien »Best Marketing” und »Best Aggregator« in Deutschland für Commvault freuen. Commvault ist ein weltweit anerkannter Marktführer im Bereich Backup & Recovery sowie Datenmanagement in hybriden Umgebungen.   Erst im Januar 2021 fiel der Startschuss für die…

Neue Studie zeigt: Data Gravity lässt regionale Datenzentren wachsen

Der Data Gravity Index DGx misst erstmalig die Erstellung, Aggregation und den Austausch von Unternehmensdaten weltweit. Europa ist das globale Gravitationszentrum für Unternehmensdaten und wird seinen Vorsprung bis 2024 weiter ausbauen.   2010 prägte Dave McCrory erstmalig den Begriff der Data Gravity. Er beschrieb damit das Phänomen, dass große Datenmengen Systeme, Anwendungen und Dienste physisch…

Datenschätze in den Wolken: Best Practices für Cloud Data Warehouses

Die Cloud bietet Unternehmen zahlreiche Vorteile und sorgt auch im Bereich Data Warehousing für hohe Skalierbarkeit und Flexibilität. Da es mittlerweile notwendig ist, Daten aus einer Vielzahl sich ständig weiterentwickelnden Datenquellen effizient zusammenzuführen und sie auf einfache Weise einem immer breiteren Kreis an Entscheidungsträgern zugänglich zu machen, haben deshalb viele Data-Warehousing-Teams begonnen, ihre Data-Warehouse-Bemühungen auf…

Fünf Hürden auf dem Weg zu einer erfolgreichen Data Governance

An einer umfassenden Data-Governance-Strategie führt heute kaum noch ein Weg vorbei – da sind sich die meisten modernen Unternehmen einig. Dass viele von ihnen aber noch weit von der tatsächlichen Umsetzung entfernt sind, belegt jetzt eine Dataversity-Studie aus dem Jahr 2020. Nur zwölf Prozent der befragten Unternehmen gaben hier an, eine entsprechende Strategie bereits vollständig…

Königsweg Automatisierung – Der Weg zu mehr Effizienz für Data Warehouse und Data Lake

Data Warehouses haben eine lange Tradition. Doch mit Big Data Analytics und Data Lakes haben viele diesen Ansatz totgesagt. Das entspricht allerdings nicht der Realität: Geschätzt betreiben mehr als 60 Prozent der Unternehmen Data Warehouses, oft sogar mehrere. Assets, in die viel investiert wurde und die Vorteile bieten, die mit einem Data Lake nicht erreicht…

Datenstrategien für Big Data – Automatisierung des Data Warehouse muss Teil der Lösung sein

Im Zeitalter von Big Data könnte man davon ausgehen, dass man gar nicht genug Daten haben kann. Denn aus Daten lassen sich in der Theorie wichtige Erkenntnisse ziehen, die Unternehmen zu ihrem Vorteil nutzen können. Und so sammeln Unternehmen seit Jahren fleißig Daten aus immer mehr Quellen ein – und stehen damit auch vor der…

Open-Data-Initiative: Mit Datenkooperationen gegen die »Daten-Kluft«

Durch die Nutzung und den Austausch öffentlich zugänglicher Daten können fundierte Entscheidungen getroffen und sogar einige der weltweit drängendsten sozialen Herausforderungen besser bewältigt werden. So heißt es in der neuen Datenstrategie der Bundesregierung, »Daten sind eine Schlüsselressource«, etwa für die Verbesserung der Gesundheitsversorgung. Die Fähigkeit Daten verantwortungsvoll und selbstbestimmt zu nutzen, zu verknüpfen und auszuwerten,…

Data Preparation: In 4 Schritten zum Data-Science-Projekt

Die richtige Data Preparation erhöht die Vorhersagequalität von Datenmodellen und steigert die Wirksamkeit von Machine Learning-Zyklen.   Die meisten Daten sind ohne eine vorher durchgeführte Data Preparation für KI-gestützte Prognosen ungeeignet: ihre Qualität ist unzureichend, sie liegen nicht in numerischer Form vor, oder es fehlen Werte. Diese Handlungsempfehlungen unterstützen bei der Datenvorbereitung und helfen, den…

Wie gelangt man zu einem effektiven Data Lake?

Die schnelle Entscheidungsfindung auf Basis digitaler Daten verändert die Art und Weise, wie Unternehmen und IT arbeiten. Da Unternehmen auf alle Arten von Informationen zugreifen wollen, haben sie einen Bedarf an Infrastrukturexperten erkannt, die ihnen helfen, aus ihren Daten neue Werte zu erschließen. Rubrik, Anbieter einer Plattform für Multi-Cloud Data-Control, erläutert jüngste Entwicklungen in diesem…

Analytics reicht nicht mehr aus: Top-Trends im Big-Data-Umfeld 2020

Wide Data, DataOps, Metadaten-Kataloge, Datenkompetenz und Shazamen sind die wichtigsten Trends im kommenden Jahr. Für 2020 hat der Data-Analyst-Spezialist Qlik folgende fünf Trends im Zusammenhang mit Big Data und Analytics identifiziert:   Aus Big Data wird Wide Data Dank skalierbarer Cloud-Lösungen sind in Big-Data-Umgebungen nicht länger die Kapazitätslimits unternehmensinterner IT-Infrastrukturen ein begrenzender Faktor. Die Herausforderung…

Die Trends für Business Intelligence & Big Data 2020

Welche Trends für Business Intelligence (BI), Data & Analytics werden das Jahr 2020 prägen? Im Interview gibt BARC-Chef-Analyst Dr. Carsten Bange seine Prognosen ab. Außerdem stellt er exklusiv die Ergebnisse des BARC BI Trend Monitor 2020 vor, der 2.650 Anwender von BI-Technologie zu ihren persönlichen Trendthemen befragt hat. Dr. Carsten Bange, Gründer und Geschäftsführer von…

Big Data: Wo die wilden Daten leben

Data Lakes, Data Marts, Data Vaults und Data Warehouses. Worin unterscheiden sich die verschiedenen Ansätze der Dateninfrastruktur? Big Data oder Data Analytics sind einige der größten Herausforderungen für die IT unserer Zeit. Viele Unternehmen befinden sich inmitten einer Umstellung auf eine datengesteuerte Ausrichtung ihrer Organisation und sind auf der Suche nach der dazu passenden Dateninfrastruktur.…

Big Data Vendor Benchmark 2017 liefert unabhängigen Vergleich von Big-Data-Lösungsanbietern

Die Analyse sehr großer polystrukturierter Datenmengen – Big Data – wird die Welt noch für sehr viele Jahre beschäftigen. Big Data gehört zu den Grundelementen der digitalen Transformation. Die Experton Group sieht hier vor allem die Notwendigkeit branchenspezifischer und zielgruppenspezifischer Angebote der ICT-Anbieter. Aus den »Big Data«-Dimensionen Business Intelligence und Business Analytics haben sich in…

Big Data ist bei deutschen Unternehmen bislang kein Thema

»Wir wollen weg vom Grundsatz der Datensparsamkeit, hin zu einem kreativen und sicheren Datenreichtum«, hat Alexander Dobrindt (CSU) unlängst verkündet. Weiterhin bezeichnete der Infrastrukturminister Daten als den Rohstoff der Digitalisierung. Ein Rohstoff, der offenbar bislang nur von wenigen abgebaut wird, wie eine aktuelle Veröffentlichung des Statistischen Bundesamts zeigt. Demnach setzen bislang nur sechs Prozent der…

Apache-Spark-Studie zeigt Wachstum bei Anwendern und neuen Workloads wie Data Science und Machine Learning

Zum besseren Verständnis der zunehmenden Bedeutung von Spark bei Big Data hat die Taneja Group ein großes Marktforschungsprojekt durchgeführt und rund 7.000 Teilnehmer befragt. In die weltweit angelegte Analyse wurden Führungskräfte aus Technik und Verwaltung einbezogen, die unmittelbar mit dem Thema Big Data zu tun haben. Die mit überwältigender Resonanz abgeschlossene Studie gibt Aufschluss die…

Big Data – Schluss mit lustig – Big Data wird ernst!

Seit 2011 beobachten wir bei Experton den Markt und die Lösungen für das Trendthema »Big Data«. Inzwischen haben viele Anbieter Produkte, Lösungen und Services für die neuen Datendimensionen in den Anwenderunternehmen auf den Markt gebracht. Bislang sind das jedoch vor allem Lösungen, die zunächst einmal rein technisch mit den Datenmengen umgehen können, schnelle Visualisierungsmöglichkeiten bieten,…

Verknüpfung von BI und Big Data hebt Datenanalysen auf neues Niveau

Business-Intelligence-Systeme sind in vielen Unternehmen produktiv im Einsatz. Zusätzliche Auswertungsmöglichkeiten bieten Big-Data-Anwendungen. Der kombinierte Einsatz in Unternehmen ist noch die Ausnahme, das ungenutzte Potenzial aber immens, meint der IT-Dienstleister Consol Software GmbH. Mit Business-Intelligence (BI)-Lösungen, die eine systematische Auswertung von Daten unterstützen, können Unternehmen wichtige Erkenntnisse für die Optimierung ihrer Geschäftsprozesse gewinnen. Die Datenanalysen helfen…

Big Data und gesellschaftliche Verantwortung

Mit den unheimlich vielen Analyse-Tools und den Social-Media-Datenschätzen sowie mit neuen Denkweisen wie Massenfinanzierung und gemeinsamer Nutzung von Privateigentum entstehen Chancen auf vermeintliche und echte disruptive datengetriebene Geschäftsmodelle. Bei den Szenarien sollte immer auch ein ethischer Gedanke im Vordergrund stehen. Einige Anbieter haben mächtige Werkzeuge entwickelt, darunter auch solche, die sogenannte disruptive Geschäftsmodelle fördern und…

Anstieg bei Investitionen in Big Data, obwohl immer weniger Unternehmen investieren wollen

Der Fokus hat sich von Big Data auf konkrete Geschäftsprobleme verschoben, die durch Big Data gelöst werden können. Investitionen im Bereich Big Data nehmen weiterhin zu, aber laut des IT-Research und Beratungsunternehmens Gartner sind erste Zeichen eines abgeschwächten Wachstums zu erkennen. Die Gartner-Umfrage zeigt, dass 48 Prozent der Unternehmen im Jahr 2016 in Big Data…

Neue Methoden für Business Intelligence – Agilität durch Automatisierung des Data Warehouse

Data Warehouse Automation bedeutet, dass die Entwicklung und Pflege der Datenaufbereitung aus wenigen Informationen heraus generiert wird und somit radikal beschleunigt. Diese Automation ist nicht ein Tool-Thema, sondern vor allem auch ein methodisches Thema. Neue Methoden im Bereich Business Intelligence, kurz BI, erlauben neben der Beschleunigung durch die Generierung auch eine höhere Agilität in der Bereitstellung von Daten und neue Wege in der Kommunikation mit dem Kunden.

Produktzentriertes Wertschöpfungsmodell: Mit Agile and DevOps den Kunden in den Fokus stellen und schneller Geschäftserfolge erzielen  

Eine neue Studie identifiziert sieben Agile-Treiber, die das Unternehmenswachstum um 63 Prozent steigern können. Infosys stellt neue Enterprise Agile DevOps-Funktionen vor – damit sind Unternehmen in der Lage, ihre Kunden verstärkt in den Fokus zu setzen und Innovationen voranzutreiben. Zu den wichtigsten Funktionen zählen ein produktzentriertes Wertschöpfungsmodell sowie ein datenbasierter Live-Engineering-Ansatz. Damit haben Organisationen die Möglichkeit,…

Erfolgsfaktor Agilität: Mit toolgestützter Methode die agile Bereitschaft ermitteln und verbessern

Die Transformation zum agilen Unternehmen ist langfristig und komplex. Um den Prozess so effizient wie möglich zu gestalten, sollte zu Beginn die »Agile Readiness« bestimmt und durch gezielte Maßnahmen optimiert werden. Möglich ist das mit einer innovativen, toolgestützten Methode zur Ermittlung und Bewertung der agilen Bereitschaft und mithilfe der Unterstützung durch einen erfahrenen und kompetenten Beratungspartner, der den Weg zur agilen Organisation als »Trusted Advisor« begleitet.

Entwicklung agiler Arbeitsweisen: Der Ausbau der Agilität gelingt nur mit Wissen um den Status Quo

Angesichts der zunehmend dynamischen Entwicklung von Märkten, Kundenanforderungen und technologischen Möglichkeiten setzen mehr und mehr Unternehmen agile Arbeitsmethoden ein. Denn gerade für komplexe Aufgaben in der Produktentstehung und Produktentwicklung, erweisen sich die besondere Effizienz, Flexibilität und Schnelligkeit der agilen Methoden als deutliche Vorteile. Einsatzgebiete und Zielsetzungen erstrecken sich von ersten, begrenzten Pilotprojekten über die agile…

Wie sich mit der richtigen Visualisierung für mehr Agilität in der Produktentwicklung sorgen lässt – Ein Quantum Agilität

Je dynamischer die Welt um uns herum wird, umso flexibler müssen nicht nur wir selbst werden, sondern auch unsere Prozesse. Das gilt insbesondere für die Entwicklung neuer Produkte. Wie wichtig diese Agilität ist, hat die Corona-Pandemie schmerzlich verdeutlicht: Unternehmen, die zu langsam auf die corona-bedingten Veränderungen reagieren, haben inzwischen schlechte Zukunftsaussichten. Aber es gibt einfache Möglichkeiten, Prozesse so zu gestalten, dass sie ein Maximum an Flexibilität bieten. Beispielhaft sei im Folgenden beschrieben, worauf bei einer agilen Produktentwicklung zu achten ist.

Future Organization Report 2020: Agil macht krisenfest

Agilität in Unternehmen steigt, Kundenorientierung bleibt aber ausbaufähig Agile Unternehmen können besser auf Veränderungen reagieren Agilität im Vergleich zum Vorjahr von 4,7 auf 5,5 gestiegen Über 70 Prozent der Mitarbeitenden haben ausgeprägtes agiles Mindset 70 Prozent der Befragten erlangen durch Wissen über den Kunden einen strategischen Wettbewerbsvorteil   Gerade in der Covid-19-Pandemie zahlt sich Agilität…

Wie ERP-Systeme globalen Handel unterstützen: Grenzen – los?

Was bedeutet für Sie und Ihr Unternehmen der Begriff »Globalisierung«? Teils vorschnell definiert als Möglichkeit irgendwo auf der Welt billiger produzieren zu können, ist die Ausweitung der Geschäftstätigkeit auf den internationalen Markt für Sie sicherlich deutlich vielschichtiger und wird es immer mehr.   Begriffe wie Nachhaltigkeit, Neue Märkte, Produktion-on-Demand, globale Vernetzung, Handelskämpfe, Digitalisierung und Automatisierung,…

Neue Studie bestätigt den wirtschaftlichen Wert von Daten für das Erreichen von Geschäftsergebnissen

Deutsche Führungskräfte sind häufiger Dateninnovatoren und nutzen Daten als Wettbewerbsvorteil. Data-Maturity-Rechner zeigt Stand der Datennutzung und Potenziale auf.   Splunk hat die Ergebnisse einer neuen Studie bekanntgegeben, die den Zusammenhang zwischen der Datennutzung und dem Erfolg eines Unternehmens darlegt [1]. Die weltweit angelegte Studie quantifiziert wirtschaftliche Auswirkungen und den Wert von Daten in Unternehmen. Die…

Digitalisierung verbessert die Marktpositionierung

  Nur jedes fünfte Unternehmen sieht Bedrohung des Geschäftsmodells durch digitale Transformation Laut Future IT Report sind zwei Drittel besser für den Wettbewerb gerüstet Digitale Transformation ist strategische Aufgabe für das Top-Management. Zu den größten Hürden zählen Datenschutz und Datensicherheit sowie Komplexität der IT-Infrastruktur. Kundenerwartungen immer schwieriger zu erfüllen – Einbindung in Prozesse nötig. Fachkräftemangel soll…

White Paper: Unzureichendes Management von Logistikdaten wirkt sich negativ auf Kundenzufriedenheit aus

Eine neue Studie mit dem Titel »Big Data for the Big Picture« zeigt, dass weniger als die Hälfte der Unternehmen (45 Prozent) das volle Potenzial aus ihren Logistikdaten schöpfen [1]. Schlechtes Datenmanagement wirkt sich dabei direkt auf das Kundenerlebnis aus: 53 Prozent der Unternehmen räumten ein, dass sich unzureichende Technologien negativ auf die Kundenzufriedenheit und…

Fehlerhafte Datenbestände bereinigen: Die Relevanz von Daten steigern

»Gott vertrauen wir. Alle anderen müssen Zahlen vorlegen.« So lautet ein Zitat des amerikanischen Statistikers W. Edwards Deming. Es unterstreicht die Relevanz von Messungen und Analysen für die Überprüfbarkeit von Fakten. Da das Datenvolumen jedoch exponentiell wächst, wird dieser Anspruch immer schwerer umzusetzen. Wie Unternehmen die Relevanz ihrer Daten steigern, zeigt der folgende Beitrag. Grassierende…

Logistik-IT: Mensch und Maschine

Alles einfach und aus einer Hand: Lobster und Supply Chain Factory geben auf dem Forum Automobillogistik in Leipzig Kooperation bekannt. Ob Bestellen, Track & Trace, Dokumentenmanagement, Routing oder Gefahrguthandling – Supply Chain Management hat viele Themen. Wer hier mit transparenten Abläufen und optimierten Prozessen arbeitet, kann Logistikkosten senken und von Wettbewerbsvorteilen profitieren. Dank der Kooperation…

ERP-Systeme – Open Source vs. Closed Source

Der Entscheidungskampf zwischen Open-Source- und Closed-Source-Softwarelösungen wird weiterhin mit vollem Eifer gefochten. Auch im ERP-Bereich kann man keinen generellen Sieger ernennen. Beim Entschluss zu einem Für oder Wider sollten einige wichtige Kriterien, wie Innovationsfähigkeit, Support, Sicherheit, Leistung, Preis oder Unternehmensgröße, bei der Entscheidungsfindung berücksichtigt werden.

Datenintegration als Grundlage für Industrie 4.0

So schaffen Sie eine integrierte Datenbasis für Ihr Industrie-4.0-Projekt. Viele Produktionsunternehmen sind dabei, Fertigungsprozesse und ganze Wertschöpfungsketten zu digitalisieren. Für alle gilt: Es braucht ein tragfähiges Konzept für die Sammlung, Speicherung und Auswertung der vielen Daten, die im Zuge der Digitalisierung von Fertigungsprozessen anfallen.   Manche stehen noch am Anfang, andere sind schon mittendrin: Viele…

Die Börse wird durch die Cloud zum Datenhändler

Euronext nutzt Data Lake in der AWS-Cloud und bietet aktuelle Marktdaten als erweiterten Service. Mit der Trennung von der New York Stock Exchange wurde die Euronext im Jahr 2014 die erste länderübergreifende Börse der Eurozone. Hier sind Handelsplätze wie Amsterdam, Brüssel, Dublin, Lissabon und Paris vereint. Mit einer Marktkapitalisierung von 3,7 Billionen Euro (Stand März…

Hochriskante Sicherheitslücken in SAP Mobile

Fortune 1000-Unternehmen gefährdet: Cyber-Schwachstellen ermöglichen nicht autorisierten Benutzern das Entschlüsseln und Modifizieren sensibler, von SAP-Geschäftsanwendungen verwendeter Konfigurationsparameter. Ein Experte für die Sicherheit geschäftswichtiger Anwendungen hat neue Security Advisories veröffentlicht, die gefährliche Schwachstellen in SAP Mobile sowie zielgerichtete Lösungsansätze beschreiben. Drei dieser Sicherheitslücken sind besonders schwerwiegend: Hacker können sich darüber innerhalb von Organisationen, die SAP Mobile…