Robuste und widerstandsfähige Lieferketten: So hält Data Analytics die Supply Chain am Laufen

Die rasche Verbreitung von Covid-19 hat viele Lieferketten unter Stress gesetzt. Hamsterkäufe und Produktionsstopps angesichts fehlender Rohstoffe machten es schwer, die Nachfrage der Märkte zu erfüllen. Da viele Branchen von Lieferungen aus anderen Ländern abhängig sind, müssen Entscheidungsträger in der Lage sein, schnell Anpassungen an der Supply Chain vorzunehmen. Dies funktioniert jedoch nur, wenn verlässliche Daten vorliegen.

Illustration: Absmeier,

Illustration: Absmeier, Tumisu

Nur wenige Funktionsbereiche innerhalb eines Unternehmens spüren die Auswirkungen einer Krise so stark wie die Beschaffung. Ein einzelnes Ereignis kann einen Dominoeffekt über eine ganze Lieferkette hinweg auslösen. Führungskräfte müssen dann schnell handeln und Maßnahmen implementieren, um die Nachfrage decken zu können.

Die meisten Manager wissen, wie wichtig Reaktionsfähigkeit ist, wenn sich Marktbedingungen ändern. Krisenszenarien bringen jedoch ganz neue Herausforderungen und zusätzlichen Druck mit sich. Der Schutz der Supply Chain in einer Krise erfordert Schnelligkeit und Geschicklichkeit; es ist besser, Krisenszenarien schon im Voraus einmal geplant zu haben, als erst während der Krise neue Maßnahmen zu realisieren.

Naturkatastrophen und Unfälle lassen sich jedoch nicht vorhersehen. Wichtig ist daher die Fähigkeit einer Organisation, Szenarien durchzuspielen und einen Wiederherstellungsplan für den Katastrophenfall zu haben. Unternehmen können es sich nicht leisten, erst auf das Eintreten einer Krise zu warten, bevor sie Maßnahmen ergreifen. Um den Geschäftsbetrieb zu sichern, sind Datentransparenz, Agilität und vorbereitete Handlungsempfehlungen erforderlich.

Wenn sich die Unternehmen von den Folgen der aktuellen Pandemie erholt haben, wird es für die Planer darauf ankommen, zunächst mit Hilfe von Daten Transparenz über die Lage herzustellen. Anschließend muss diese Transparenz genutzt werden, um das Risiko einzuschätzen und schließlich Empfehlungen für die weitere Planung abzugeben. Datenanalysen können also dazu beitragen, die Reaktion in einer Krise zu verbessern und helfen vorherzusagen, wie sich die Nachfrage entwickelt.

 

Prognosen neu erstellen

Dazu das Beispiel eines Herstellers von Körperpflegemitteln in Asien. Dieser musste in der Krise Produktionsstätten in Südkorea und China schließen. Für das Unternehmen war es wichtig zu verstehen, wo sich weitere Betriebsvorräte befinden, um die Nachfrage des Marktes erfüllen zu können. Die Planer analysierten zudem, ob sich die Produktion in anderen Fabriken steigern lässt, um fehlende Bestände auszugleichen und wie schnell eine Lieferung von Rohstoffen und Produkten überhaupt möglich ist.

Die Planer konnten die Zeiten für die Fertigung oder für die Zollabfertigung analysieren. Auf diese Weise erhielten sie eine realistische Prognose und konnten die Auswirkungen auf die weitere Fertigung, die Verfügbarkeit von Rohstoffen und die Vertriebszeit bewerten.

Aber auch Nachfragespitzen können Planer dazu veranlassen, das Niveau des Bestands an Rohstoffen neu zu bewerten und Betriebsstoffe zu verlagern, um die Produktion zu sichern. Durch Analyse von Demografie und Bevölkerungsdichte ist es zudem möglich, Versandorte neu zu priorisieren sowie Fahrzeiten und weitere logistische Details zu verwenden, um Lagerbestände anzupassen.

Bei sich verändernden Nachfragemustern ist es notwendig, die Produktion kontinuierlich anzupassen. Dazu müssen Planer und Käufer möglicherweise frühere Prognosen auf der Grundlage alternativer Lieferanten und der Rohstoffverfügbarkeit, einschließlich der aktuellen Betriebs- und Sicherheitsbestände, neu erstellen. Analysten müssen historische Daten aus bekannten Situationen wie früheren Rezessionen oder Krisendaten aus Flut- oder Hurrikan-Notfällen interpretieren, um eine vorausschauende Prognose für die Erholung zu modellieren und zu erstellen. Data Science und prädiktive Modellierung liefern die Möglichkeiten, um solche vorausschauenden Szenarien zu entwickeln. Dieser Ansatz liefert detaillierte und umsetzbare Erkenntnisse für Teams, die die Produktion und Verteilung von Ausrüstung, Dienstleistungen oder anderen erforderlichen Lieferkettenprozessen optimieren wollen.

 

Lieferanten neu bewerten

Die Aufrechterhaltung von Lieferketten ist in Krisenzeiten von entscheidender Bedeutung. Der Ausfall eines Lieferanten kann schon zu einem sofortigen Betriebsstopp führen, wenn die für die Herstellung erforderlichen Rohstoffe nicht rechtzeitig zur Verfügung stehen. Die Konsumgüterindustrie (CPG) ist besonders anfällig, da die Rohstoffe oft von verschiedenen Quellen bezogen werden und jegliche Abweichungen in der Rohstoffzusammensetzung sich direkt auf die Rezepte und die Qualität des Endprodukts auswirken. Wissenschaftler müssen daher ständig alternative Rezepte analysieren und eine innovative Software-Anwendung nutzen, die die Auswirkung unterschiedlicher Rohstoffe aufzeigt. Die Analyse verschiedener Produktrezepturen kann dabei helfen, eine Maschine auf die Nutzung neuer Rohstoffe zu kalibrieren und so sicherzustellen, dass jede Charge trotz unterschiedlicher Materialien eine gleichbleibende Qualität liefert.

Die Messung und Optimierung von Lieferanten ist daher für das Procurement eine wichtige Aufgabe. Komplexe Lieferkettenumgebungen erfordern zudem einen Pool von alternativen Lieferanten, auf die ein Unternehmen zurückgreifen kann, um Ausfälle während einer Krise zu vermeiden.

Unternehmen sollten auf folgende Aspekte achten, die die Sicherheit von Lieferketten steigern können:

  • Mitarbeiter im Einkauf sollten eine Risikobewertung von alternativen Lieferanten vornehmen können, um Teile oder Rohstoffe zu identifizieren, die in eine Neuentwicklung von Produkten einfließen können.
  • Unternehmen sollten mit analytischen Prognosen sicherstellen, dass unterschiedliche Abteilungen bei der Beschaffung eine Diversifizierung der Lieferanten vornehmen. So lässt sich die Abhängigkeit von einzelnen Komponenten oder Rohstoffen verringen.
  • Unternehmen sollten Was-wäre-wenn-Szenarien zur Beschaffung entwickeln. Dazu gehören auch vorab genehmigte alternative Anbieter der Stufen zwei und drei oder Produktsubstitutionen, um fehlendes Material beschaffen zu können. So wird auch ein Redesign von Produkten auf der Grundlage verfügbarer Ressourcen möglich.

 

Logistik und Lieferzeiten optimieren

Ein weiteres Best-Practice-Beispiel liefert eine Fast-Food-Kette aus den USA mit mehr als 4.000 Standorten. Das Unternehmen wollte seine Lieferkette optimieren, um Transportwege zu minimieren. Dazu wurden Geodaten verwendet, um festzustellen, welche Lieferanten sich in geografischer Nähe der Standorte befinden. Dies war besonders wichtig, falls es künftig einmal zu einem Rückruf von Produkten kommen sollte. Bislang war dies für die Franchise-Organisation eine Herausforderung, da die Franchisenehmer dafür verantwortlich waren, dass die Produkte ordnungsgemäß nachverfolgbar sind. Die Mitarbeiter entwickelten mit einem Analyseteam eine sekundäre Produktoption für den Fall eines Rückrufs, um so die Verbraucher zu schützen. Zuvor war diese Analyse eine Aufgabe, die von vier Mitarbeitern unter hohem Zeitaufwand durchgeführt wurde. Durch den Einsatz hochentwickelter Analysesoftware lässt sich diese Aufgabe nun in einem durchgängigen und wiederholbaren Workflow abarbeiten.

 

Flottenmanagement

Ein weiteres Beispiel zur Supply-Chain-Optimierung liefert das Flottenmanagement. Bei der Umverteilung von Lagerbeständen oder von Materialien aus Quarantänegebieten ist es notwendig, schnell zusätzliche Transportmittel auf der Grundlage individueller Produktvorlaufzeiten bereitzustellen. Dafür sind Kenntnisse über Speditionen ebenso notwendig wie aktuelle Geodaten und ein Tracking von Fahrzeugen in Echtzeit. Wer nachvollziehen kann, wo sich 100.000 Lastwagen mit Rohstoffen über die Kontinente verteilt gerade befinden, kann diese Informationen dazu verwenden, um die Produktion zu sichern und Ausfallzeiten zu reduzieren.

Rohstoffe können aber auch an Qualität verlieren, wenn sie lange Zeit an Grenzübergängen auf die Abfertigung warten. Prädiktive Analysen können dabei helfen, Szenarien zu modellieren und helfen bei der Erstellung von Arbeitsabläufen, um Echtzeit-Schätzungen von Beständen und Prognosen für Kapazitätsreserven zu liefern. Häufig als Maß für die Ineffizienz innerhalb eines Just-in-Time-Industrieprozesses eingestuft, kann die Analyse in Krisenzeiten dazu beitragen, aufzuzeigen, wo überschüssige Teile zurückgehalten werden, die als Puffer dienen, bevor neue Lieferungen benötigt werden.

 

Aufbau robuster Lieferketten

Planer und Einkäufer benötigen Lösungen, um Engpässe in der Beschaffung zu vermeiden und Risiken zu verringen. Dazu ist es jedoch erforderlich, eine Fülle von Daten aus ganz unterschiedlichen Quellen zu nutzen, um verlässliche Informationen über potenzielle Versorgungslücken zu erhalten.

Eine Entscheidungsfindung erfordert daher verlässliche Informationen und korrekte Daten. Folglich sollten Daten und Analysen als Stabilisatoren dienen, um Unternehmen bei der Modellierung von Geschäftsszenarien zu unterstützen, damit sie die notwendige Bewertung, Anpassung und Kurskorrektur als Reaktion auf die Marktbedingungen vornehmen können.

Der Wert von Daten wird jedoch erst dann erkannt, wenn Daten für den Zugriff im gesamten Unternehmen verfügbar sind. Ohne eine breite Bereitstellung von Daten könnten einige Führungskräfte benachteiligt sein. Organisationen können nur dann bessere Entscheidungen auf der Grundlage von Daten und Analysen treffen, wenn benötigte Informationen innerhalb der gesamten Organisation verfügbar sind.

Viele erfolgreiche Unternehmen verfügen über sogenannte Citizen Data Scientists. Das sind analytisch versierte Datenarbeiter, die in Daten wertvolle Muster erkennen und sinnvolle Korrelationen finden. Die kognitiven Fähigkeiten dieser Mitarbeiter in Kombination mit leistungsfähigen analytischen Softwarelösungen helfen Unternehmen dabei, bei Störungen in der Lieferkette in Echtzeit Alternativen zu entwickeln. Außerdem lassen sich Schritte zur Verbesserung der Widerstandsfähigkeit der Organisation für eine verbesserte Kontinuität identifizieren.

 

Transformative datengesteuerte Antworten

Um eine effiziente Lieferkette zu betreiben, sind verschiedene interne und externe Faktoren zu berücksichtigen. Von den Unternehmen wird erwartet, dass sie auch bei Betriebsstörungen, bei limitierten Ressourcen und fehlender Klarheit darüber, wie die Welt kurz- oder langfristig aussehen wird, die Produktion aufrechterhalten können. Diejenigen, die bereits strategisch agile, fortschrittliche Analysen für ihre Lieferkettenplanung einsetzen, werden die aktuelle Krise besser überstehen als Unternehmen ohne diese Lösung.

Die Stabilität und Belastbarkeit wiederholbarer Analysen sorgt für verbesserte Effizienz in der gesamten Lieferkette. So lässt sich eine Fahrzeugflotte schneller umleiten, Lieferengpässe werden schneller erkennbar und der Personalbedarf lässt sich genauer vorhersagen. Doch um in Krisen schnell wertvolle Erkenntnisse zu gewinnen, bedarf es einer soliden, robusten Analysegrundlage. Analyseplattformen müssen in der Lage sein, mit einer Vielzahl von Daten und Quellen zu arbeiten, um sinnvolle Ergebnisse zu erzielen – ob es sich nun um Daten handelt, die in proprietären internen Systemen gehalten werden, um Webseiten externer Anbieter oder um Echtzeit-Tracking-Telemetrie. Daher sollten Organisationen in Self-Service-Analyseplattformen investieren, die sie in die Lage versetzen, Datentransparenz für alle Mitarbeiter zu schaffen. So können Fachabteilungen erfahrene Mitarbeiter als Citizen Data Scientist einsetzen, um die aus der aktuellen Krise gezogenen Erfahrungen in künftige Szenarien einfließen zu lassen.

 

Fazit

Die Macht von Data Analytics geht weit über die Fähigkeit einer Organisation hinaus, den Sturm zu überstehen, kann aber als entscheidende Triebkraft für das Erreichen einer globalen Lösung dienen. Parallel zur Reaktion auf kurzfristige geschäftliche Auswirkungen müssen Führungskräfte auch eine robuste Analysestrategie implementieren, die vorausschauende Erkenntnisse nutzt, um zukünftige Schwachstellen zu erkennen.

Alan Jacobson, Chief Data and Analytics Officer (CDAO), Alteryx

 

1032 Artikel zu „Data Analytics“

IT-Trends 2020: Hybrid Cloud, Predictive Data Analytics und Nachhaltigkeit bestimmen die Agenda

Zum Ende des Jahres wird es Zeit, die Technologien und Ansätze ins Auge zu fassen, die 2020 die Unternehmens-IT beeinflussen werden. Sage hat fünf Trends identifiziert, mit denen sich Entscheider und Entwickler vermehrt beschäftigen sollten, um Effizienz und Wettbewerbsstärke voranzutreiben. Hybrid Cloud, Data Analytics, DevOps, energieeffiziente Software und Security by Design sind, so Oliver Henrich,…

Advanced, predictive, preventive: Data Analytics – Trend oder Zukunft?

Die Themen Digitalisierung und Big Data stehen bereits seit Jahren auf der »To-do-Liste« der Unternehmen und sind auch in den Fachmedien mehr als präsent. Allerdings steckt die Umsetzung in der Realität bei vielen Unternehmen noch in den Kinderschuhen. Das Potenzial, das Daten bieten, ist häufig nicht auf den ersten Blick ersichtlich. Erst durch eine detaillierte Analyse der Daten lassen sich diese optimal nutzen. Mittlerweile eröffnen sich hier mit Data Analytics ganz neue Möglichkeiten.

Fünf Vorurteile über Data Analytics

Die Entwicklungen von Big Data, Machine Learning und künstlicher Intelligenz werden 2019 wieder zu einem spannenden Jahr machen. Dank der Zukunftstechnologien gewinnt vor allem die Datenanalyse an Fahrt und Unternehmen werden noch weniger um die effektive Auswertung ihrer Informationen herumkommen. Manch einer tut sich aber schwer mit dieser neuen, tragenden Säule im Geschäftsalltag. IT-Experten sehen…

»Data Analytics«-Markt: Machine Learning – Preise sinken, die Produktreife steigt

»Machine Learning as a Service« ist zu einem umkämpften Markt geworden, in dem sich nahezu alle wichtigen IT-Provider positionieren. Sie müssen die Funktionen, zugrundeliegenden Algorithmen und Modelle dabei qualitativ wie quantitativ schnell weiterentwickeln, um Marktanteile und Kunden zu gewinnen. Dies stellt der neue große Anbietervergleich »ISG Provider Lens Germany 2019 – Data Analytics Services &…

Data Analytics in der Praxis – 7 Beispiele für erfolgreiche BI- und Big-Data-Projekte

  Angesichts sich immer schneller ändernder Rahmenbedingungen ist die Bedeutung von Datenanalyselösungen rapide gestiegen. Unternehmen müssen in immer kürzerer Zeit immer weitreichendere Entscheidungen treffen. Dazu brauchen sie einen verlässlichen Datenbestand, der einerseits alle Informationen der Organisation enthält und andererseits rasch und unkompliziert ausgewertet werden kann. Die nachfolgenden, branchenübergreifenden Praxisbeispiele zeigen, wie Unternehmen Daten systematisch analysieren…

Robotik, KI, AVs, Blockchain, Big Data Analytics und Sensoren krempeln die traditionelle Lieferkette um

95 % der Unternehmen noch nicht in der Lage, Vorteile der Digitalisierung für Supply Chains voll auszuschöpfen. Neue Technologien entwickeln sich so rasant, dass Schritthalten für Unternehmen schwierig ist. Mehr als 75 % erkennen potenzielle Vorteile von Informationstechnologie zur Kostenreduzierung, scheitern jedoch bei Implementierung an internen Hürden.   Der Report von DHL zur Digitalisierung in…

Big Data Analytics – Aus Rohdaten wird Gewinn

Verborgene Schätze – Sensoren, Maschinenlogs, SAP-Daten, Remote-Plattformen oder andere Quellen liefern jeden Tag enorme Datenmengen. Sie bleiben häufig ungenutzt. Die Herausforderung ist es, diese Big Data so aufzubereiten, dass man daraus Werte schaffen kann – auf der Kosten-, der Risiko- und vor allem der Wachstumsebene.

Big Data und Data Analytics: Schritt für Schritt zur eigenen Infrastruktur

Big Data und Data Analytics gehören zu den Kernthemen, mit denen sich Unternehmen heute im Rahmen der Digitalisierung ihrer Geschäftsmodelle auseinandersetzen. Externe Unterstützung in der Vorbereitungs- und Aufbauphase hilft Unternehmen, schnell und zielgerichtet eigene Strukturen aufzubauen, um Daten zur Wertschöpfung nutzen zu können. Big Data ist für die Mehrheit der Unternehmen inzwischen ein relevantes Thema,…

Big Data Analytics: So wird jeder Tag zum Black Friday

Vier Ansätze, wie Händler mit Big Data ihre Umsätze steigern. In den letzten Jahren sind Diskussionen über den Erfolg des Black Friday aufgekommen. Gründe dafür waren erste Angebote schon Tage vor dem Verkaufs-Freitag und schließlich die Erkenntnis, dass die Schnäppchen gar nicht so günstig sind, wie sie von den Unternehmen beworben werden. Dazu hat sich…

Katana neuer USU-Geschäftsbereich für Big Data Analytics

Die Digitalisierung der Industrie entwickelt sich zu einem Treiber für die Nachfrage nach Big-Data-Analytics-Anwendungen und Daten-getriebenen Services. Mit Data-as-a-Service-Lösungen werden bereits in 2019 weltweit knapp 12 Milliarden Dollar umgesetzt, so eine aktuelle Studie der Marktforscher von 451 Research. Die USU Software AG hat seit 2012 in diesem Umfeld mit eigener Forschung eine neue Big-Data-Analytics-Plattform entwickelt…

Data Analytics wird in den kommenden fünf Jahren zum kritischen Faktor für die Industrie

Studie zeigt: Trotz des Mangels an Fachleuten sehen die Unternehmen in Data Analytics ein erhebliches wirtschaftliches Potenzial. Industrial Analytics, also die Auswertung der in der Industrie über den Lebenszyklus der Produkte anfallenden Daten, führt in der öffentlichen Wahrnehmung ein Nischendasein. Doch im Rahmen der digitalen Transformation ist es für die Industrie von vitaler Bedeutung, wie…

Consulting 4.0: Data Analytics verändert die Beratungswelt

Bei Managementberatungen besteht Aufholbedarf in der Nutzung von Business-Intelligence-Software. Einsatz analytischer Software wichtiger Erfolgsfaktor für Beratungsangebote rund um die digitale Transformation. Managementberater erwarten, durch analytische Software den Zeitaufwand in der Analyse- und Umsetzungsphase zu halbieren. Egal ob im Vertrieb, der Fertigung oder in sozialen Netzwerken – heute werden überall Daten gesammelt und das Datenvolumen steigt…

Bankenbranche: Cognitive Computing und Data Analytics

Für Banken stellt sich aktuell verstärkt die Frage, wie dauerhaftes, profitables Wachstum in allen Geschäftsfeldern erreicht werden kann. Es geht darum, bei Produkten, Services, Konditionen, etc. besser zu sein als der Wettbewerb (Verdrängungswettbewerb). Zu den Gewinnern zählt nur, wer dauerhaft und profitabel wächst. Vor dem Hintergrund des aktuellen Marktumfelds sind Bankmanager sehr daran interessiert, ihre…

Big Data Analytics erfordert eine verlässliche Datenbasis

Der Begriff Big Data Analytics bezeichnet ein umfangreiches Spektrum von Methoden und Verfahren, beispielsweise Datenintegration, Datenmanagement, Business Intelligence und Predictive Analytics. Sie alle verfolgen das Ziel, eine breite Datenbasis möglichst effizient zur Optimierung von Entscheidungsprozessen im Unternehmen einzusetzen. Eine wichtige Rolle dabei spielt eine kontinuierlich hohe Datenqualität, ohne die keine echten Fortschritte erreichbar sind und im schlimmsten Fall das Risiko besteht, falsche Schlüsse zu ziehen.

Verschläft die Wirtschaft Data Analytics?

Unternehmen suchen die falschen Mitarbeiter und versäumen Geschäftschancen. Deutsche Firmen drohen bei Data Analytics den Anschluss zu verlieren. Diese Gefahr zeigt die Deloitte-Studie »Datenland Deutschland: Talent meets Technology – Data Analytics und der menschliche Faktor« auf. Viele Unternehmen bleiben in alten Mustern verhaftet: Fast 60 Prozent suchen nach klassisch ausgebildeten Wirtschaftswissenschaftlern für die Datenanalyse. Weniger…

Studie zu Big Data Analytics deckt Defizite und Potenziale bei der Digitalen Transformation auf

90 Prozent der Industrieunternehmen in Deutschland, Österreich und der Schweiz (DACH) nutzen noch immer weniger als die Hälfte ihrer Daten. Das ist eine Erkenntnis der Studie »Wettbewerbsfaktor Analytics 2015«. Die von der Universität Potsdam in Zusammenarbeit mit dem Softwarehersteller SAS durchgeführte Untersuchung erhebt den analytischen Reifegrad von Unternehmen der DACH-Region [1]. Quintessenz: Ein Großteil der…

Wie positionieren sich die Anbieter von Big Data Analytics im Schweizer Markt?

Die verfügbaren Analyse-Tools verteilen ihre Berechnungsergebnisse noch immer überwiegend an die traditionelle Anwendergruppe, meist Geschäftsführung und Controlling. Damit verhalten sich viele Big-Data-Anwendungen wie klassische BI/BA-Lösungen. Die Anwendungs-Szenarien bestehen oft aus Diagrammen mit attraktiv dargestellten und durchaus auch intuitiv verständlichen Key Performance Indicators und anderen Ergebnissen aus dem heute typischen Geschäftsalltag. An dieser Situation hat sich…

Analytics reicht nicht mehr aus: Top-Trends im Big-Data-Umfeld 2020

Wide Data, DataOps, Metadaten-Kataloge, Datenkompetenz und Shazamen sind die wichtigsten Trends im kommenden Jahr. Für 2020 hat der Data-Analyst-Spezialist Qlik folgende fünf Trends im Zusammenhang mit Big Data und Analytics identifiziert:   Aus Big Data wird Wide Data Dank skalierbarer Cloud-Lösungen sind in Big-Data-Umgebungen nicht länger die Kapazitätslimits unternehmensinterner IT-Infrastrukturen ein begrenzender Faktor. Die Herausforderung…