Schnell, schneller, Daten-Streaming – Warum Echtzeit den entscheidenden Unterschied macht

Geschwindigkeit zählt – ob im Wettkampfsport oder in der Business-Welt. Wer sich schnell an neue Gegebenheiten anpassen, Entscheidungen fundiert und rechtzeitig treffen und dem Wettbewerb immer einen Schritt voraus sein kann, ist in der digitalen Welt ganz vorne mit dabei. Auf die Geschwindigkeit kommt es deshalb auch bei der Analyse und Nutzung von Daten an. Das sogenannte Daten-Streaming in Echtzeit hält mehr und mehr Einzug in Unternehmen. Das zeigt auch der aktuelle Data Streaming Report von Confluent, einem Vorreiter im Bereich Daten-Streaming. Was es damit auf sich hat, welches Potenzial im Streaming von Daten steckt und worauf sich Unternehmen in Zukunft einstellen müssen, erklärt Roger Illing, Vice President Sales CEMEA von Confluent, im Interview mit »manage it«.


Herr Illing, in dem neuesten Data Streaming Report von ­Confluent wurden auch Unternehmen aus Deutschland befragt. Welche Ergebnisse haben Sie besonders überrascht?

Es ist schon erstaunlich zu sehen, dass die Mehrheit, nämlich knapp 90 Prozent der Befragten aus Deutschland, Investitionen in Daten-Streaming als sehr wichtig erachten. Wir haben viele Kunden, bei denen Daten-Streaming bisher nur in gewissen Bereichen zum Einsatz kommt. Der Report zeigt nun, dass die Entscheidungsträger Daten-Streaming deutlich strategischer und im großen Stil platzieren. Diesen Trend bekommen wir natürlich auch zu spüren, denn die Nachfrage nach der Technologie ist gestiegen. Das Potenzial von Daten-Streaming wird in immer mehr Unternehmensbereichen erkannt und adaptiert, um sowohl das Kundenerlebnis als auch die Back-End-Abläufe zu verbessern.

Was dieses Wachstum spürbar bremst, ist – wie in vielen anderen Bereich auch – der Fachkräftemangel. Dadurch können die Unternehmen neue Technologien nicht zügig umsetzen. Auch das zeigen die Ergebnisse. 

Darüber hinaus liefert der Report sehr spannende Erkenntnisse zum Return on Investment. Dafür haben wir eigens ein Maturity Curve Model erstellt. Dieses identifiziert, wie intensiv ein Unternehmen Daten-Streaming nutzt. Demnach erwarten oder erzielen 64 Prozent der deutschen Unternehmen, die sich auf Stufe 2 der Skala befinden, eine 2- bis 5-fache Rendite. Befindet sich ein Unternehmen eine Stufe höher, liegt die Rendite sogar schon bei 78 Prozent. Dies bestätigt den hohen Mehrwert, den die Unternehmen in Event- und Daten-Streaming sehen. 

 

Roger Illing,
Vice President Sales CEMEA
von Confluent

 


Daten-Streaming ist also auf dem Vormarsch. Doch wie funktioniert Daten-Streaming und welche Branchen profitieren besonders davon, wenn man bisher wenig oder gar keine Berührungspunkte mit dieser Technologie hatte? 

Daten-Streaming, auch Stream-Processing oder Event-­Streaming genannt, ist ein kontinuierlicher Datenfluss, der die Verarbeitung und Analyse von Daten in Echtzeit ermöglicht. Auf diese Weise können Unternehmen unmittelbar Erkenntnisse gewinnen und Maßnahmen einleiten. Sowohl Cloud-native Unternehmen als auch traditionelle Unternehmen mit vielen unterschiedlichen On-Prem-Lösungen können Daten-Streaming einsetzen. Letztere profitieren besonders davon, da sie so eine Brücke zwischen On-Prem- und Cloud-Implementierungen schlagen können. 

Eine Daten-Streaming-Plattform wie sie Confluent anbietet, wird in nahezu jeder Branche eingesetzt – von der Echtzeit-Betrugserkennung im Finanzwesen bis zur User Experience in der Retail-Branche – Tendenz steigend. Alle diese Branchen sind auf schnelle Migration, Datenverarbeitung und Transformation angewiesen, ohne die sie im Wettbewerb den Kürzeren ziehen. Daten-Streaming setzt eben genau hier an. 

Jedes Unternehmen, das Technologie-affin ist und Aufgabenstellungen im Bereich IoT und Datenverarbeitung hat, wird daher früher oder später auf Daten-Streaming setzen. 


Mainframe ist tot, es lebe der Mainframe! Was bereits vor Jahrzehnten aus den Unternehmen verschwinden sollte, ist auch heute noch Realität. Der Mainframe macht daher vielen IT-Abteilungen nach wie vor Probleme. Wie gehen Unternehmen mit der Umstellung auf die Cloud und Daten-Streaming um? 

In einigen Branchen wird der Mainframe so schnell nicht verschwinden. Beim Data-Streaming geht es darum, große Systeme zu entlasten. Das heißt, Daten, die nicht auf dem Mainframe gehalten werden müssen, werden entnommen – wir sprechen also vom sogenannten Offloading aus dem Mainframe. Hier sind viele unterschiedliche Szenarien und Ansätze möglich. Ein gutes Beispiel sind Versicherungen, die beispielsweise Daten für Lebensversicherungen aus dem Mainframe auslagern, also Offloading betreiben können. Denn auf diese Daten muss gegebenenfalls nur im Schadens-, das heißt Todesfall, zugegriffen werden. Auf diese Weise entlasten Versicherer nicht nur ihre Hauptplattform, sondern können auch einen höheren ROI erzielen. 

Ziel soll es sein, mit Daten-Streaming die Anzahl der Systeme und Anwendungen im Unternehmen zu reduzieren, um somit Kosten zu sparen und um natürlich auch agiler und schneller handeln zu können. 


Können Sie ein konkretes Beispiel für den Einsatz von Daten-Streaming in der Praxis nennen? 

Die Logistikbranche ist ein gutes Bespiel für das Potenzial von Daten-Streaming. Einer unserer Kunden, LKW WALTER, ist durch den Einsatz von Confluent in der Lage, Unternehmensprozesse in Echtzeit abzubilden. Nur so konnte das Unternehmen unter anderem herausfinden, an welcher Stelle der Logistikkette besonders hohe Standzeiten auftreten. Es stellte sich schnell heraus, dass es insbesondere vor dem Beladen der Lkws zu hohen Standzeiten kommt. Diese wurden jedoch nicht durch das Unternehmen oder die Mitarbeitenden selbst verursacht, sondern durch den Kunden. LKW WALTER war nun in der Lage, auf dieser Basis Prozesse neu zu entwickeln, Services, Produkte und Kosten für den Kunden anzupassen und die Disposition zu optimieren. 

Die Analyse und Verarbeitung von Realtime-Daten wird für die Logistikbranche überlebenswichtig sein, da es hier oft um minuten- beziehungsweise sekundengenaue Prozesse geht. 


On-Prem vs. Cloud – Wohin geht die Reise? 

Ich glaube, dass sich in Deutschland das hybride Modell durchsetzen wird, denn einen 100-prozentigen Cloud-Ansatz sehe ich in naher Zukunft nicht, dafür ist der hiesige Markt zu stark reguliert. Die Wahrheit wird irgendwo dazwischen liegen. Fakt ist, dass Kunden, die sich für die Cloud entscheiden, durchaus agiler und schneller erfolgreicher sind als Kunden mit einem reinen On-Prem-Ansatz. 

Daten-Streaming erweist sich für jeden Ansatz als wertvoll. Bei der Transformation in die Cloud – vollständig oder teilweise – werden Unternehmen feststellen, dass die Migration sehr aufwändig und komplex sein kann. Sie müssen eine nahtlose Verbindung zwischen ihren bestehenden On-Prem-Systemen und den Cloud-Implementierungen herstellen. Diese Brücke schafft das Daten-Streaming. 


Wir stehen erst am Anfang der Datenflut. KI, 5G, 6G, autonomes Fahren, Smart Cities – all diese Entwicklungen erzeugen Daten. Gefahr oder natürliche Entwicklung? Wie sehen Sie die Zukunft? 

KI ist natürlich in diesem Zusammenhang ein heiß diskutiertes Thema. Allen voran ChatGPT. Mittlerweile wird der Chatbot vor allem als besseres Google genutzt. ChatGPT zeigt aber auch, dass wir den nächsten Schritt in der Entwicklung der KI machen, denn es ist in der Lage, Kontext in den weltweit verfügbaren Content zu bringen. Dass dies irgendwann möglich sein würde, war absehbar. 

Für die Zukunft glaube ich, dass wir mehr Reglementierungen benötigen, um die böswillige und kriminelle Nutzung von Innovationen wie KI einzudämmen oder sogar zu verhindern. Versuche, die weitere Entwicklung von künstlicher Intelligenz aufzuhalten oder zu begrenzen, halte ich für falsch. Eine Gefahr für die Zukunft sehe ich nicht. Wir werden unsere Prozesse und unseren Alltag schrittweise anpassen und die Innovationen hoffentlich gewinnbringend und positiv einsetzen.

 


Illustration: © Lorenzo Rossi | Dreamstime.com