IT-basierte Innovationen in der Finanzbranche – Welches Potenzial steckt in Stream Processing?

Finanzunternehmen durchlaufen einen umfassenden digitalen Wandel, da die Marktvolatilität zunimmt, sich das Verbraucherverhalten ändert und die Anforderungen der Regulierungsbehörden steigen. Die Kapitalmarkt- und Finanzbranche wandelt sich von der minimalen Digitalisierung und Automatisierung ihrer Geschäftsprozesse zu einer hoch automatisierten und software- und IT-gesteuerten Branche. Dieser Wandel und der Wunsch nach zunehmender Dynamik erfordern ein Umdenken in Sachen Datenverarbeitung.

»Stream Processing kann hier ein bedeutende Rolle als Katalysator für Innovationen in der Finanzdienstleistungsbranche der Zukunft spielen«, ist sich Kostas Tzoumas, CEO und Gründer von data Artisans sicher.

Die Stream-Verarbeitung und eine Streaming-Datenarchitektur ermöglichen es Finanzdienstleistern, die notwendigen Änderungen an Geschäftsmodellen und Prozessen agil und kostengünstig umzusetzen. Durch die Aktivierung einer Streaming-Datenarchitektur wenden sich Finanzdienstleister einer neuen Art und Weise zu, auf Informationen zu reagieren: eine Art und Weise, die dem Unternehmen Einblicke in Echtzeit bietet und es ermöglicht, rund um die Uhr datengesteuerte Anwendungen zu erstellen, die alle erforderlichen Änderungen und Warnungen sofort durchführen.

Drei wesentliche Möglichkeiten, wie die Stream Processing als Katalysator für Innovationen in der Finanzdienstleistungsbranche wirken kann, sind die folgenden:

 

  1. Betrugserkennung in Echtzeit und Reaktion auf Cybersicherheitsbedrohungen

Streaming-Datenarchitekturen ermöglichen es Finanzdienstleistern, Daten in dem Moment zu verarbeiten, in dem sie generiert werden, und zwar dann, wenn sie am wertvollsten sind. Mit der Stream-Verarbeitung können Unternehmen Echtzeit-Betrugserkennungssysteme sowie intelligente und leistungsstarke maschinelle Lernalgorithmen entwickeln, die alle auf Echtzeitdaten basieren. Da solche Tools immer ausgefeilter werden, steht Unternehmen nun eine effektive Reaktionsmöglichkeit auf Kreditkartenbetrug, Identitätsdiebstahl, betrügerische Transaktionen und andere Formen von Cybersicherheitsbedrohungen zur Verfügung.

 

  1. Vereinfachung und Automatisierung der Einhaltung gesetzlicher Vorschriften

Finanzdienstleister und Kapitalmarktunternehmen stehen vor einer wachsenden Herausforderung, wenn es darum geht, die regulatorischen Anforderungen zu erfüllen. Häufig ist manuelle Arbeit in die Berichterstattung an die Aufsichtsbehörden involviert, was für die Finanzindustrie zusätzliche Kosten und Overhead verursacht. Wenn wir die Geschwindigkeit der sich ständig verändernden Regulierungslandschaft hinzuziehen, ergibt sich eine große Herausforderung für Finanzdienstleister. Die Stream-Verarbeitung ermöglicht technologiegestützte Echtzeit-Compliance. Dies bedeutet einen Wandel von periodischen manuellen Überprüfungen hin zu einem ständig aktiven, datengesteuerten Überwachungssystem, das die verschiedenen Aufsichtsbehörden sofort über den aktuellen Geschäftsstatus informiert und darüber berichtet. Streaming-Datenarchitekturen ermöglichen es den Compliance-Abteilungen, Informationen kontinuierlich und in Echtzeit zu verarbeiten, bevor sie zu finanziellen Auswirkungen durch Regulierungsbehörden in den jeweiligen Ländern und Regionen führen.

 

  1. Customer 360: Maßgeschneiderte und personalisierte Produktangebote auf Basis von Echtzeitdaten

Die Finanzindustrie steht im zunehmenden Wettbewerb mit FinTech-Unternehmen, die schneller innovativ agieren und ihren Nutzern personalisierte Erfahrungen bieten können. Die Stream-Verarbeitung kann die Antwort auf solche Herausforderungen sein, indem sie die Erstellung eines »Customer 360 View«-Programms ermöglicht, das Echtzeitdaten analysiert. Man stelle sich einen großen Finanzdienstleister mit Millionen von Kunden vor, die täglich Millionen von Transaktionen generieren. Das Unternehmen muss sich zudem mit seinen Web-Präsenzen, der Unterstützung von Mobiltechnologie sowie den Kundendienst-Tools und -Agenten beschäftigen. Die Möglichkeit, daraus hervorgehende Daten in Echtzeit zu verarbeiten und darauf zu reagieren, ermöglicht eine bessere Überwachung der Kundenzufriedenheit und -loyalität.

 

Darüber hinaus kann das Unternehmen mit einer solchen Echtzeitverarbeitung ein stärker personalisiertes, maßgeschneidertes Produktangebot für bestimmte Kunden erstellen – abhängig von deren Transaktionsart, Interaktion mit der Website oder dem Kundendienst des Unternehmens etc. Die Kontrolle über die Kundensicht zu übernehmen und in Echtzeit darauf zu reagieren, ist eine Lösung für die Herausforderungen des modernen Finanzdienstleistungsgeschäfts von heute.

»Dies sind nur drei Beispiele dafür, wie Stream Processing moderne Finanzdienstleister dazu bringen kann, in Echtzeit und softwaregesteuert zu arbeiten. Da die Akzeptanz der Stream-Verarbeitung von Tag zu Tag zunimmt und immer mehr Anwendungsfälle aufgedeckt werden, können wir erwarten, dass Stream Processing das neue Paradigma für die Datenverarbeitung in der Finanzindustrie der Zukunft werden wird«, fast Kostas Tzoumas von data Artisans abschließend zusammen.

(www.da-platform.com)

 


 

Trends für 2019 – Stream Processing als Ansatz für Big Data und komplexes Datamanagement

Illustration: Absmeier, PDP

 

Um vorherzusehen, dass die schiere Masse an Daten auch im kommenden Jahr neue Rekordwerte erklimmen wird, muss man kein Experte sein. Um dieser Entwicklung Herr zu werden und die entstehenden Datenmassen effizient zu nutzen, sind jedoch Experten und neue Technologien gefragt. Ein erfolgsversprechender Ansatz ist dabei Stream Processing.

 

Stream Processing, also Datenstromverarbeitung, ist eine Big-Data-Technologie und steht für einen neuen Ansatz in der Datenverarbeitung. Der grundlegende Ansatz unterscheidet sich von allen bisher verwendeten Technologien zur Datenverarbeitung, beispielsweise der Batch- oder Stapelverarbeitung.

»Klassische Datenbanken basieren auf dem Ansatz, dass Daten zunächst abgespeichert werden müssen, um diese zu verarbeiten. Durch Geschäftsanalysesoftware, wie etwa Business-Intelligence-Lösungen, konnten Unternehmen früher nur rückblickend Erkenntnisse aus den Daten gewinnen, um dann – mit entsprechender Verzögerung, quasi rückblickend – Maßnahmen zu ergreifen«, erklärt Dr. Stephan Ewen, CTO und Co-Gründer der data Artisans GmbH aus Berlin. »Mit dem enormen Wachstum an verfügbaren Daten hat sich einiges verändert. Die heute immensen Datenmengen sind oft nur kurzfristig im Umlauf und können gar nicht erst langfristig gespeichert werden. Stream Processing bewältigt diese Herausforderung, indem riesige Mengen an Daten, sobald sie generiert werden, bereits in Bewegung – also als Datenstrom – verarbeitet werden können.«

Konkret erwartet der Experte von data Artisans für das kommenden Jahr fünf Entwicklungen, welche die Verbreitung von Stream Processing noch weiter beschleunigen werden:

 

  1. Die explosionsartige Zunahme von KI-Anwendungen wird die verteilte Stream-Verarbeitung zu einer Notwendigkeit machen. Neben den reinen Streaming-Maschinenlerntechniken wird die Stream-Verarbeitung zu einem zentralen Element, um komplexe Merkmalsvektoren zusammenzustellen, die in die anspruchsvollen Prädiktoren des maschinellen Lernens einfließen. Verteilte, leistungsstarke Stream Processing Frameworks werden zu einer Notwendigkeit avancieren, um immer komplexere Echtzeitdaten im großen Maßstab für Modelle und Algorithmen des maschinellen Lernens effizient zu modellieren und eine Vorverarbeitung durchzuführen.

 

  1. Stream Processing wird für komplexes Datenmanagement eingesetzt. Anstatt relationale Datenbanken zu verwenden, können Stream-Prozessoren ACID-Transaktionen direkt über Streams und Zustände hinweg verarbeiten. Da Ereignisströme die Quelle der Wahrheit für Veränderungen in der Welt sind, kann die ACID-konforme Stream-Verarbeitung viele Streams mit überlappenden und widersprüchlichen Änderungen in einen konsistenten Zustand der Welt auflösen – und das zu einem Bruchteil der Kosten und mit deutlich größerer Flexibilität und einfacherer Bereitstellung.

 

  1. 5G und die zunehmende Verbreitung von Sensoren und IoT-Geräten werden mehr Echtzeit-Streaming-Daten und mehr Anwendungsfälle schaffen, die eine sofortige Reaktion auf Ereignisse erfordern. Die Stream-Verarbeitung wird als effiziente Herangehensweise zur Realisierung von »Edge Computing« eingesetzt. So eignet sich die Stream-Verarbeitung hervorragend sowohl für die Vorverarbeitung von Daten auf Geräten oder Gateways als auch für die Ausführung ereignisgesteuerter Logik am Edge.

 

  1. Immer mehr Unternehmen werden erkennen, dass die Stream-Verarbeitung ein einfacher Weg ist, um eine DSGVO-konforme Dateninfrastruktur aufzubauen.Klassische »Data at Rest«-Architekturen machen es zu einer äußerst komplexen Aufgabe, zu erfassen, wo sensible Daten existieren. Streaming-Datenarchitekturen arbeiten direkt mit den Daten in Bewegung – und erfordern keine langfristige Speicherung oder Datenreplikation. Dies macht es einfach, sensible Daten für eine begrenzte Zeit im Anwendungszustand isoliert zu halten, wodurch die Datenschutzkonformität gewährleistet ist.

 

  1. Die Cybersicherheit wird ihren Wachstumskurs als eines der wichtigsten Themen der Informationstechnologie fortsetzen. Um Sicherheitsverletzungen zu erkennen und zu verhindern, müssen Cybersicherheitslösungen nach Anomalien in den Metriken und Nutzungsmustern der Netzwerkinfrastruktur, Anwendungen, Dienste etc. suchen. Der Einsatz der Stream-Verarbeitung wird in der Cybersicherheit weiter zunehmen, da die Technologie diesen Anforderungen hervorragend gerecht wird: Echtzeiterfassung und Echtzeitaggregation von Ereignissen, Verfolgung komplexer Muster sowie Auswertung und Anpassung von ML-Modellen über Echtzeitdaten.

 


 

Im Jahr 2020 werden 92 Prozent der europäischen Unternehmen Robotic Process Automation (RPA) einsetzen

Die Entwicklung von Big Data zu Fast Data

Konzepte für schnellere Datenverarbeitung im neuen Jahr