
Der digitale Zahlungsverkehr beschleunigt sich – und mit ihm die Risiken. Echtzeit-Transaktionen, API-basierte Schnittstellen und digitale Wallets sorgen für Geschwindigkeit, Komfort und neue Geschäftsmodelle. Gleichzeitig öffnet dieselbe Technologie Kriminellen neue Türen: Mit Hilfe generativer Künstlicher Intelligenz entstehen gefälschte Identitäten, Dokumente und Stimmen in nie dagewesener Qualität. Der Wettlauf zwischen Innovation und Manipulation hat längst begonnen.
Wenn Daten zu Menschen werden: Synthetische Identitäten als neue Betrugswährung
Betrüger erfinden heute Identitäten, die nie existierten – und doch alle Prüfungen bestehen. Sie kombinieren reale Daten aus Datenlecks mit erfundenen Namen, Geburtsdaten und Adressen. So entstehen sogenannte synthetische Identitäten, die wie echte Kunden erscheinen, Kreditlinien eröffnen oder Konten eröffnen – und oft jahrelang unentdeckt bleiben.
Generative KI verschärft diese Entwicklung dramatisch. Deepfake-Videos, künstlich erzeugte Selfies oder manipulierte Sprachproben lassen sich automatisiert in Serie herstellen. Laut Sumsub stieg die Zahl synthetischer Dokumentenbetrugsfälle in Europa zwischen Q1 2024 und Q1 2025 um 378 Prozent. Das Joint Research Centre der EU-Kommission warnt: Generative AI beschleunigt nicht nur Innovation, sondern auch Identitätsmissbrauch und Datenschutzverletzungen.
Vom Werkzeug zur Waffe: Wie GenAI Betrug industrialisiert
Neue KI-Modelle wie Diffusion Models, Autoencoder und GANs (Generative Adversarial Networks) ermöglichen Fälschungen in industriellem Maßstab. KI produziert digitale Identitäten mit überzeugenden Mustern und konsistenter Logik – inklusive synthetischer Ausweise, Fotos, Stimmen oder IP-Spuren.
Der Effekt: Kriminelle müssen nicht mehr einzelne Fälschungen erstellen, sondern können hunderte Profile täglich generieren. Klassische KYC-Prüfungen (Know Your Customer) geraten damit an ihre Grenzen – sie erkennen Inkonsistenzen oft erst, wenn der Schaden bereits entstanden ist.
KI als Gegenspieler: Wenn Technologie zur Verteidigung wird
Doch dieselbe Technologie, die Täuschung ermöglicht, kann auch schützen. KI-gestützte Systeme erkennen Muster, die menschlichen Prüfern entgehen. So verknüpfen zum Beispiel Link-Analysis-Modelle Datenpunkte in Millisekunden und Graph-Datenbanken decken Netzwerke verbundener Identitäten auf. Der Vorteil von Machine-Learning-Systemen ist: Sie lernen adaptiv, neue Betrugsmuster zu erkennen. Und die GANs können schließlich sogar genutzt werden, um eigene Abwehrsysteme zu trainieren, indem sie synthetische Betrugsversuche simulieren.
Ein fiktives Beispiel zeigt die Praxis: Eine Regionalbank entdeckt, dass ihr Altsystem Kreditkartenanträge erst nach 24 Stunden prüft – ein Einfallstor für Betrug. Mit einem Digital Twin des Kernsystems simuliert die Bank Prüfprozesse in Echtzeit und kombiniert dies mit KI-basierter Link-Analysis. Das Ergebnis: Deutlich weniger Betrugsfälle, schnellere Kundenprozesse.
Der Umbau hat begonnen: Sicherheit muss in die Architektur eingebaut werden
Synthetische Identitäten lassen sich nur bekämpfen, wenn Schutzmechanismen tief in die Systeme integriert werden. Punktuelle Maßnahmen greifen zu kurz. Moderne Verteidigungslinien bestehen aus einer Kombination mehrerer Technologien:
- Erweitertes KYC: Biometrie und Gerätefingerprinting als zusätzliche Prüfschichten.
- Mehrquellenabgleich: Vergleich von Identitätsdaten mit staatlichen, finanziellen und Telekommunikationsdaten.
- Graph-Analyse: Erkennen verborgener Cluster und Netzwerke.
- KI-Training mit synthetischen Mustern: Nutzung von GANs zur stetigen Verbesserung der Algorithmen.
- Echtzeitfähige Microservices: Modular, flexibel, skalierbar.
- Cloud-native Plattformen: Laufend aktualisierte Sicherheitsmechanismen ohne Performanceverlust.
Diese Schutzarchitektur funktioniert nur, wenn Altsysteme modernisiert oder über Microservices ergänzt werden. Veraltete Schnittstellen behindern Echtzeit-Abgleiche – und machen KI-basierte Sicherheit wirkungslos.
Der Mainframe bleibt Herzstück – jetzt mit KI-Upgrade
Tatsächlich spielen Mainframes weiterhin eine zentrale Rolle im Finanzsektor. Laut Kyndryl 2025 State of Mainframe Modernization Survey planen oder nutzen 88 Prozent der befragten Unternehmen generative KI auf Mainframes – vor allem für Fraud Detection (29 Prozent) und Security Testing (26 Prozent).
Diese Entwicklung zeigt: Die Zukunft liegt in der Verbindung von Alt und Neu – robuste Mainframe-Systeme, erweitert durch KI-basierte Sicherheits- und Datenarchitekturen.
Der Kyndryl-Ansatz: Verantwortung, Governance, Schutz
Kyndryl begegnet den Risiken durch generative KI und synthetische Identitäten mit einem ganzheitlichen Sicherheits- und Governance-Ansatz. Das Unternehmen kombiniert KI-Governance, Datenmanagement und Security-Strategien zu einem Framework, das Verantwortung und Innovation miteinander verbindet. Dazu gehören ethische Leitplanken und klare Richtlinien zur sicheren Nutzung von generativer KI. Mit technischen Schutzmaßnahmen lassen sich Deepfakes und synthetische Identitäten erkennen. Transparente Governance-Modelle erfüllen die regulatorischen Vorgaben wie den EU AI Act.
Das Ziel des Kyndryl-Ansatzes: Unternehmen werden befähigt, generative KI verantwortungsvoll und sicher einzusetzen, ohne Vertrauen und Sicherheit zu gefährden.
Fazit: Sicherheit entscheidet über Vertrauen
Der Zahlungsverkehr der Zukunft wird von KI geprägt sein – auf beiden Seiten. Wer seine Systeme modernisiert, Datenqualität und Governance stärkt und generative KI gezielt in seine Sicherheitsarchitektur integriert, kann Betrug wirksam eindämmen.
Kyndryl zeigt, dass technologische Innovation und ethische Verantwortung kein Widerspruch sind – sondern die Voraussetzung für nachhaltiges Vertrauen im digitalen Finanzökosystem.
Sanjay Bollmann
Vice President und Head of Financial Services & Insurance
bei Kyndryl
https://www.kyndryl.com/de/de
https://www.kyndryl.com/us/en/campaign/state-of-mainframe-modernization