
foto freepik
Künstliche Intelligenz (KI) macht es Cyberkriminellen immer leichter, ihre eigenen »Produktivitätstools« zu entwickeln. Sie ermöglicht es, täuschend echt wirkende Inhalte für Angriffe in immer schneller werdendem Tempo zu erstellen. Dabei kommen sowohl legitime Apps , die für böswillige Zwecke missbraucht werden, als auch speziell entwickelte Tools, die in der Cybercrime-Unterwelt kursieren, zum Einsatz.
KI-Tools durchsuchen gezielt das Internet nach Unternehmensinformationen und werten diese aus, wodurch Angreifende detaillierte Profile von Mitarbeitenden oder anderen Zielpersonen erstellen können. Diese Informationen bilden die Basis für raffinierte Social-Engineering-Angriffe. In einigen Fällen locken Täter ihre Opfer in zunehmend komplexe Betrugsmaschen, etwa durch gefälschte, KI-gestützte Produktbewertungen und KI-generierte Online-Shops. Betrüger erstellen dafür komplette Webseiten und E-Commerce-Marken, einschließlich erfundener Unternehmensgeschichten und Kundenrezensionen. Mithilfe von Deepfakes, Stimmklonen, Phishing-E-Mails und täuschend echt aussehenden Fake-Webseiten geben sich Angreifende im großen Stil als seriöse Anbieter aus.
KI-gestützte Betrugsangriffe finden laut dem Microsoft Anti-Fraud-Team weltweit statt, wobei ein großer Teil der Aktivitäten in China und Europa registriert wird – insbesondere in Deutschland. Ein Grund dafür: Deutschland zählt zu den größten Märkten für E-Commerce und Online-Dienste innerhalb der Europäischen Union. Je größer der digitale Markt in einer Region ist, desto höher ist auch das Risiko für Betrugsversuche.
Betrug im Online-Handel
Täuschend echt wirkende E-Commerce-Websites lassen sich heute mithilfe von KI und anderen Tools innerhalb von Minuten erstellen – und erfordern nur minimale technische Kenntnisse. Was früher Tage oder sogar Wochen dauerte, gelingt Angreifenden inzwischen im Handumdrehen. Die gefälschten Seiten sehen oft seriösen Anbietern sehr ähnlich, was es für Verbraucher schwierig macht, sie als Fälschungen zu erkennen.
KI-generierte Produktbeschreibungen, Bilder und Kundenbewertungen sorgen dafür, dass Kunden glauben, bei einem echten Händler einzukaufen. Kriminelle nutzen gezielt das Vertrauen in bekannte Marken aus.
KI-gesteuerte Chatbots im Kundenservice eröffnen Betrügern eine weitere Möglichkeit, täuschend echt aufzutreten. Diese Bots können Betroffene gezielt hinhalten, etwa bei Rückbuchungen, und mit vorgeschobenen Ausreden den Eindruck eines seriösen Anbieters erwecken – obwohl dahinter eine betrügerische Webseite steht.
Microsoft setzt auf einen ganzheitlichen Ansatz, um Kunden mit robusten Schutzmechanismen, die direkt in Produkte und Dienste integriert sind, vor KI-gesteuertem Betrug zu schützen: So bietet der Microsoft Defender for Cloud umfassenden Bedrohungsschutz für Azure-Ressourcen, inklusive Schwachstellenanalysen über Bedrohungserkennung bis hin zum Schutz virtueller Maschinen, Container-Images und Endpunkten.
Microsoft Edge schützt Nutzer aktiv vor betrügerischen Webseiten – etwa durch eine Tippfehlererkennung bei Webadressen und eine Domain-Imitations-Erkennung auf Basis von Deep-Learning-Technologie. Zusätzlich kommt der integrierte Schutz im Scareware Blocker in Edge zum Einsatz. Er basiert auf maschinellem Lernen und erkennt und blockiert potenzielle Betrugsseiten und irreführende Pop-up-Fenster mit alarmierenden Warnungen, die vortäuschen, der Computer sei kompromittiert. Ziel solcher Angriffe ist es, Angst zu schüren und Betroffene dazu zu bringen, betrügerische Supportnummern anzurufen oder gefährliche Software herunterzuladen.
Betrug mit Job- und Stellenangeboten
Durch den rasanten Fortschritt generativer KI ist es für Betrüger deutlich einfacher geworden, gefälschte Job-Inserate zu erstellen. Sie nutzen gestohlene Daten für falsche Profile, veröffentlichen automatisch generierte Stellenanzeigen und starten KI-gesteuerte E-Mail-Kampagnen, um Jobsuchende per Phishing zu täuschen. Selbst Vorstellungsgespräche und Rückmeldungen werden inzwischen per KI simuliert. Das macht es für Bewerber schwieriger, echte Angebote von Betrug zu unterscheiden.
Um solche Betrugsversuche einzudämmen, sollten Jobplattformen die Multifaktor-Authentifizierung (MFA) für Arbeitgeberkonten verpflichtend machen. So lässt sich verhindern, dass legitime Inserate von Dritten »gekapert« werden. Zusätzlich sollten verfügbare Technologien zur Betrugserkennung eingesetzt werden, um verdächtige Inhalte frühzeitig zu identifizieren.
Betrüger verlangen häufig persönliche Daten wie Lebensläufe oder sogar Bankverbindungen – angeblich zur Verifizierung der Bewerbung. Ein weiteres Warnsignal sind unerwartete SMS oder E-Mails, die lukrative Jobangebote für minimale Qualifikationen versprechen.
Auch Stellenanzeigen, bei denen Zahlungen eingefordert werden, die »zu gut klingen, um wahr zu sein«, per SMS ohne Vorwarnung verschickt werden oder über inoffizielle Wege zu Vorstellungsgesprächen einladen, sollten skeptisch machen – vor allem, wenn formelle Kommunikationswege fehlen.
Tech-Support-Betrüger setzen auf KI
In Tech-Support-Betrugsfällen bringen Betrüger ihre Opfer dazu, unnötige technische Supportleistungen in Anspruch zu nehmen, um ein Gerät oder Softwareprobleme zu beheben, die gar nicht existieren. Bei Betrugsfällen im technischen Support besteht ein erhöhtes Risiko, auch wenn KI keine Rolle spielt. Beispielsweise stellte Microsoft Threat Intelligence Mitte April 2024 fest, dass die auf Ransomware spezialisierte Cybercrime-Gruppe Storm-1811 versuchte, Microsofts Remote-Tool Quick Assist missbrauchte, indem sie sich als IT-Support ausgab. Quick Assist ermöglicht es Nutzern, ihr Windows- oder macOS-Gerät per Fernzugriff freizugeben. Microsoft konnte nicht feststellen, dass bei diesen Angriffen KI zum Einsatz kam. Stattdessen gab sich Storm-811 durch Voice-Phishing (Vishing), als eine Form des Social Engineering, als legitime Organisation aus und überzeugte die Opfer, ihnen über Quick-Assist-Zugriff auf ihr Gerät zu gewähren.
Als Reaktion auf die Aktivitäten von Storm-1811 und ähnliche Gruppen hat Microsoft gezielte Maßnahmen ergriffen – etwa durch Sperrungen verdächtiger Konten, die mit unlauterem Verhalten in Verbindung stehen. Grundsätzlich gilt:
Wer ungefragt Tech-Support anbietet, handelt in den meisten Fällen betrügerisch.
Gibt sich jemand als Microsoft-Mitarbeiter aus, können Sie den Vorfall unter https://www.microsoft.com/reportascam melden.
Im Rahmen der Secure Future Initiative (SFI) verfolgt Microsoft einen proaktiven Ansatz, um Produkte und Dienste von Grund auf betrugssicher zu gestalten, oder »Fraud-resistant by Design«. Im Januar 2025 gilt eine neue Richtlinie zur Betrugsprävention: Produktteams müssen bereits in der Entwicklungsphase systematisch Maßnahmen gegen Betrug mitdenken und umsetzen.
Empfehlungen:
- Stärkere Authentifizierung von Arbeitgebenden: Betrüger kapern häufig echte Unternehmensprofile oder geben sich als Recruiter aus, um Jobsuchende zu täuschen. Jobplattformen sollten daher verpflichtend auf Multifaktor-Authentifizierung (MFA) sowie verifizierte ID1-Funktionen über Entra ID für Arbeitgeberkonten setzen. So wird es für Unbefugte deutlich schwieriger, legitime Profile zu übernehmen.
- Erkennung KI-gestützter Bewerbungsbetrügereien: Unternehmen sollten Technologien zur Deepfake-Erkennung einsetzen, um manipulierte Vorstellungsgespräche zu erkennen – etwa durch Erkennung von Auffälligkeiten bei Mimik oder Sprachmustern.
- Vorsicht bei Angeboten, die »zu gut klingen, um wahr zu sein«: Webseiten und Jobanzeigen sollten auf Echtheit geprüft werden. Hinweise liefern etwa sichere Verbindungen (https) und Tools wie der Tippfehlerschutz.
- Keine sensiblen Daten an nicht verifizierte Quellen herausgeben: Seien Sie misstrauisch bei Stellenanzeigen, die Zahlungen fordern, die auf inoffiziellen Kanälen wie SMS, WhatsApp oder privaten Gmail kommunizieren oder die Kontaktaufnahme über private Telefonnummern anfragen.
Verteidigung gegen Angriffe
Mit Microsofts Security Signals gegen Betrug vorgehen
Microsoft arbeitet gezielt daran, KI-gestützten Betrugsversuchen Einhalt zu gebieten – mit intelligenten Erkennungsmodellen auf Basis von maschinellem Lernen. Diese Technologie ermöglicht es Computern, eigenständig Muster in großen Datenmengen zu erkennen – ohne explizite Anweisungen. Diese Muster werden genutzt, um ein umfassendes KI-Modell zu erstellen, das mit hoher Genauigkeit Vorhersagen treffen kann.
Wir haben direkt in unsere Produkte integrierte Sicherheit entwickelt, die Nutzer vor potenziell schädlichem Verhalten warnen und neue Angriffstypen schnell erkennen und verhindern.
Unser Anti-Fraud-Team hat außerdem eine Domain Impersonation Protection entwickelt – einen Schutzmechanismus vor Domain-Imitation. Der Mechanismus greift bereits bei der Erstellung von Domains mithilfe von Deep-Learning-Technologie ein – ein wichtiger Schritt im Kampf gegen betrügerische E-Commerce-Webseiten und gefälschte Stellenangebote. Auch Microsoft Edge unterstützt mit einem Tippfehlerschutz, während auf LinkedIn KI-gestützte Systeme zur Erkennung gefälschter Jobanzeigen zum Einsatz kommen.
ScamSLMer, auch bekannt als »Scareware Blocker«, ist ein wichtiger Schutz in Microsoft Edge. Der Scareware-Blocker schützt Nutzer vor verdächtigen Seiten, die den Vollbildmodus missbrauchen, und hilft Nutzern durch den Austausch von Feedback mit den menschlichen Prüfern des WDS-SmartScreen-Teams und der ML-Cloud. Nach einer beschleunigten Überprüfung werden von Endnutzern gemeldete bösartige Seiten von WDS-SmartScreen blockiert, um andere vor Missbrauch zu schützen.
Microsoft Defender Smartscreen ist ein cloudbasiertes Sicherheits-Feature, das unsicheres Surfverhalten verhindern soll. Smartscreen analysiert Webseiten, Dateien und Anwendungen auf Grundlage ihres Rufs und typischer Verhaltensmuster. SmartScreen ist in Windows und den Edge-Browser integriert und schützt Nutzer vor Phishing-Angriffen, schädlichen Webseiten und potenziell gefährlichen Downloads.
Darüber hinaus arbeitet Microsofts Digital Crimes Unit (DCU) eng mit Partnern aus dem privaten und öffentlichen Sektor zusammen, um die Infrastruktur hinter betrugsbasierten Angriffen zu zerschlagen. In enger Abstimmung mit Strafverfolgungsbehörden weltweit konnten bereits hunderte Festnahmen erzielt und immer härtere Strafen durchgesetzt werden. Die DCU nutzt Erkenntnisse aus vergangenen Maßnahmen gezielt, um Akteure zu bekämpfen die generative KI für bösartige oder betrügerische Zwecke missbrauchen wollen.
Quick Assist und Remotehilfe: Schutz vor Tech-Support-Betrug
Um Tech-Support-Betrug gezielt zu bekämpfen, haben wir in Quick Assist Warnhinweise integriert, die Nutzer informieren, wenn potenziell betrügerische Support-Anfragen eingehen – etwa von Personen, die sich fälschlich als IT-Abteilung oder technischer Support ausgeben.
Windows-User müssen die Sicherheitswarnung lesen und bestätigen, indem sie das entsprechende Kontrollkästchen anklicken, bevor sie jemandem den Fernzugriff auf ihr Gerät gewähren.
Microsoft hat Quick Assist für Windows-Nutzer erheblich durch den Einsatz des Security Signals verbessert. Als Reaktion auf Tech-Support-Scams und andere Bedrohungen blockiert Microsoft derzeit durchschnittlich 4.415 verdächtige Quick-Assist-Verbindungsversuche pro Tag. Das entspricht etwa 5,46 % aller weltweiten Quick-Assist-Sitzungen. Betroffen sind insbesondere Verbindungen mit verdächtigen Eigenschaften, beispielsweise in Verbindung mit böswilligen Akteuren oder nicht verifizierten Verbindungen.
Der stetige Ausbau der Schutzmechanismen in Quick Assist zielt darauf ab, anpassungsfähigen Cyberkriminellen entgegenzuwirken, die früher einzelne Personen mit betrügerischen Verbindungsversuchen ins Visier nahmen, inzwischen jedoch verstärkt Unternehmen mit organisierten Cybercrime-Kampagnen attackieren. Microsofts Maßnahmen haben geholfen, diese Aktivitäten zu unterbinden.
Die Digital-Fingerprinting-Funktion, die KI und maschinelles Lernen nutzt, unterstützt die Schutzmaßnahmen, indem sie Betrugs- und Risikosignale sammelt, die betrügerische Aktivitäten erkennen. Wenn die Signale einen Betrugsversuch feststellen, wird die Quick Assist-Sitzung automatisch beendet.
Für Unternehmen, die sich gegen Tech-Support-Betrug schützen möchten, bietet Remote Help eine weitere wertvolle Ressource für Mitarbeitende. Remote Help ist für die interne Nutzung in Organisationen konzipiert und enthält Funktionen, die sie besonders für den Unternehmenseinsatz geeignet machen.
Durch die Eindämmung von Betrugsversuchen möchte Microsoft die Sicherheit seiner Produkte insgesamt verbessern und Nutzer bestmöglich vor schädlichen Aktivitäten schützen.
Tipps zum Verbraucherschutz
Betrüger nutzen psychologische Druckmittel wie Dringlichkeit, Verknappung, Vertrauen und sozialen Druck, um Verbraucher zu täuschen. Seien Sie hier besonders achtsam:
- Spontankäufe – Betrüger setzen auf künstlichen Zeitdruck, etwa mit limitierten Angeboten oder Countdowns, um zu vorschnellen Käufen zu verleiten.
- Vorsicht vor gefälschter sozialer Bestätigung – KI generiert gefälschte Bewertungen, Influencer-Empfehlungen und Erfahrungsberichte, die ein Produkt oder Unternehmen seriös erscheinen lassen.
- Nicht unüberlegt auf Anzeigen klicken – Viele betrügerische Webseiten verbreiten sich über KI-optimierte Social-Media-Anzeigen. Verbraucher sollten Domainnamen und Bewertungen gegenchecken, bevor sie einen Kauf tätigen.
- Zahlungssicherheit beachten – Vermeiden Sie direkte Banküberweisungen oder Zahlungen in Kryptowährungen, da diese keinen Käuferschutz bieten.
Jobsuchende sollten die Seriosität von Arbeitgebern überprüfen, auf typische Warnsignale bei Jobbetrug achten und keine persönlichen oder finanziellen Daten an nicht verifizierte Unternehmen weitergeben:
- Arbeitgeber überprüfen – Nutzen Sie Plattformen wie LinkedIn, Glassdoor oder die offiziellen Firmenwebseite, um die Echtheit des Arbeitgebers zu bestätigen.
- Typische Warnzeichen erkennen – Wenn ein Jobangebot Zahlungen im Voraus für Schulungsunterlagen, Zertifikate oder Hintergrundprüfungen verlangt, handelt es sich sehr wahrscheinlich um Betrug. Auch unrealistisch hohe Gehälter oder Remote-Stellen ohne jegliche Erfahrung sollten mit Vorsicht betrachtet werden. E-Mails von kostenlosen Domains (z. B. johndoehr@gmail.com statt hr@unternehmen.com) sind ebenfalls ein typisches Merkmal betrügerischer Angebote.
- Vorsicht bei KI-generierten Interviews und Kommunikation – Wenn ein Videointerview merkwürdig wirkt – etwa durch unpassende Lippenbewegungen, roboterhafte Sprache oder seltsame Gesichtsausdrücke – könnte Deepfake-Technologie dahinterstecken. Jobsuchende sollten die Seriosität von Recruitern immer über die offizielle Website des Unternehmens verifizieren, bevor sie auf ein Gespräch eingehen.
- Keine persönlichen oder finanziellen Daten preisgeben – Geben Sie unter keinen Umständen Informationen wie Sozialversicherungsnummern, Bankverbindungen oder Passwörter an nicht verifizierte Arbeitgeber weiter.
Microsoft ist Mitglied der Global Anti-Scam Alliance (GASA). Ziel dieser Allianz ist es, Regierungen, Strafverfolgungsbehörden, Verbraucherschutzorganisationen, Finanzaufsichtsbehörden und -anbieter, Marken- und Produktschutzagenturen, soziale Netzwerke, Internetdienstanbieter sowie Cybersicherheitsunternehmen zusammenzubringen, um Wissen auszutauschen und Verbraucher besser vor Betrug zu schützen.
Empfehlungen:
- Remote Help: Microsoft empfiehlt den Einsatz von Remote Help anstelle von Quick Assist für den internen IT-Support. Remote Help ist speziell für die interne Nutzung innerhalb einer Organisation konzipiert und verfügt über Funktionen, die vor Tech-Support-Betrug schützen. Remote Help wurde so entwickelt, dass es ausschließlich innerhalb des jeweiligen Mandanten einer Organisation verwendet werden kann – und bietet damit eine sicherere Alternative zu Quick Assist.
- Digital Fingerprinting: Unsere Funktion für Digital Fingerprinting erkennt bösartiges Verhalten und kann dieses konkret auf bestimmte Personen zurückführen. Das hilft dabei, unbefugte Zugriffe zu überwachen und zu verhindern.
- Blockierung von Vollzugriffsanfragen: Quick Assist zeigt jetzt Sicherheitswarnungen an und verlangt von Nutzenden, dass sie per Checkbox das Sicherheitsrisiko beim Teilen ihres Bildschirms aktiv bestätigen. Diese Maßnahme erzeugt einen hilfreichen »Sicherheits-Widerstand«, der besonders dann greift, wenn Nutzer abgelenkt oder im Multitasking sind – und sorgt so für einen zusätzlichen Moment der Aufmerksamkeit vor der Autorisierung.
Der Beitrag ist eine Übersetzung des Microsoft Security Blog-Artikels, den Sie hier im Original lesen können: Cyber Signals Issue 9 | AI-powered deception: Emerging fraud threats and countermeasures | Microsoft Security Blog.
Wir verteidigen alle gemeinsam.
Zwischen April 2024 und April 2025 hat Microsoft:
-
Betrugsversuche im Wert von 4 Mrd. US-Dollar vereitelt
-
49.000 betrügerische Partneranmeldungen abgelehnt
-
etwa 1,6 Mio. Bot-Anmeldeversuche pro Stunde blockiert
1309 Artikel zu „Betrug KI“
News | IT-Security | Künstliche Intelligenz | Tipps
KI-generierten Betrug verhindern: Eine Herausforderung unserer Zeit

Seit dem Aufkommen von generativer KI vor zwei Jahren beschäftigt sie die Fantasie der Menschen und durchdringt immer mehr Bereiche des Lebens – klar, mit zahlreichen Vorteilen, aber auch neuen Risiken. Auch für 2025 sehen die Sicherheitsforscher von Trend Micro KI als wesentlichen Antrieb für kriminelle Machenschaften. KI-generierter Betrug entwickelt sich rasant weiter und ist…
Trends 2025 | News | Trends Security | IT-Security | Künstliche Intelligenz | Tipps
Verhinderung von KI-gestütztem Identitätsbetrug

Die Finanzinstitute müssen die Lücke schließen und in 2025 in KI-gestützte Identitätsbetrugsprävention investieren. Während KI-gesteuerter Identitätsbetrug stark zunimmt, zeigt der Signicat-Report The Battle Against AI-driven Identity Fraud eine Kluft zwischen Bewusstsein und Handeln [1]. Während über 76 % der Entscheidungsträger die wachsende Bedrohung durch KI bei Betrug erkennen, haben nur 22 % der Unternehmen…
News | IT-Security | Künstliche Intelligenz | Ausgabe 9-10-2024 | Security Spezial 9-10-2024
Sensibilisierung für Betrugsversuche, Sicherheitslücken und Datenschutz – Mit IT und KI auf der sicheren Seite
News | Trends 2024 | Business | Trends Security | Trends Kommunikation | IT-Security | Kommunikation
Betrug hat ein neues Gesicht: 40 % aller Fälle von BEC wurden von einer KI erzeugt

Die Zahl der »Business E-Mail Compromise« ist im Vergleich zum Vorjahr um 20 % höher, die Verwendung bösartiger Links steigt um 74 % und die Zahl manipulierter Anhänge verdoppelt sich. Die VIPRE Security Group veröffentlicht den Q2 2024 Email Threat Trends Report. Der Bericht demonstriert, wie einfallsreich Cyberkriminelle bei der Nutzung von KI vorgehen.…
News | IT-Security | Künstliche Intelligenz | Tipps
KI hilft Betrügern: Deep-Fake-Videos zu Dieter Bohlens Ostheoarthritis

Urheber von Gesundheitsspam nutzen KI-Technologien für Social-Media-Kampagnen. Die Bitdefender Labs beobachten weltweite Kampagnen mit KI-generierten Deepfake-Videos und -Audios auf den Social-Media-Plattformen Facebook, Messenger und Instagram. Unter den angeblichen Fürsprechern für Behandlungsmethoden etwa rund um das Thema Knie und Gelenke befinden sich Prominente wie Dieter Bohlen, der bekannte Arzt Dr. Heinz Lüscher, Christiano Ronaldo, Brad Pitt,…
News | Trends 2024 | Trends Security | IT-Security | Künstliche Intelligenz
KI-gesteuerter Identitätsbetrug nimmt zu

Die Studie »The Battle Against AI-driven Identity Fraud« zeigt, dass Entscheidungsträger in ganz Europa mit KI-gesteuertem Identitätsbetrug konfrontiert sind und mit einer Zunahme rechnen. Sie sind jedoch nicht darauf vorbereitet, dagegen vorzugehen, und waren bisher nicht in der Lage, Maßnahmen zu seiner Verhinderung zu ergreifen. Jeder fünfzehnte Betrugsversuch nutzt Deepfakes, um nicht nur B2C-Firmen,…
News | Trends 2024 | Trends Security | Geschäftsprozesse | IT-Security
Betrug durch KI erreicht eine neue Dimension

Untersuchung zu Bankbetrug und Finanzdelikten in Europa zeigt Zunahme bei Social-Engineering-Attacken und Gerätediebstählen; Kriminelle verfeinern ihre Methoden und ihre Opferauswahl mithilfe künstlicher Intelligenz. BioCatch, ein Experte für digitale Betrugserkennung und Schutz vor Finanzkriminalität durch Lösungen auf der Basis von Verhaltensbiometrie, hat eine neue Studie veröffentlicht, die aufzeigt, wie Kriminelle ihre Betrugsmethoden immer weiter verfeinern.…
News | Infrastruktur | Künstliche Intelligenz | Services
Geodatenindustrie: Wie KI die Kartenerstellung 2025 revolutioniert

KI verändert die Geodatenindustrie. Sie eröffnet neue Möglichkeiten bei der Kartenerstellung, der Fahrzeugnavigation und bei der Simulation der realen Welt für die Erprobung automatisierter Fahrsysteme. Dadurch verändert sich unser Verständnis für die Geografie unserer Welt und davon, wie Menschen und Güter effizient und sicher von A nach B gelangen. Fortschritte im Cloud Computing und…
News | Digitalisierung | Favoriten der Redaktion | Healthcare IT | Künstliche Intelligenz | Whitepaper
Healthcare Agent: Die nächste Generation der medizinischen KI-Assistenz

Neues Whitepaper zum Einsatz von KI-Agenten und Large Language Models im Gesundheitswesen. KI-Agenten können proaktive Entscheidungen treffen und in Echtzeit auf komplexe Situationen reagieren. Dank hohem Effizienz- und Qualitätssteigerungspotenzial in der Patientenversorgung erwarten Fachleute einen rasch wachsenden Einsatz der KI-Systeme im Gesundheitswesen. In einem neuen Whitepaper über Healthcare Agents diskutieren Expertinnen und Experten des…
News | IT-Security | Künstliche Intelligenz | Tipps
Täuschend echt: So erkennen Sie KI-Phishing und schützen Ihre Daten

KI macht Phishing gefährlicher: Täuschend echte Mails, Deepfakes und Fake-Webseiten nehmen zu. Smarte Tools, hohes Risiko: KI-Apps sammeln Daten – und öffnen Angreifern Türen. Künstliche Intelligenz verändert vieles – auch die Methoden von Cyberkriminellen. Was früher leicht zu entlarven war, ist heute kaum noch von der Kommunikation seriöser Unternehmen zu unterscheiden. KI-generierte Phishing-Mails, täuschend…
News | IT-Security | Tipps
KI-generierte Ghibli-Bilder sind lustig – aber sind sie auch sicher?

Porträts im Stil von Studio Ghibli erstellen, ist der neueste KI-Trend im Internet. Diese skurrilen, von Animes inspirierten Bilder sind unbestreitbar lustig und kreativ – aber es gibt versteckte Risiken, die viele Menschen nicht erkennen. Norton, eine Cyber-Sicherheitsmarke von Gen, warnt davor, dass diese beliebten Bilderzeugungstools unbeabsichtigt persönliche Informationen – wie Schulnamen, Logos oder Straßenschilder…
News | Business Process Management | IT-Security | Künstliche Intelligenz
Daten in modernen KI-Umgebung brauchen Leitplanken und keine Schranken

Künstliche Intelligenz (KI) revolutioniert weiterhin die Geschäftswelt und hilft Unternehmen, Aufgaben zu automatisieren, Erkenntnisse zu gewinnen und Innovationen in großem Umfang voranzutreiben. Doch es bleiben Fragen offen, vor allem wenn es um die Art und Weise geht, wie KI-Lösungen Daten sicher verarbeiten und bewegen. Einem Bericht von McKinsey zufolge gehören Ungenauigkeiten in der KI sowie…
Trends 2025 | News | Trends Security | IT-Security | Strategien | Whitepaper
Cyberkriminalität befeuert durch KI: End-to-end-Sicherheit ist gefragt

Fast 70 Prozent der deutschen Unternehmen spüren die Auswirkungen der offensiven Nutzung künstlicher Intelligenz durch Cyberkriminelle. Doch noch fehlen den meisten die Konzepte, um den teils völlig neuartigen Bedrohungsszenarien durch KI zu begegnen. Das sind Ergebnisse des aktuellsten »State of AI Cybersecurity«-Report von Darktrace [1]. KI ermöglicht nämlich auch nur mittelmäßig ausgebildeten Angreifern raffinierte und…
Trends 2025 | News | Trends Security | Favoriten der Redaktion | IT-Security | Kommunikation
Die Zukunft von Social Engineering – KI, Wearables und VR kurbeln Cyberkriminalität an

Der neue Bericht von Trend Micro zeigt auf, wie Cyberkriminelle KI, Wearables, Virtual Reality (VR) und Augmented Reality (AR) sowie Chatbots nutzen werden, um Opfer präziser denn je zu manipulieren [1]. Die Bedrohungsforschern von Trend Micro analysierten, wie Angreifer diese Technologien nutzen, um ihre Taktiken zu verfeinern und ihre Täuschungsmanöver weiterzuentwickeln. »Social Engineering, also…
Trends 2025 | News | Business | Künstliche Intelligenz
Nach dem Hype: Diese vier KI-Trends werden 2025 weiterhin prägen

Die vergangenen zwei Jahre haben einen regelrechten KI-Boom erlebt. Insbesondere generative Modelle (GenAI) haben sich rasant weiterentwickelt und etablieren sich zunehmend als feste Größe in den Arbeitsprozessen von Organisationen weltweit. Angesichts dieser Dynamik fragen sich nun viele Unternehmen, welche Entwicklungen das Jahr 2025 bestimmen werden und welche Potenziale sich daraus ergeben. Zoho hat vier wichtige…
Trends 2025 | News | Trends Security | IT-Security | Künstliche Intelligenz | Tipps | Whitepaper
Datensicherheit: KI macht Mitarbeiter zu Insider-Bedrohungen

GenAI-Daten-Uploads steigen innerhalb eines Jahres um das 30-fache; drei von vier Unternehmen nutzen Apps mit integrierten genAI-Funktionen. Netskope, ein Unternehmen für moderne Sicherheit und Netzwerke, hat eine neue Studie veröffentlicht, die einen 30-fachen Anstieg der Daten zeigt, die von Unternehmensanwendern im letzten Jahr an generative KI-Apps (genAI) gesendet wurden [1]. Dazu gehören sensible Daten…
Trends 2025 | News | Trends Geschäftsprozesse | Trends Services | E-Commerce | Geschäftsprozesse | Kommunikation
Steigende Nachfrage nach Personalisierung im Handel: KI-gestützte Empfehlungen verbessern das Einkaufserlebnis

55 Prozent der befragten Verbraucher in Deutschland hätten Interesse an Kundenmitgliedschaften, die auf individuelle Bedürfnisse zugeschnittene Angebote bieten. 58 Prozent wünschen sich personalisierte Produktempfehlungen auf Basis bereits getätigter Bestellungen. Moderne Konsumenten priorisieren Komfort und Individualisierung in ihren Einkaufserlebnissen. Sie erwarten eine gezielte Erfassung und Berücksichtigung ihrer spezifischen Bedürfnisse und Präferenzen, um den Einkaufsprozess effizienter…
News | Business | Business Process Management | Effizienz | Künstliche Intelligenz | New Work
2025: Wie KI die Regeln der Arbeitswelt neu definiert

Im Jahr 2025 ist künstliche Intelligenz (KI) längst keine Zukunftsvision mehr, sondern ein fester Bestandteil der Wirtschaft. Sie verändert Branchen, prägt die Arbeitswelt neu und beeinflusst die Art, wie Unternehmen mit ihren Kunden interagieren. KI wird zunehmend alltagstauglich und hilft Unternehmen, innovativer zu arbeiten, Abläufe effizienter zu gestalten und wirtschaftlichen Mehrwert zu schaffen. Laut McKinsey…
News | Favoriten der Redaktion | Künstliche Intelligenz | Strategien | Tipps
Fakten statt Fiktion: Was tun gegen KI-Halluzinationen und KI-Bias?

Generative KI ist unglaublich gut darin, Informationen zu recherchieren und aufzubereiten. Unfehlbar ist sie allerdings nicht – sie kann durchaus falsch liegen oder vorurteilsbehaftete Ergebnisse liefern. Doch es gibt Maßnahmen, mit denen Unternehmen das Risiko von Halluzinationen und Bias minimieren können. Immer mehr Unternehmen setzen generative KI (GenAI) ein, um beispielsweise Mitarbeitern den Zugang zu…
Trends 2025 | News | Trends Wirtschaft | Künstliche Intelligenz | New Work | Whitepaper
KI-Agenten sollen durchschnittlich 18 Arbeitsstunden pro Woche einsparen

IT-Verantwortliche in Deutschland vertrauen auf KI-Agenten und investieren mit 2,6 Millionen Euro mehr als britische und US-amerikanische Unternehmen. Nach einer Umfrage der generativen Integrationsplattform SnapLogic gehen deutsche Führungskräfte im IT-Bereich davon aus, dass KI-Agenten im Durchschnitt 18 Arbeitsstunden pro Woche einsparen könnten [1]. Fast die Hälfte (47 %) vertraut ihnen dabei, so effizient wie…