KI-Bots bedrohen die Grundlage webbasierter Geschäftsmodelle

foto freepik

Der KI-Bot-Traffic steigt innerhalb eines Jahres um 300 Prozent an.

 

Akamai Technologies hat einen neuen SOTI-Bericht (»State of the Internet«) veröffentlicht [1]. Die Ergebnisse zeigen einen alarmierenden Anstieg des automatisierten Datenverkehrs. Dieser ist größtenteils auf KI-gestützte Bots zurückzuführen, die Websites aller Branchen ins Visier nehmen.

Laut dem Digital Fraud and Abuse Report 2025 machen KI-Bots einen rasant wachsenden Anteil dieses Traffics aus. Ihre Aktivitäten sind vergangenen Jahr um 300 Prozent angestiegen. Diese Bots erzeugen Milliarden von Anfragen und verfälschen dadurch digitale Geschäftsabläufe und Analysen erheblich. Mittlerweile machen sie fast ein Prozent des gesamten Bot-Traffics innerhalb der Akamai-Plattform aus.

Dieser Anstieg ist auf weitreichendes Content-Scraping zurückzuführen und verdeutlicht, wie KI-Bots traditionelle, webbasierte Geschäftsmodelle aktiv untergraben. Mit zunehmendem Bot-Traffic werden Publisher und andere inhaltsbasierte Unternehmen mit verzerrten Analysedaten und sinkenden Werbeeinnahmen konfrontiert, da Bots extrahieren, aber keinen Gegenwert liefern.

Neben dem Scraping zeigt der Bericht, dass das rasante Wachstum KI-gestützter Tools sowohl erfahrenen als auch unerfahrenen Cyberkriminellen ermöglicht, Imitationsangriffe, Social-Engineering-Attacken, Phishing-Kampagnen und Identitätsbetrug mithilfe von KI-generierten Dokumentfälschungen und Bildern zu begehen.

Wichtige Erkenntnisse aus dem Bericht:

  • Die Verlagsbranche ist mit 63 Prozent KI-Bot-Auslösern am stärksten von den Auswirkungen der digitalen Medienbranche betroffen.
  • Online-Unternehmen stehen sowohl durch nützliche als auch schädliche Bots unter Druck. Während einige Bots Support-Funktionen wie Suchmaschinenindizierung und Barrierefreiheit unterstützen, treiben bösartige Bots – darunter FraudGPT, WormGPT, Werbebetrugs-Bots und Retourenbetrugs-Bots – die Kosten in die Höhe, beeinträchtigen die Website-Performance und fälschen wichtige Kennzahlen.
  • Die Handelsbranche ist führend bei den KI-Bot-Aktivitäten und verzeichnet innerhalb eines zweimonatigen Beobachtungszeitraums mehr als 25 Milliarden Bot-Anfragen.
  • Im Gesundheitswesen sind mehr als 90 Prozent der KI-Bot-Auslöser auf Scraping zurückzuführen – hauptsächlich durch Such- und Schulungsbots.

Um sich vor diesen Bedrohungen zu schützen, empfiehlt der Bericht Unternehmen, Fähigkeiten zu entwickeln, die mit den drei OWASP-Top-10-Frameworks für Webanwendungen, APIs und große Sprachmodelle (LLMs) im Einklang stehen. Diese Frameworks helfen Sicherheitsteams, bekannte Schwachstellen wie fehlerhafte Zugriffskontrolle, Injection-Bedrohungen und Offenlegung von Daten der Betrugsrisikotoleranz ihres Unternehmens zuzuordnen und so die Priorisierung von Abwehrmaßnahmen zu verbessern.

Der Bericht umfasst außerdem:

  • eine detaillierte Analyse, wie Bots unerkannt bleiben,
  • eine Gastkolumne des CISO von FS-ISAC, einer gemeinnützigen Organisation, die Cybersicherheit und Ausfallsicherheit im globalen Finanzsystem fördert,
  • regionale und branchenspezifische Angriffsdaten,
  • eine Einführung in die Kategorien von KI-Scraper-Bots,
  • eine Anleitung zum Ausbalancieren von regulatorischer Compliance und KI-Sicherheitsstrategien.

»Die Zunahme an KI-Bots ist längst nicht mehr nur ein Thema für die IT-Sicherheit. Sie ist zu einer geschäftlichen Notwendigkeit geworden«, sagt Rupesh Chokshi, Senior Vice President und General Manager, Application Security bei Akamai. »Führungskräfte müssen jetzt handeln und Frameworks entwickeln, die eine sichere Einführung von KI gewährleisten, neue Risiken verwalten und digitale Geschäftsprozesse schützen.«

Die SOTI-Berichte von Akamai bieten seit elf Jahren wichtige Einblicke in Cybersicherheitstrends und Web-Performance. Sie werden über die Akamai-Infrastruktur erfasst, die mehr als ein Drittel des globalen Webtraffics verarbeitet.

[1] https://www.akamai.com/resources/state-of-the-internet/ai-botnet-report-2025

 

Was ist Scraping?

Definition

Scraping ist das automatisierte Auslesen und Sammeln von Daten von Webseiten, APIs oder anderen Online‑Quellen durch Software (Bots, Skripte oder Crawler). Ziel ist, strukturierte Informationen aus unstrukturierten oder semi‑strukturierten Quellen zu extrahieren und für Analyse, Recherche oder Weiterverarbeitung zu nutzen.

Hauptformen des Scrapings

  • HTML‑Scraping Extraktion von Inhalten direkt aus HTML‑Seiten (z. B. Produktdaten, Preise, Texte).
  • API‑Abfragen Automatisiertes Abrufen strukturierter Daten über offene oder private Schnittstellen.
  • Web‑Crawling Systematisches Durchlaufen vieler Seiten, um Inhalte zu indexieren oder Datenbanken aufzubauen.
  • Screen Scraping / OCR Auslesen von Informationen aus gerenderten Bildern oder PDFs mit optischer Zeichenerkennung.

Anwendungsfälle

  • Markt‑ und Preisüberwachung (Price Monitoring)
  • Aggregatoren (Jobs, Immobilien, News)
  • Datenanalyse, Research und Machine‑Learning‑Training
  • Content‑Backup und Archivierung
  • SEO‑Monitoring und Wettbewerbsbeobachtung

Rechtliche und ethische Aspekte

  • Urheberrecht und Nutzungsbedingungen können Scraping einschränken; viele Websites verbieten automatisierte Zugriffe in ihren AGB.
  • Datenschutz ist relevant, wenn personenbezogene Daten gesammelt werden; DSGVO‑Konformität prüfen.
  • Roboterregeln (robots.txt) sind kein verbindliches Gesetz, gelten aber als Branchenstandard und sollten beachtet werden.
  • Gerichtliche Entscheidungen variieren nach Rechtsraum; technische Zugriffsbarrieren gewaltsam zu umgehen erhöht rechtliches Risiko.

Risiken für Anbieter und Scraper

  • Für Betreiber: erhöhte Serverlast, verfälschte Analytics, Content‑Diebstahl, Sicherheitsrisiken durch bösartige Bots.
  • Für Scraper: rechtliche Klagen, IP‑Blockierung, Captchas, IP‑Blacklisting, schlechte Datenqualität bei dynamischen Seiten.

Abwehr‑ und Schutzmaßnahmen für Webseitenbetreiber

  • Rate‑Limiting und Bot‑Detection (Traffic‑Analyse, verhaltensbasierte Erkennung).
  • IP‑Blocking und Captchas für verdächtige Zugriffe.
  • API‑Angebote als saubere Alternative mit Nutzungsbedingungen und Authentifizierung.
  • Legal und vertraglich: klare Nutzungsbedingungen, Terms of Service und gegebenenfalls technische Durchsetzung.

Gute Praxis für sicheres, verantwortungsvolles Scraping

  • Prüfe Nutzungsbedingungen und rechtliche Rahmenbedingungen vor dem Scraping.
  • Respektiere robots.txt, nutze APIs wenn verfügbar, und begrenze Anfrageraten zur Schonung von Serverressourcen.
  • Achte auf Datenschutz: vermeide oder anonymisiere personenbezogene Daten; dokumentiere Datenherkunft und Rechtfertigung.
  • Implementiere Fehler‑Handling und Validierung, um schlechte oder veraltete Daten zu vermeiden.

Albert Absmeier & KI

 

43 Artikel zu „KI-Bots“

Politische Ämter für KI-Bots? Die Möglichkeiten und Herausforderungen

»Die Vorstellung, dass KI sowohl für ein politisches Amt kandidieren als auch potenziell einen Sitz am Entscheidungstisch einnehmen kann, schien einst reine Science-Fiction zu sein«, erklärt Jason Adler, Softwareentwickler bei Repocket. Heute wird die Fiktion zur Realität, denn zwei KI-Chatbots, VIC und AI Steve, bewerben sich um politische Ämter in Cheyenne, Wyoming, und im britischen…

Duzen oder siezen, loben oder schimpfen? So sprechen die Deutschen mit KI-Bots

Fast alle duzen die KI und 3 von 10 bedanken sich bei ihr. 6 Prozent haben ihren KI-Bot schon mal beleidigt – Männer häufiger als Frauen.   »Liebe KI, könnten Sie mir bitte darauf eine Antwort-Mail formulieren?« oder »Hey KI, fass mal den Text zusammen, und zwar schnell!«? Knapp die Hälfte (46 Prozent) der Deutschen…

Wachsende Bedrohungslage durch KI-Cyberkriminalität und neue Ansätze für mehr Resilienz

65 % der befragten IT-Führungskräfte halten ihre Systeme gegenüber KI-basierter Cyberkriminalität für unzureichend geschützt.   Eine Lenovo-Studie zeigt eine wachsende Sicherheitslücke angesichts zunehmender KI-gestützter Cyberkriminalität: 65 % der befragten IT-Führungskräfte geben an, dass ihre Abwehrmechanismen veraltet sind und KI-Angriffen nicht standhalten können. Lediglich 31 % fühlen sich in der Lage, sich wirksam zu verteidigen. Diese…

Datenabflüsse verhindern – in acht einfachen Schritten

Vielen Unternehmen fällt es schwer, die Kontrolle über ihre Daten zu behalten, besonders seit Mitarbeiter vermehrt remote arbeiten und verschiedenste Cloud-Services und KI-Tools nutzen. Data Loss Prevention (DLP) kann den Abfluss sensibler Informationen verhindern, doch die Einführung gilt als komplex und zeitraubend. Ein Sicherheitsspezialist erklärt, wie sich DLP-Projekte reibungslos durchführen lassen.   Die Datenmengen in…

Struktur für Unstrukturiertes – Freitextanforderungen im Einkauf digital steuern

In der Praxis sind Freitextbedarfe alles andere als Ausnahmefälle. Die Ursachen sind vielfältig: fehlende Transparenz, komplexe Systemlandschaften, unzureichende Datenpflege oder schlicht schlechte Nutzerführung. Mitarbeitende wissen oft nicht, wo sie suchen sollen, verlieren Geduld bei langen Ladezeiten oder werden bei abteilungsfremden Bedarfen unsicher. Im Reflex wird eine Freitextanfrage per E-Mail verschickt – schnell, informell, aber fernab…

KI-Coding wird zur riskanten Norm – 81 % stellen unsicheren Code bereit

Report »Future of Application Security in the Era of AI« belegt: Unternehmen generieren bis zu 60 % ihres Codes mittels KI-Coding-Assistenten. Allerdings untersagen mittlerweile 20 % deren Nutzung offiziell.   Die Studie »Future of Application Security in the Era of AI« von Checkmarx zeichnet ein umfassendes Bild davon, wie KI-gestützte Softwareentwicklung die Risikolandschaft nachhaltig verändert…

Ein Problem, das wir selbst geschaffen haben: Wenn nicht-menschliche Identitäten die Sicherheit gefährden

Man sagt, Not macht erfinderisch. Wir sind in einem hohem Maß abhängig von unserer digitalen Infrastruktur. Das hat auch die Anforderungen an die Netzwerksicherheit steigen lassen – ein möglichst nahtlos funktionierender Zugriff, automatisierte Prozesse, eine durchgängige Benutzererfahrung und Interoperabilität sind gefragt. Jede Verbesserung in einem der Bereiche hat uns weiter in Richtung eines hypervernetzten, »intelligenten«…

KI-Crawler machen 80 Prozent des KI-Bot-Traffics aus

Meta führt beim Crawling, während ChatGPT den Echtzeit-Webverkehr dominiert Mehr Content-Scraping und Systembelastung: KI-Bots greifen in großem Umfang auf Inhalte zu und erhöhen die Serverlast spürbar. Neue Risiken durch fehlende Bot-Verifizierung: Ungeprüfter Automatisierungs-Traffic erschwert die Unterscheidung zwischen legitimen und potenziell schädlichen Zugriffen.   Die Edge-Cloud-Plattform Fastly Inc., ein Unternehmen für Content Delivery, Compute- und Sicherheitslösungen,…

Das neue SEO: Webseiten für die Kommunikation mit KI-Agenten vorbereiten

Unternehmen müssen das Thema KI-Agenten aus zwei unterschiedlichen Perspektiven betrachten. Einerseits geht es darum, welche Aufgaben Mitarbeitende bereits heute mit KI-Agenten wie ChatGPT Tasks oder Operator automatisieren können. Andererseits stellt sich die Frage, welche Anpassungen auf der Unternehmenswebsite notwendig sind, um die Interaktion mit KI-Agenten entweder zu optimieren oder gezielt zu unterbinden.   Was sind…

Cyberbedrohungen im Jahr 2025: Wie KI Phishing-Taktiken verändert

Die Fortschritte innerhalb der künstlichen Intelligenz (KI) haben das Erscheinungsbild von Phishing-E-Mails drastisch verändert. Noch bis vor kurzem gab es einige Indikatoren, an denen man Phishing-Versuche recht zuverlässig erkennen konnte: inkorrekte Grammatik, Logos in schlechter Auflösung, allgemein gehaltene/generische Begrüßungsformeln und unpassender Kontext. Dank KI erstellen Cyberkriminelle mittlerweile hochkomplexe und personalisierte Angriffe, die sehr viel schwerer…

Die Angst vor Cyberangriffen – und einem Cyberkrieg

  7 von 10 sehen große Gefahr durch Cybercrime für Deutschland, 6 von 10 fürchten einen Cyberkrieg. Als größte Cyberbedrohung gelten Russland und China – aber ein Drittel sieht auch die USA als Gefahr. Bitkom legt Cyberbilanz der Nationalen Sicherheitsstrategie anlässlich der Munich Cyber Security Conference vor.   In Deutschland greift die Angst vor Cyberangriffen…

KI und Ethik müssen schnellstens zusammenwachsen

Im Hype um die Einsatzmöglichkeiten von künstlicher Intelligenz bleibt die Diskussion um deren verantwortungsbewusste Nutzung zunehmend auf der Strecke. Zu verlockend sind die Möglichkeiten, zu atemberaubend ist das Entwicklungstempo. Gleichzeitig wird immer deutlicher, dass KI zwar nach rationalen Gesichtspunkten handelt, die Berücksichtigung ethischer Aspekte aber (noch) nicht zu ihren Schlüsselkompetenzen gehört. Vorurteile werden dadurch nicht…

Kompetenzen der Beschäftigten passen nicht zu den strategischen Unternehmenszielen 2025

Transformation und wirtschaftliche Unsicherheit: Weniger als ein Viertel der Arbeitnehmer fühlt sich genügend auf die Aufgaben und Erwartungen 2025 vorbereitet. Maßgeschneiderte Aus- und Weiterbildung und Coaching sind entscheidend.   Skillsoft hat eine neue Studie »Workplace Preparedness and Challenges« veröffentlicht, die sich mit den strategischen Prioritäten von Unternehmen 2025 und der Fähigkeit der Mitarbeitenden, diese zu…

Erklärbare KI für die personalisierte Finanzplanung

Das Zeitalter der künstlichen Intelligenz (KI) ist selten offensichtlicher zu sehen als in der Finanzwelt. Ein Beispiel ist eine große australische Bank, die nach einer KI-basierten Lösung für die Herausforderungen bei der Kreditentscheidung suchte. Sie ging über die typischen Erfahrungen mit Kreditbüros hinaus, um umfassende Kreditbewertungen zu ermöglichen. Es wurden soziale Medien und Live-Daten-Feeds integriert,…

2025: KI in Operations, Softwareentwicklung und Compliance

Im Jahr 2025 wird die Rolle der künstlichen Intelligenz (KI) in Operations, Softwareentwicklung und Compliance rasant voranschreiten und transformative Auswirkungen auf verschiedene Branchen haben. Heath Newburn, Global Field CTO bei PagerDuty, sieht eine nahe Zukunft, in der KI nicht nur sich wiederholende Aufgaben automatisiert, sondern auch grundlegend verändert, wie Abteilungen zusammenarbeiten. Dadurch können sie sich…

Praxishilfe: Mit wenigen Klicks durch die KI-Verordnung navigieren

Bitkom veröffentlicht Online-Tool und Leitfaden zum KI-Einsatz in Unternehmen. Zwei Drittel der Unternehmen brauchen Hilfe bei der Umsetzung des AI Acts.   Darf ich eine bestimmte KI-Anwendung anbieten oder in meinem Unternehmen verwenden? Und wenn ja, welche Voraussetzungen muss ich dafür erfüllen? Rechtliche Unsicherheiten sind für 40 Prozent der Unternehmen in Deutschland ein Hemmnis für…

Fehlendes Wissen zu KI-Funktionen die den Alltag erleichtern

Wissen um AI-Funktionen ist nicht mit deren Nutzung im Alltag gleichzusetzen. 90 % glauben zu wissen, was AI ist, aber nur 15 % machen von den Funktionen im Alltag Nutzen Entertainment, Hausputz und Zeitersparnis sind meistgenannte Gründe für AI-Einsatz AI-Funktionen sollen Routineaufgaben vereinfachen oder ganz abnehmen, um Zeit für Wesentliches zu gewinnen Nur 15 %…

Künstliche Intelligenz gilt als wichtigste Zukunftstechnologie

Drei Viertel der Unternehmen und zwei Drittel der Bevölkerung in Deutschland sehen besondere Bedeutung von KI. Ist künstliche Intelligenz nur ein Hype oder eine echte Zukunftstechnologie? In Deutschland gibt es dazu sowohl in der Wirtschaft als auch in der Bevölkerung eine klare Meinung. Rund drei Viertel (73 Prozent) der Unternehmen stimmen der Aussage zu, dass…

KI muss als Teaminitiative gesehen werden

Der Einsatz von KI und ML in Unternehmen nimmt kontinuierlich zu. Er ist aber mit zahlreichen Herausforderungen verbunden, die von der Entwicklung über die Bereitstellung bis zur Verwaltung von KI- und ML-Modellen reichen. Folglich muss ein Unternehmen eine KI-Initiative immer als abteilungsübergreifende Teamaufgabe betrachten. Hier kann eine offene Hybrid-Cloud-Plattform als ideales Fundament für den Aufbau…