Stimmt es, dass KI bis zu 35 Prozent falsche Antworten liefert?

foto freepik

Kurzantwort: Ja — mehrere Untersuchungen zeigen, dass KI‑Assistenten bei Nachrichten‑ und Faktenfragen in rund 30–37 % der Fälle Fehler liefern; die oft zitierte Zahl 35 % stammt aus solchen Studien und beschreibt eine durchschnittliche Fehlerrate unter getesteten Systemen.

 

Ursachen für die 35ProzentAngabe

KI‑Studien vergleichen Antworten verschiedener Chatbots auf journalistische oder faktenbasierte Fragen und werten, ob die Antworten korrekt, ungenau oder erfunden sind. Unterschiedliche Testsets, Fragestellungen und Bewertungsmaßstäbe führen zu schwankenden Zahlen; eine große Untersuchung der Europäischen Rundfunkunion (EBU) fand etwa 37 % fehlerhafte Antworten bei mehreren populären Assistenten. Diese Ergebnisse erklären, warum Medienberichte von ~35 % sprechen.

 

Warum KI so oft falsch liegt

  • Halluzinationen: Modelle „erfinden“ Fakten oder Quellen, weil sie Wahrscheinlichkeiten für Wortfolgen berechnen, nicht Fakten prüfen. Erfundene Quellen waren in den Studien ein häufiges Problem.
  • Datenqualität: Trainingsdaten enthalten Fehler, Widersprüche und Desinformation; das spiegelt sich in den Antworten wider.
  • Antwort‑Bias: Viele Systeme wurden so optimiert, dass sie lieber eine plausible Antwort liefern als zu verweigern — das erhöht die Fehlerquote.

 

Unterschiede zwischen Modellen

Die Fehlerrate ist modellabhängig: einige Assistenten antworten seltener, wenn sie unsicher sind, und zeigen dadurch niedrigere Fehlerquoten; andere geben häufiger eine Antwort und machen dadurch mehr Fehler. Studien nennen große Unterschiede zwischen Anbietern und Versionen.

 

Praktische Folgen und Empfehlungen

  • Vertrauen nicht blind setzen: Behandle KI‑Antworten als erste Orientierung, nicht als endgültige Quelle.
  • Quellen prüfen: Vergleiche kritische Fakten mit verlässlichen Primärquellen oder offiziellen Stellen.
  • Bevorzuge Systeme mit Quellenangaben oder Retrieval‑Mechanismen, die externe Daten abgleichen.
  • Setze menschliche Kontrolle ein bei Entscheidungen mit hohem Risiko (Journalismus, Recht, Medizin).

 

Fazit

Die Aussage, KI liefere bis zu 35 % falsche Antworten, ist nicht pauschal falsch — sie ist eine realistische Zusammenfassung aktueller Studien für bestimmte Fragestellungen (vor allem Nachrichten/Fakten). Die genaue Quote hängt stark vom Modell, der Frageart und der Bewertungsmethode ab.

Albert Absmeier & KI

 

Checkliste

Hier ist eine sofort anwendbare Checkliste (10 Punkte), mit der Sie KI‑Antworten schnell auf Richtigkeit prüfen und Risiken minimieren können.

Checkliste: 10 Schritte zur schnellen Verifikation von KI‑Antworten

  1. Skeptisch starten — Behandle jede KI‑Antwort als erste Orientierung, nicht als endgültige Wahrheit.
  2. Quelle verlangen — Fordere oder suche nach konkreten Quellen (Studien, offizielle Seiten, Primärquellen).
  3. Quellen prüfen — Öffne die genannten Quellen und kontrolliere Autor, Datum und Reputationsniveau.
  4. Mehrere Quellen — Verifiziere kritische Fakten mit mindestens zwei unabhängigen, vertrauenswürdigen Quellen.
  5. Datum prüfen — Achte auf Aktualität; veraltete Daten sind bei KI‑Antworten häufig.
  6. Fakten vs. Interpretation — Trenne prüfbare Fakten (Zahlen, Daten) von Meinungen oder Interpretationen.
  7. Auf Halluzinationen achten — Wenn die KI konkrete Zitate, Studiennamen oder URLs nennt, stimmen diese exakt? Erfunden klingende Referenzen sind ein Warnsignal.
  8. Formale Plausibilitätschecks — Prüfe, ob Zahlen, Einheiten oder Zeiträume mathematisch und logisch konsistent sind.
  9. Spezialisten konsultieren — Bei rechtlichen, medizinischen oder sicherheitsrelevanten Fragen: immer Fachexpertinnen oder offizielle Stellen hinzuziehen.
  10. Dokumentation — Notiere, welche Quellen Sie geprüft haben und warum Sie der Antwort zustimmen oder widersprechen.

 

Warum diese Schritte wichtig sind

KI‑Modelle erzeugen oft plausible, aber falsche Antworten; das Phänomen der sogenannten Halluzinationen ist gut dokumentiert und macht systematisches Fact‑Checking notwendig.

 

Praktische Kurzstrategie (5 schnelle Prüfungen)

  • Schnellsuche: Suche die Kernbehauptung in einer seriösen Suchmaschine.
  • Quelle‑Spotcheck: Öffne die erste offizielle Quelle (Regierung, Fachverband, Peer‑Reviewed).
  • Datum & Autor: Prüfe Veröffentlichungsdatum und Autorität.
  • Cross‑Check: Vergleiche mit einer zweiten Quelle.
  • Notiere Unsicherheiten: Markiere Aussagen, die unklar bleiben, und kennzeichne sie als nicht verifiziert.

 

Technische Hilfen und Selbstkontrolle

Setzen Sie Tools ein, die Quellen‑Retrieval und automatisierte Plausibilitätschecks unterstützen, und fordern Sie von KI‑Systemen strukturierte Belege oder Zitationslisten an; Forschungsansätze zur erzwungenen Selbstprüfung von Modellen werden aktiv diskutiert und entwickelt.

Albert Absmeier & KI

Die Antworten wurden von Copilot von Microsoft generiert.

 

2790 Artikel zu „KI Fehler“

KI schreibt Code: Schnell, effektiv und manchmal fehlerhaft

Manchmal könnte man den Eindruck gewinnen, als wären wir ganz plötzlich im Zeitalter der künstlichen Intelligenz (KI) gelandet. Mit dem rasanten Aufstieg kommerzieller Large Language Models (LLMs) und generativer KI-Tools wie OpenAI ChatGPT, Microsoft Copilot und Google Gemini ist künstliche Intelligenz jetzt in aller Munde – Bedenken eingeschlossen. Aber KI-Konzepte und -Systeme existieren schon seit…

KI in der Automatisierung – Der ChatGPT-Hype und andere Fehler

Generative KI-Tools wie ChatGPT sind derzeit in aller Munde und haben weltweit inzwischen einen erheblichen Einfluss auf Geschäftsabläufe. Viele Unternehmen überdenken sogar ihre Strategien für die digitale Transformation, um die sogenannte GenAI in ihre Prozesse einzubeziehen. Allerdings sollten sich Führungskräfte davor hüten, vorschnell auf den Zug der generativen KI aufzuspringen.

Alte Fehler nicht wiederholen: Von der Schatten-IT zur Schatten-KI?

Das Potenzial generativer KI hat einen wahren Goldrausch ausgelöst, den niemand verpassen will. Das zeigt eine Studie von Censuswide im Auftrag von Cohesity, einem Anbieter für KI-gestütztes Datenmanagement und -sicherheit [1]. So setzen bereits 86 Prozent von 903 befragten Firmen generative KI-Technologien ein. Welche Herausforderungen diese Entwicklung mit sich bringt und warum Unternehmen trotz aller…

KI im Panel-PC: Wie intelligente Maschinen die Industrie verändern

Ein Technologiesprung direkt an der Maschine Künstliche Intelligenz hält zunehmend Einzug in industrielle Bediengeräte. Panel-PCs, die bisher vor allem zur Visualisierung und Steuerung eingesetzt wurden, entwickeln sich immer stärker zu intelligenten Datenknotenpunkten. Durch die Integration von KI können sie Informationen unmittelbar an der Maschine auswerten – ohne Umweg über zentrale Server oder Cloudplattformen. Das ermöglicht…

Graph- und KI-Trends 2026: Warum KI läuft, aber noch nicht liefert

Nach den ersten Praxisjahren von KI stellt sich für viele Unternehmen eine zentrale Frage: Wo bleibt der ROI? KI-Agenten arbeiten nicht autonom genug, Modellnutzung leidet unter »Context Rot« bzw. Qualitätsverlust und klassische Datenbankkonzepte stoßen an Grenzen. Die Graph-Experten von Neo4j zeigen auf, welche Trends 2026 den praktischen Einsatz von KI spürbar voranbringen.   KI-Realitätscheck: Skalierung…

IT-Trends 2026: KI, Cyberrisiken und digitale Souveränität verändern die IT-Landschaft

Die digitale Welt befindet sich im Umbruch – sie wird komplexer, schneller und zugleich deutlich angreifbarer. Vor allem künstliche Intelligenz und moderne IT-Sicherheitskonzepte gehören zu den zentralen Trends, die bestimmen, wie Unternehmen ihre Netzwerke, Schutzmechanismen und Datenstrukturen künftig gestalten müssen.   »Wir stehen an einem Punkt, an dem Unternehmen ihre technologische Zukunft konsequenter denn je…

Datenverfügbarkeit und Dateninfrastruktur entscheiden über KI-Erfolg

Große Unternehmen liegen beim Aufbau KI-fähiger Infrastrukturen vorn.   NetApp, Experte für Intelligent Data Infrastructure, hat eine neue weltweite Studie von IDC zur KI-Reife in Unternehmen vorgestellt [1]. Die zweite jährliche Erhebung zeigt eine deutliche Veränderung in der unternehmerischen Herangehensweise an künstliche Intelligenz (KI): Um aktuelle sowie künftige KI-Modelle zu unterstützen, priorisieren die fortschrittlichsten Unternehmen…

Internet-Suche im Wandel: Die Hälfte nutzt bereits KI-Chats

50 Prozent der Internetnutzerinnen und -nutzer verwenden zumindest gelegentlich KI-Chats statt klassischer Suchmaschinen. Bei den 16- bis 29-Jährigen sind es sogar zwei Drittel. 42 Prozent haben schon falsche Antworten bekommen, nur 57 Prozent prüfen die Ergebnisse.   Suchbegriffe eingeben, Trefferlisten durchklicken, Informationen zusammentragen – viele Internetnutzerinnen und -nutzer gehen neue Wege und lassen sich Antworten…

KI im Gesundheitswesen: Wenn der Chatbot zum medizinischen Ratgeber wird

45 Prozent der Deutschen fragen KI-Chatbots zu Symptomen und Gesundheitsthemen. Das Vertrauen ist hoch, doch der Einsatz von KI in der Medizin macht einigen auch Angst. Drei Viertel halten sich mit Gesundheits-Apps auf dem Smartphone fit. 8 von 10 fordern mehr Tempo bei der Digitalisierung im Gesundheitswesen.   Künstliche Intelligenz hält in Praxen und Kliniken…

42 % der Unternehmen verlieren Umsatz durch IT-Probleme – große Hoffnung auf KI

Wie stark wirken sich Probleme mit der IT sich Effizienz, Motivation und Umsatz aus? Bei 42 % der weltweit 4.200 befragten Unternehmen hat ineffiziente IT bereits zu Umsatzverlusten geführt. IT-Probleme kosten Beschäftigte jeweils 1,3 Arbeitstage pro Monat. 48 % glauben, dass KI diese Probleme künftig verringern sowie Arbeitsabläufe verbessern wird.   Eine aktuelle Untersuchung von…

Welche Maßnahmen sollten ergriffen werden, bevor man KI-Agenten in der Cybersecurity einsetzt?

In der heutigen digitalen Welt sind KI-Agenten zu einem unverzichtbaren Werkzeug in der Cybersecurity geworden. Doch bevor man diese mächtigen Helfer einsetzt, ist es entscheidend, die richtigen Maßnahmen zu ergreifen, um ihre Sicherheit und Effektivität zu gewährleisten. Von der Sicherung ihrer Identitäten bis hin zur Integration menschlicher Freigaben für kritische Aktionen – jeder Schritt zählt.…

Die Risiken und Vermeidung von Schatten-KI

Schatten-KI, ähnlich wie Schatten-IT, bezieht sich auf die ungeprüfte und dezentrale Nutzung von KI-Diensten durch Mitarbeitende außerhalb der offiziellen IT-Prozesse. Während dies schnelle Produktivitätsgewinne bringen kann, birgt es erhebliche Risiken für Sicherheit, Compliance, Datenqualität und Betriebsstabilität. Haupt-Risiken Datenlecks und Datenschutzverletzungen: Hochsensible Daten wie Kundendaten, interne Strategien oder personenbezogene Informationen (PII) können in externe Modelle oder…

Schatten-KI braucht Absicherung, keine Verbote

Mitarbeitende nutzen im großen Stil öffentliche KI-Tools – und stürzen Unternehmen damit in ein Dilemma: Einerseits profitieren sie von der steigenden Produktivität der Belegschaft, andererseits werden ihre Daten großen Risiken ausgesetzt. Ein Sicherheitsspezialist zeigt auf, wie sich dieses Dilemma lösen lässt.   E-Mails formulieren, Meetings zusammenfassen, Präsentationen erstellen: Mitarbeitende nutzen inzwischen ganz selbstverständlich KI-Tools wie…

Keine Angst vor KI-Halluzinationen – mit den richtigen Vorkehrungen

Agentic AI hat sich 2025 schnell zu einem der meistdiskutierten Begriffe im Bereich Cybersicherheit entwickelt. Doch was zeichnet Agentic AI nun konkret aus und welche Unterschiede bestehen zu einer grundlegenden Automatisierung oder zu verbesserten Assistenten? Experten für MXDR bringen Licht ins Dunkel.   Für diejenigen, die Agentic AI effizient und zielführend im Bereich Security nutzen…

KI-Browser: Komfort oder kritischer Sicherheitsblindfleck?

»Ich habe nichts angeklickt. Der Browser hat das von selbst gemacht.« Das hörte ein Sicherheitsanalyst, nachdem der KI-gestützte Browser eines Benutzers ohne Erlaubnis auf sensible Daten zugegriffen hatte. KI-Browser sollen das digitale Leben einfacher machen. Marktprognosen zeigen, dass sie schnell wachsen – von 4 Milliarden US-Dollar im Jahr 2024 auf fast 77 Milliarden US-Dollar im…

Audits und Bewertungen von KI-Systemen erzeugen hohen GenAI-Nutzen

Governance-Praktiken erhöhen die Chancen, mehr geschäftlichen Mehrwert aus generativer KI zu erzielen.   Laut einer aktuellen Umfrage von Gartner, einem Unternehmen für Geschäfts- und Technologieanalysen, haben Organisationen, die regelmäßig Audits und Bewertungen der Leistungsfähigkeit und Compliance ihrer KI-Systeme durchführen, mehr als dreimal so hohe Chancen, einen hohen Nutzen aus GenAI zu erzielen wie Organisationen, die…

»AI Threat Tracker«: So nutzen Bedrohungsakteure KI

Angreifer nutzen KI nicht mehr nur zur Steigerung ihrer Produktivität, sondern experimentieren mit neuen Funktionen und Szenarien. Es gibt erstmals Malware-Familien, die während der Ausführung Large Language Models (LLMs) verwenden. Bedrohungsakteure verwenden Social-Engineering-Methoden, um Sicherheitsvorkehrungen von KI-Tools zu umgehen. Staatlich geförderte Akteure nutzen KI, um alle Phasen ihrer Aktivitäten zu verbessern. Der Untergrund-Markt für illegale…

KI-Bots bedrohen die Grundlage webbasierter Geschäftsmodelle

Der KI-Bot-Traffic steigt innerhalb eines Jahres um 300 Prozent an.   Akamai Technologies hat einen neuen SOTI-Bericht (»State of the Internet«) veröffentlicht [1]. Die Ergebnisse zeigen einen alarmierenden Anstieg des automatisierten Datenverkehrs. Dieser ist größtenteils auf KI-gestützte Bots zurückzuführen, die Websites aller Branchen ins Visier nehmen. Laut dem Digital Fraud and Abuse Report 2025 machen KI-Bots…

Penetration Testing: KI-Systeme effektiv absichern

Neue Anforderungen an IT-Sicherheit durch generative KI und Large Language Models / Bedrohungen erkennen, Schwachstellen schließen – Penetration Testing als wirksame Maßnahme / Neues Whitepaper mit Handlungsempfehlungen für Unternehmen.   Generative Künstliche Intelligenz (KI) revolutioniert nicht nur zahlreiche Branchen, sie schafft auch neue Angriffsflächen und sicherheitstechnische Herausforderungen – etwa, wenn Unternehmen große Sprachmodelle in Chatbots,…