Vier GenAI-Qualitätskiller: Vertraue keiner KI

foto freepik

Ohne echte Qualitätssicherung für die Nutzung generativer KI steht der Menschheit eine Dystopie ins Haus. Solange sie nicht existiert, sind die Nutzer in der Pflicht, die Gefahren von GenAI zu kennen und die Technologie verantwortungsvoll einzusetzen. Was sind die vier gefährlichsten Qualitätskiller im beginnenden KI-Zeitalter?

 

Die Leistung und die Zuverlässigkeit von KI-Assistenten nehmen gefühlt weiter zu. Doch wer in den letzten Wochen intensives Prompting bei ChatGPT, Perplexity und Co. betrieben und die Ergebnisse eingehend analysiert hat, fühlte sich in diesem Gefühl nicht bestätigt. Im Gegenteil: Die Qualität der generierten Antworten lässt neuerdings öfter zu wünschen übrig. Auf YouTube gibt es zahlreiche Videos zu diesem Phänomen, das sich offenbar auch die Hersteller nicht so ganz erklären können, aber auch klassische Medien berichten darüber. In Anbetracht der Tatsache, wie abhängig sich viele Menschen im Berufsleben schon heute von GenAI-Tools gemacht haben, ist dieser Trend erschreckend und ernüchternd. Ein blindes Vertrauen in die digitalen Helfer aus der Familie generativer KI birgt zudem großes Schadenspotenzial, etwa dann, wenn Ärztinnen sich bei der Diagnose auf sie stützen oder Entwickler von der KI vorgeschlagene Frameworks ohne Sicherheitscheck implementieren.

Völliges Vertrauen in GenAI ist also, zurückhaltend formuliert, mindestens gewagt. Die Situation ist ernst und erfordert von GenAI-Anbietern ein Mindestmaß an Qualitätssicherung – offenbar kein einfaches Unterfangen. Bis dahin ist es wichtig, eigene Maßnahmen zu ergreifen, um nicht in die Falle der folgenden vier Qualitätskiller zu geraten.

 

Killer #1: Halluzinationen

KI-Assistenten wie ChatGPT und Co. wurde die Aufgabe erteilt, Antworten zu liefern – koste es, was es wolle. Wenn die Wissensbibliothek nicht ausreicht, um komplexe Sachverhalte zu beantworten, fängt generative KI an, sich etwas auszudenken. Die von solchen Halluzinationen ausgehende Gefahr ist bekannt. Umso bedrückender ist die Tatsache, dass laut einer aktuellen Studie nur rund ein Viertel (27 %) der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit prüfen [1]. Das sind zwar immerhin 7 Prozentpunkte mehr als bei gewöhnlichen Inhalten aus dem Internet, wie eine Studie des PR-COM Research Lab belegt, aber noch immer viel zu wenige [2].

Gegenmaßnahmen: Wer GenAI nutzt, sollte ausnahmslos alle von ihr produzierten Inhalte überprüfen. Dazu sollten User insbesondere die von der KI verwendeten Primärquellen checken oder – wenn möglich – Experten zur Prüfung der Korrektheit der Antworten zu Rate ziehen.

 

Killer #2: Bias

Die Anbieter aktueller KI-Assistenten haben sehr viel Arbeit in ihre Produkte gesteckt, um den Bias, also die Voreingenommenheit ihrer Modelle auszumerzen und sie zur Vorurteilsfreiheit zu erziehen. Verlassen sollten sich User auf die moralische und ethische Unantastbarkeit ihrer Modelle dennoch nicht. Zwar ist es unwahrscheinlich, dass Produkte großer Hersteller noch rassistische, sexistische oder sonstige ethisch fragwürdige Ansichten vertreten, aber komplett ausgeschlossen ist es eben nicht. Noch relativ hoch ist die Gefahr zudem bei der Nutzung von kostenlosen GenAI-Assistenten oder Nischen-Tools.

Gegenmaßnahmen: Auch im Zusammenhang mit Bias gilt es, die Ergebnisse einer KI-Befragung immer genauestens zu checken und mit geltenden Gesetzen sowie den vorherrschenden Wertevorstellungen unserer Gesellschaft abzugleichen. Wer dubiose KI-Tools meidet, kann sich zudem viel Ärger ersparen.

 

Killer #3: Content-Kannibalisierung

Immer mehr KI-generierter Content flutet das Internet – die logische Folge der zunehmenden Nutzung von GenAI-Assistenten. Leider trainieren KI-Entwickler ihre Chatbots und deren zugrunde liegende Sprachmodelle unter anderem mit genau diesen Inhalten. Und schlimmer noch: Der exponentiell steigende KI-Inhalt ist darüber hinaus auch der Wissensschatz, auf den die KI für ihre Antworten zurückgreift. Dadurch entsteht ein Teufelskreis aus künstlicher Intelligenz, die sich irgendwann nur noch mit von ihr selbst generierten Inhalten trainiert und auch nur noch von ihr produzierten Content als Basiswissen verwendet. Der Mensch wird aus dieser Gleichung immer weiter herausgekürzt. Die Qualität der Ergebnisse von Anfragen an die KI wird somit zunehmend abnehmen. Hinzu kommt, dass alle User irgendwann die gleichen Ergebnisse abrufen, nutzen und veröffentlichen.

Gegenmaßnahmen: Es ergibt Sinn, hin und wieder auch ohne KI zu agieren und Content zu produzieren, der frei von KI-generierten Inhalten ist und das Qualitätsmerkmal »Made in a human brain« trägt.

 

Killer #4: Wissensoligopol

Der KI-Markt ist derzeit auf einige wenige Big Player geschrumpft, die sich die enormen Rechenressourcen und Entwicklungskosten für generative KI leisten können. Dadurch entsteht zunehmend ein Wissensoligopol, in dem die großen Anbieter wie OpenAI, Google, Meta, Microsoft und DeepSeek zukünftig die Art und Weise bestimmen, welche Informationen überhaupt noch zugänglich sind. Schon jetzt gehen Suchanfragen auf den traditionellen Suchmaschinen deutlich zurück, die Ergebnisse zwar nach Algorithmen ranken, aber selten Treffer komplett ausblenden. Viel restriktiver agieren GenAI-Tools, deren implementierte Filter die freiheitliche Verbreitung von Wissen einzuschränken drohen: Was nicht mit den politischen und moralischen Ideen der Hersteller übereinstimmt, wird automatisch unterdrückt. Das erinnert ein wenig an das Wahrheitsministerium aus Orwells »1984«.

Gegenmaßnahmen: Es ist wichtig, dass Unternehmen und offizielle Stellen auch unabhängige Projekte fördern und deren Nutzer- sowie Supporter-Basis wächst. Gleichzeitig sollten User es dringend verinnerlichen, dass nicht die KI-Assistenten der Wahrheit letzter Schluss sind. Das Nutzen möglichst vieler Quellen, um das eigene Wissen aufzubauen, ist immer besser als ein vermeintlicher »Single Point of Truth«.

 

Alain Blaes ist CEO der Münchner Kommunikationsagentur PR-COM. (Quelle: PR-COM)

»Wir sind noch lange nicht so weit, dass ein blindes Vertrauen in generative KI zu rechtfertigen ist«, betont Alain Blaes, CEO der Münchner Kommunikationsagentur PR-COM. »Es ist zwar logisch, dass wir eine vermeintlich arbeitserleichternde Technologie erst einmal ungern hinterfragen – doch dieser Bequemlichkeit wohnt, je nach Einsatzzweck, ein erhebliches Schadenspotenzial inne. Zum jetzigen Zeitpunkt lautet also die Maxime, restlos jede von GenAI generierte Antwort genauestens auf den Prüfstand zu stellen.«

 

 

[1] https://www.ey.com/de_de/newsroom/2025/05/ey-ai-sentiment-index-2025
[2] https://pr-com.de/research/80-prozent-der-deutschen-nehmen-fake-news-einfach-hin-und-hinterfragen-sie-nicht/

 

3407 Artikel zu „KI Vertrauen“

Agentenbasierte KI mit einem Höchstmaß an Vertrauen und Sicherheit

  Kyndryl nutzt seine jahrzehntelange Erfahrung im Bereich IT-Infrastrukturen, um ein leistungsfähiges unternehmensweites Framework bereitzustellen: Es basiert auf intelligenten KI-Agenten, die lernen, sich anpassen und weiterentwickeln und so Daten in konkretes Handeln übersetzen.  Das »Kyndryl Agentic AI Framework« organisiert sich selbst, skaliert flexibel und führt Aufgaben sicher über unterschiedliche IT-Landschaften und komplexe Workflows hinweg aus,…

Automobilindustrie setzt auf KI sowie Echtzeitfunktionen – und kämpft mit Integration und Vertrauen

KI, OTA-Updates und softwaregetriebene Innovationen gewinnen in der globalen Automobilindustrie rasant an Bedeutung. Doch während OEMs den Übergang zu softwaredefinierten Fahrzeugen vorantreiben, bremsen hohe Kosten, technische Komplexität und mangelndes Vertrauen in sicherheitskritische Systeme den Fortschritt. Das zeigt die aktuelle Branchenumfrage von Wards Intelligence, inzwischen Teil von Omdia, in Zusammenarbeit mit Sonatus [1].   Die Studie…

Vertrauen als Schlüssel für erfolgreiche KI

Vertrauen ist die unabdingbare Voraussetzung für skalierbare künstliche Intelligenz – alles andere ist nur Theater. Mit dieser klaren Botschaft richtet sich der Qlik AI Council an Unternehmen und Entscheider. Die Experten sind sich einig: Wer KI wirklich nutzen will, muss den Sprung von der Experimentierphase zur konsequenten Umsetzung wagen – und das auf Basis von…

Verbraucher haben größeres Vertrauen zu KI, wenn sie ähnlich wie ein Mensch reagiert

54 Prozent der deutschen Verbraucher stehen dem Einsatz von KI im Kundenservice positiver gegenüber, wenn sich die KI menschenähnlich verhält. Das ist eines der Ergebnisse des deutschen CX Trend Reports 2025 von Zendesk [1]. Die Studie, die auf den Einschätzungen von mehr als 10.000 Verbrauchern und Entscheidern weltweit basiert, belegt unter anderem Unterschiede zwischen den…

KI-Wissen und Führungsqualitäten entscheidend für mehr Vertrauen und Leistung

Mitarbeitende sehen künstliche Intelligenz, maschinelles Lernen sowie die Förderung von Führungsqualitäten als ihre größten Qualifikationslücken. Nur jeder fünfte Mitarbeitende in Deutschland bewertet die Talententwicklungsprogramme ihres Unternehmens als hochwirksam. Mitarbeitende wünschen sich mehr Zeit, neue interaktive Lernformate und mehr Unterstützung durch die Führungskräfte, um ihren Weiterbildungsbedarf zu decken.   Skillsoft, eine Plattform für transformative Lernerfahrungen, hat…

Probleme mit dem Datenvertrauen führen zu negativen Auswirkungen auf Daten- und KI-Initiativen

Precisely, Anbieter von Datenintegrität, veröffentlichte eine neue Studie, die in Zusammenarbeit mit dem Center for Applied AI and Business Analytics am LeBow College of Business der Drexel University (Drexel LeBow) durchgeführt wurde [1]. Die wichtigsten Erkenntnisse aus dem diesjährigen »2025 Outlook: Data Integrity Trends and Insights« beleuchten die drängendsten Herausforderungen, denen sich Unternehmen bei der…

PKI und Post-Quanten-Kryptographie: Wachsender Bedarf an digitalem Vertrauen

Der PKI & Digital Trust Report 2024 von Keyfactor verdeutlicht Herausforderungen im Bereich digitaler Identitäten und Hindernisse bei der Vorbereitung von Organisationen auf die Post-Quanten-Kryptografie.    Keyfactor, die Identity-first Security-Lösung für moderne Unternehmen, und Vanson Bourne geben die Ergebnisse des PKI & Digital Trust Report 2024 bekannt, für den weltweit 1.200 IT-Experten und -Führungskräfte (300…

KI-Studie 2024: Einblicke in Nutzung und Vertrauen in der Gesellschaft

Kein Thema ist heute so brandaktuell, aufregend und kontrovers wie künstliche Intelligenz. KI verändert Arbeitsprozesse grundlegend, daher ist es wichtig, Sichtweisen auf ChatGPT und Co. zu verstehen. Der von Evergreen Media in Zusammenarbeit mit SKOPOS GmbH & Co. KG erstellte Report »KI-Studie 2024: Nutzung & Vertrauen in der Gesellschaft« liefert spannende Einblicke in die Nutzung…

Umfrage offenbart mangelndes Vertrauen in KI am Arbeitsplatz

Führungskräfte und ihre Teams haben wenig Vertrauen in die verantwortungsbewusste Entwicklung und Nutzung von künstlicher Intelligenz.   Workday veröffentlicht eine globale Studie zu einem hochaktuellen Thema [1]. Sie zeigt, dass die Rolle von KI in der Arbeitswelt weitgehend kritisch gesehen wird. Management und Belegschaft sind sich einig darin, dass künstliche Intelligenz den Unternehmen enorme Transformationschancen…

Aufklärungsbedarf: Mehr als 80 Prozent der Befragten hat kein Vertrauen in KI-erstellte Inhalte

Künstliche Intelligenz wurde dieses Jahr an vielen Stellen zur Zukunft der Medienbranche erklärt, doch eine neue Umfrage von nextMedia.Hamburg zeigt, wie viel Arbeit noch geleistet werden muss, ehe KI –generierte Inhalte von den Konsumentinnen und Konsumenten angenommen werden.   Über 80 Prozent der Befragten geben an, dass sie nur geringes oder gar kein Vertrauen in…

KI und die Vertrauensfrage: Wie transparent muss Technologie sein?

Bei wichtigen Entscheidungen ist eine zweite Meinung oft hilfreich. Doch was, wenn diese zweite Meinung von einer künstlichen Intelligenz (KI) statt von einem Menschen stammt? Können wir Maschinen vertrauen?   Bei einer KI-basierten Produktempfehlung im Online-Shop eines Händlers mag die Antwort darauf noch egal sein. Versicherungen oder Banken hingegen sollten Erklärungen liefern, wenn ein Algorithmus…

Mehr als 460 Milliarden Dollar zusätzlicher Gewinn durch bessere Datenpraktiken, Vertrauen in künstliche Intelligenz (KI) und Geschäftsintegration

Gemeinsam besser: Studie zeigt, dass Unternehmen KI und Daten bündeln müssen, um einen strategischen Wert zu schaffen.   Nach der neuen Studie des Infosys Knowledge Institute, dem Thought-Leadership- und Forschungszweig von Infosys, können Unternehmen über 460 Milliarden US-Dollar an zusätzlichen Gewinnen erwirtschaften, wenn sie die drei nachfolgenden Dinge beherzigen: Datenpraktiken verbessern, auf künstliche Intelligenz (KI)…

KI-Agenten im Visier: Die nächste Generation des Phishings bedroht autonome digitale Assistenten

Während Unternehmen und Privatpersonen ihre Abwehrmechanismen gegen traditionelle Phishing-Angriffe stetig verbessern, zeichnet sich am Horizont eine neue, möglicherweise noch gefährlichere Bedrohung ab: Die gezielte Manipulation und die Übernahme von KI-Agenten. Diese autonomen digitalen Assistenten, die im Namen ihrer Nutzer handeln und Zugriff auf sensible Konten und Systeme haben, könnten in naher Zukunft zur Achillesferse der…

Künstliche Intelligenz im ROI-Check – Wie sich der wirtschaftliche Nutzen von KI messen lässt

Künstliche Intelligenz wird zunehmend zu einem strategischen Faktor in der Wirtschaft. Unternehmen setzen KI ein, um Prozesse zu optimieren, Kosten zu senken und Wettbewerbsvorteile zu sichern. Der erwartete Nutzen ist hoch – doch der tatsächliche wirtschaftliche Effekt bleibt oft schwer greifbar. Entscheidend für den nachhaltigen Erfolg ist daher der Nachweis eines klaren Returns on Investment…

Sichtbarkeit im Schatten der KI – Wie Unternehmen 2025 online wahrgenommen werden

KI generiertes Bild Unternehmen stehen vor einer grundlegenden Veränderung der digitalen Sichtbarkeit. Nicht mehr nur klassische Suchmaschinen oder soziale Netzwerke entscheiden darüber, ob ein Unternehmen gefunden wird – sondern zunehmend generative KI-Systeme wie Google Gemini, OpenAI ChatGPT oder Apple Intelligence. Diese nutzen strukturierte Daten, Bewertungsportale und vernetzte Unternehmensverzeichnisse als Basis für ihre Empfehlungen. Die Folge:…

Wer KI richtig wertschätzen will, muss in die zugrundeliegende Infrastruktur investieren

Ein Kommentar von Jeff Wittich, Chief Product Officer bei Ampere. Anlässlich des AI Appreciation Day schenkt die Tech-Branche weltweit dem Thema künstliche Intelligenz mehr Aufmerksamkeit. Dabei rücken häufig jedoch nur die erstaunlichen Fähigkeiten der Technologie ins Rampenlicht der Feierlichkeiten – von autonomen Systemen und Sprachmodellen bis hin zu Echtzeitentscheidungen. Vielmehr beginnt die Wertschätzung für KI…

Datenschutz, Markenvertrauen und Rabattcodes: So ticken deutsche Verbraucher

Neue Erkenntnisse zeigen, dass transparente Kommunikation zum Datenschutz für den Aufbau von Vertrauen unerlässlich ist.   Ohne Datenschutz kein Vertrauen – 62 % der Deutschen geben an, dass sie einem Unternehmen vertrauen, das den Schutz ihrer Daten ernst nimmt. Deutsche Verbraucher auf Schnäppchenjagd – 41 % halten Rabattaktionen für eine gute Möglichkeit für Marken, mit…