Informatik und Philosophie: Sechs Kriterien für die Vertrauenswürdigkeit von KI

foto freepik ki

Sprachmodelle, die auf künstlicher Intelligenz (KI) basieren, antworten auf jede Frage – aber nicht immer mit der richtigen Antwort. Hilfreich wäre es daher für Nutzerinnen und Nutzer zu wissen, wie vertrauenswürdig ein KI-System ist. Ein Team der Ruhr-Universität Bochum und der TU Dortmund schlägt sechs Dimensionen vor, mit denen sich die Vertrauenswürdigkeit eines Systems beschreiben lässt – egal, ob es sich dabei um Personen, Institutionen, klassische Maschinen oder KI-Systeme handelt.

 

Das Konzept beschreiben Dr. Carina Newen und Prof. Dr. Emmanuel Müller von der TU Dortmund zusammen mit dem Philosophen Prof. Dr. Albert Newen von der Ruhr-Universität Bochum im internationalen philosophischen Fachjournal »Topoi«, online veröffentlicht am 14. November 2025 [1].

Ob ein bestimmtes KI-System vertrauenswürdig ist, kann nicht mit »Ja« oder »Nein« beantwortet werden. Die Autoren und Autorin schlagen vor, für jedes System zu beurteilen, wie ausgeprägt sechs verschiedene Dimensionen sind, und so ein Profil der Vertrauenswürdigkeit zu erstellen.

 

Bei den Dimensionen handelt es sich um:

  1. Objektive Funktionalität:
    Wie gut erledigt das System seine Kernaufgabe und wird die Qualität überprüft und garantiert?
  2. Transparenz:
    Wie transparent sind die Prozesse des Systems?
  3. Unsicherheit von zugrunde liegenden Daten und Modellen:
    Wie verlässlich und gesichert gegen Missbrauch sind Daten und Modelle?
  4. Verkörperung:
    In welchem Maße handelt es sich um ein verkörpertes oder ein virtuelles System?
  5. Unmittelbarkeit:
    In welchem Maße findet Austausch mit dem System statt?
  6. Verpflichtung:
    In welchem Maße kann das System eine Verpflichtung gegenüber dem Vertrauenden haben?

 

»Anhand dieser Kriterien kann man sichtbar machen, dass die Vertrauenswürdigkeit gegenwärtiger KI-Systeme – wie ChatGPT oder autonome Fahrzeuge – in den meisten Dimensionen noch starke Defizite aufweist«, so das Bochumer-Dortmunder Team. »Es wird zugleich deutlich, wo der Nachholbedarf besteht, wenn KI-Systeme eine hinreichende Vertrauenswürdigkeit erreichen sollen.«

Zentrale Dimensionen aus technischer Sicht

Aus technischer Sicht sind die Dimensionen Transparenz und Unsicherheit von zugrunde liegenden Daten und Modellen entscheidend. Sie betreffen prinzipielle Defizite von KI-Systemen. »Das sogenannte deep learning produziert bei großen Datenmengen bemerkenswerte Leistungen. KI-Systeme sind zum Beispiel im Schach jedem Menschen überlegen«, erläutert Emmanuel Müller. »Aber die zugrunde liegenden Prozesse sind für uns intransparent, wodurch bislang ein zentrales Defizit der Vertrauenswürdigkeit entsteht.«

Ähnlich verhält es sich mit der Unsicherheit von Daten und Modellen. »KI-Systeme werden schon von Firmen eingesetzt, um Bewerbungen vorzusortieren«, gibt Carina Newen ein Beispiel. »Dabei stecken in den Daten, mit denen die KI trainiert wird, Vorurteile, die das KI-System dann fortschreibt.«

Zentrale Dimensionen aus philosophischer Sicht

Aus philosophischer Sicht führt das Team das Beispiel ChatGPT an, das zwar bei jeder Frage und Aufgabe eine klug klingende Antwort produziert, dabei aber halluzinieren kann: »Das KI-System erfindet Informationen, ohne dies sichtbar zu machen«, betont Albert Newen: »KI-Systeme können und werden als Informationssysteme hilfreich sein, aber wir müssen lernen, sie stets mit kritischem Verstand zu betrachten und nicht blind zu vertrauen.«

Als fragwürdig stuft Newen hingegen die Entwicklung von Chat-Bots als Ersatz für menschliche Kommunikation ein. »Zwischenmenschliches Vertrauen zu einem Chat-Bot aufzubauen, ist gefährlich, weil ein solcher keinerlei Verpflichtung gegenüber dem vertrauenden Menschen hat«, so Newen. »Es ergibt keinen Sinn zu erwarten, dass der Chat-Bot Versprechen einhalten kann.«

Die Profilbetrachtung von Vertrauenswürdigkeit in den verschiedenen Dimensionen kann laut der Autorin und den Autoren helfen zu verstehen, in welchem Maße Menschen KI-Systemen als Informationsexperten vertrauen können. Zugleich helfe es zu sehen, warum kritischer Alltagsverstand mehr denn je gefragt sein wird.

 

[1] https://link.springer.com/article/10.1007/s11245-025-10287-0
 
Kooperation im Ruhr Innovation Lab
Die Ruhr-Universität Bochum und die TU Dortmund, die derzeit in der Exzellenzstrategie gemeinsam als Ruhr Innovation Lab antreten, kooperieren eng zu Themen, die dazu beitragen, im digitalen Zeitalter eine zukunftsfähige und resiliente Gesellschaft zu entwickeln. Die aktuelle Veröffentlichung entstammt einer Zusammenarbeit des Instituts für Philosophie II in Bochum mit dem Research Center Trustworthy Data Science and Security, das die beiden Partneruniversitäten gemeinsam mit der Universität Duisburg-Essen in der Universitätsallianz Ruhr gegründet haben. Die Autorin Carina Newen hat als erste Doktorandin des Centers promoviert.

 

Handlungsempfehlungen für den Umgang mit KI

Der Artikel schlägt ein sechs‑dimensionales Rahmenmodell vor, mit dem sich die Vertrauenswürdigkeit von KI‑Systemen systematisch bewerten lässt: Objective Functionality, Transparency, Uncertainty Quantification, Embodiment, Immediacy Behaviors, Commitment. Diese Dimensionen helfen, konkrete Maßnahmen zu priorisieren und Risiken sichtbar zu machen.

 

  1. Objective Functionality — Sicherstellen, dass KI tut, was sie soll
  • Definieren Sie klare Erfolgskriterien für jede KI‑Anwendung (Messgrößen, Akzeptanzkriterien, Fehlertoleranz).
  • Führen Sie standardisierte Tests vor Produktivsetzung durch (Unit, Integration, Real‑World‑Simulations).
  • Etablieren Sie Langzeit‑Kontrollen (Monitoring, regelmäßige Reviews, Versionierung) und dokumentieren Sie Änderungen systematisch.

 

  1. Transparency — Nachvollziehbarkeit erhöhen
  • Dokumentationspflicht: Modellarchitektur, Trainingsdatenquellen, Updates und bekannte Limitationen müssen dokumentiert und zugänglich sein.
  • Reputation und unabhängige Prüfungen: Beauftragen Sie externe Audits und veröffentlichen Sie zusammenfassende Prüfberichte.
  • Erklärbarkeit: Setzen Sie erklärbare Modelle oder Erklärungs‑Layer (XAI) dort ein, wo Entscheidungen Menschen stark betreffen.

 

  1. Uncertainty Quantification — Unsicherheiten messen und kommunizieren
  • Implementieren Sie Unsicherheitsmetriken (epistemic/aleatoric) und zeigen Sie diese in Nutzerinterfaces, zum Beispiel Konfidenzintervalle oder Warnstufen.
  • Bias‑Checks und Daten‑Profiling: Regelmäßige Analysen auf Verzerrungen in Trainingsdaten; dokumentierte Maßnahmen zur Bias‑
  • Robustheitstests: Adversarial‑Tests, Stresstests und Szenarien‑Analysen, um externe Einflüsse und Angriffsvektoren zu identifizieren.

 

  1. Embodiment und Immediacy Behaviors — Nutzerinteraktion gestalten
  • Passende Form der Interaktion wählen: Entscheiden Sie bewusst, ob ein System embodied (z. B. Roboter) oder disembodied (z. B. Chatbot) sein soll — je nach Vertrauenserfordernis.
  • Soziale Responsivität kontrollieren: Bei dialogischen Systemen Grenzen setzen (z. B. Transparenz über KI‑Status, Fallback‑Strategien bei Fehlern).
  • Illusion von Kontrolle vermeiden: Nutzer klar informieren, welche Entscheidungen automatisiert sind und welche menschliche Kontrolle erfordern.

 

  1. Commitment — Verantwortung und rechtliche Absicherung
  • Verantwortlichkeiten festlegen: Klare Zuordnung von rechtlicher und operativer Verantwortung (wer haftet, wer überwacht).
  • Vertragliche und organisatorische Verpflichtungen: SLAs, Audit‑Rechte, Meldepflichten bei Vorfällen; rechtliche Absicherung durch Compliance‑
  • Meta‑Commitment implementieren: Systeme so gestalten, dass sie Mechanismen zur Selbstüberwachung und Fehlerberichterstattung besitzen.

 

  1. Operative Umsetzung und Governance
  • Governance‑Board einrichten: Interdisziplinäres Team (Technik, Recht, Ethik, Fachbereich) für Freigaben und Reviews.
  • Rollout‑Strategie: Stufenweise Einführung (Pilot → begrenzter Einsatz → Skalierung) mit klaren Abbruchkriterien.
  • Schulungen und Awareness: Mitarbeitende in Umgang, Grenzen und Risiken von KI schulen; Nutzer‑Guidelines bereitstellen.

 

Priorisierungsempfehlung für die Praxis

Sofort: Erfolgskriterien definieren, Verantwortlichkeiten klären, Pilot‑Governance einrichten.

Kurzfristig (1–3 Monate): Transparenz‑Dokumentation, Basis‑Unsicherheitsmetriken, externe Auditplanung.

Mittelfristig (3–12 Monate): Robuste Monitoring‑Pipelines, regelmäßige Bias‑Analysen, rechtliche Absicherung.

Langfristig: Zertifizierungen, kontinuierliche Verbesserung, gesellschaftliche Folgen evaluieren.

Albert Absmeier & KI

 

3869 Artikel zu „KI Vertrauen“

Zwischen Vertrauen und Täuschung: Wie generative KI den Zahlungsverkehr verändert – und wie sich Banken schützen

Der digitale Zahlungsverkehr beschleunigt sich – und mit ihm die Risiken. Echtzeit-Transaktionen, API-basierte Schnittstellen und digitale Wallets sorgen für Geschwindigkeit, Komfort und neue Geschäftsmodelle. Gleichzeitig öffnet dieselbe Technologie Kriminellen neue Türen: Mit Hilfe generativer Künstlicher Intelligenz entstehen gefälschte Identitäten, Dokumente und Stimmen in nie dagewesener Qualität. Der Wettlauf zwischen Innovation und Manipulation hat längst begonnen.

Das Verbrauchervertrauen in KI stürzt ab, während die KI-Nutzung explodiert

Nur 23 Prozent der Befragten sind überzeugt, Betrugsversuche zu erkennen. Die Konsumenten fordern stärkere Sicherheit und eine Regulierung von KI.   Ping Identity, ein Anbieter zur Sicherung digitaler Identitäten, hat seine Verbraucherumfrage 2025 veröffentlicht. Diese zeigt einen deutlichen Kontrast zwischen rasant steigender KI-Nutzung und dem zusammenbrechenden Vertrauen der Verbraucher in globale Marken. Der Bericht ergab,…

Vertrauen ist Schlüsselfaktor für Akzeptanz von KI-Agenten

KI-Agenten könnten der nächste große Trend sein – ihr Potenzial wird bislang aber kaum ausgeschöpft. Transparenz & Kontrolle sowie Rechtssicherheit sind zentrale Anforderungen. Unternehmen erproben Monetarisierungsansätze – Zahlungsbereitschaft entsteht nur bei klar erkennbarem Mehrwert.   KI-Agenten, also Programme, die Aufgaben eigenständig ausführen, entwickeln sich zum nächsten großen Technologietrend. 39 Prozent der Verbraucherinnen und Verbraucher nutzen…

Finanzdaten: Eine Baustelle mit Fortschrittspotenzial – Vertrauen, Resilienz und KI sind Schlüsselfaktoren der Finanztransformation

Finanzorganisationen stehen vor einem tiefgreifenden Wandel, von dem auch die Rolle des CFOs betroffen ist. Er wird immer mehr zum strategischen Partner, der auf Augenhöhe mit dem CEO und CIO agiert. Eine unabhängige weltweite Umfrage unter 1.300 Führungskräften von Censuswide, die von BlackLine in Auftrag gegeben wurde, liefert Einblicke in die Herausforderungen und Chancen, mit denen sich die Finanzabteilungen von Unternehmen auseinandersetzen müssen [1].

KI-Agenten im Kommen, aber Governance-Lücken gefährden Vertrauen der Verbraucher

Vier von fünf Verbrauchern wünschen sich eine klare Governance für KI-Interaktionen, aber weniger als ein Drittel der Unternehmen verfügt über umfassende Richtlinien. Genesys, ein Anbieter von KI-gestützter Orchestrierung von Kundenerlebnissen, veröffentlicht die Ergebnisse seiner aktuellen Umfrage: Diese decken eine kritische Diskrepanz auf, zwischen der Art und Weise, wie Unternehmen künstliche Intelligenz (KI) regeln, und den…

Schatten-KI im Unternehmen: Risiken erkennen, Vertrauen sichern

Wer glaubt, dass das KI-Zeitalter nur positive Überraschungen parat hat, irrt gewaltig. Eine neue Herausforderung nimmt bereits Form an: die Schatten-KI. Gemeint ist der unkontrollierte Einsatz von KI-Tools außerhalb formeller Governance-Strukturen, also ohne Freigabe oder Überwachung durch IT, Security oder Compliance. Schatten-KI verbreitet sich sogar noch schneller, als das seinerzeit bei der Schatten-IT der Fall…

Agentenbasierte KI mit einem Höchstmaß an Vertrauen und Sicherheit

  Kyndryl nutzt seine jahrzehntelange Erfahrung im Bereich IT-Infrastrukturen, um ein leistungsfähiges unternehmensweites Framework bereitzustellen: Es basiert auf intelligenten KI-Agenten, die lernen, sich anpassen und weiterentwickeln und so Daten in konkretes Handeln übersetzen.  Das »Kyndryl Agentic AI Framework« organisiert sich selbst, skaliert flexibel und führt Aufgaben sicher über unterschiedliche IT-Landschaften und komplexe Workflows hinweg aus,…

Automobilindustrie setzt auf KI sowie Echtzeitfunktionen – und kämpft mit Integration und Vertrauen

KI, OTA-Updates und softwaregetriebene Innovationen gewinnen in der globalen Automobilindustrie rasant an Bedeutung. Doch während OEMs den Übergang zu softwaredefinierten Fahrzeugen vorantreiben, bremsen hohe Kosten, technische Komplexität und mangelndes Vertrauen in sicherheitskritische Systeme den Fortschritt. Das zeigt die aktuelle Branchenumfrage von Wards Intelligence, inzwischen Teil von Omdia, in Zusammenarbeit mit Sonatus [1].   Die Studie…

Vertrauen als Schlüssel für erfolgreiche KI

Vertrauen ist die unabdingbare Voraussetzung für skalierbare künstliche Intelligenz – alles andere ist nur Theater. Mit dieser klaren Botschaft richtet sich der Qlik AI Council an Unternehmen und Entscheider. Die Experten sind sich einig: Wer KI wirklich nutzen will, muss den Sprung von der Experimentierphase zur konsequenten Umsetzung wagen – und das auf Basis von…

Verbraucher haben größeres Vertrauen zu KI, wenn sie ähnlich wie ein Mensch reagiert

54 Prozent der deutschen Verbraucher stehen dem Einsatz von KI im Kundenservice positiver gegenüber, wenn sich die KI menschenähnlich verhält. Das ist eines der Ergebnisse des deutschen CX Trend Reports 2025 von Zendesk [1]. Die Studie, die auf den Einschätzungen von mehr als 10.000 Verbrauchern und Entscheidern weltweit basiert, belegt unter anderem Unterschiede zwischen den…

KI-Wissen und Führungsqualitäten entscheidend für mehr Vertrauen und Leistung

Mitarbeitende sehen künstliche Intelligenz, maschinelles Lernen sowie die Förderung von Führungsqualitäten als ihre größten Qualifikationslücken. Nur jeder fünfte Mitarbeitende in Deutschland bewertet die Talententwicklungsprogramme ihres Unternehmens als hochwirksam. Mitarbeitende wünschen sich mehr Zeit, neue interaktive Lernformate und mehr Unterstützung durch die Führungskräfte, um ihren Weiterbildungsbedarf zu decken.   Skillsoft, eine Plattform für transformative Lernerfahrungen, hat…

Probleme mit dem Datenvertrauen führen zu negativen Auswirkungen auf Daten- und KI-Initiativen

Precisely, Anbieter von Datenintegrität, veröffentlichte eine neue Studie, die in Zusammenarbeit mit dem Center for Applied AI and Business Analytics am LeBow College of Business der Drexel University (Drexel LeBow) durchgeführt wurde [1]. Die wichtigsten Erkenntnisse aus dem diesjährigen »2025 Outlook: Data Integrity Trends and Insights« beleuchten die drängendsten Herausforderungen, denen sich Unternehmen bei der…

PKI und Post-Quanten-Kryptographie: Wachsender Bedarf an digitalem Vertrauen

Der PKI & Digital Trust Report 2024 von Keyfactor verdeutlicht Herausforderungen im Bereich digitaler Identitäten und Hindernisse bei der Vorbereitung von Organisationen auf die Post-Quanten-Kryptografie.    Keyfactor, die Identity-first Security-Lösung für moderne Unternehmen, und Vanson Bourne geben die Ergebnisse des PKI & Digital Trust Report 2024 bekannt, für den weltweit 1.200 IT-Experten und -Führungskräfte (300…

KI-Studie 2024: Einblicke in Nutzung und Vertrauen in der Gesellschaft

Kein Thema ist heute so brandaktuell, aufregend und kontrovers wie künstliche Intelligenz. KI verändert Arbeitsprozesse grundlegend, daher ist es wichtig, Sichtweisen auf ChatGPT und Co. zu verstehen. Der von Evergreen Media in Zusammenarbeit mit SKOPOS GmbH & Co. KG erstellte Report »KI-Studie 2024: Nutzung & Vertrauen in der Gesellschaft« liefert spannende Einblicke in die Nutzung…

Umfrage offenbart mangelndes Vertrauen in KI am Arbeitsplatz

Führungskräfte und ihre Teams haben wenig Vertrauen in die verantwortungsbewusste Entwicklung und Nutzung von künstlicher Intelligenz.   Workday veröffentlicht eine globale Studie zu einem hochaktuellen Thema [1]. Sie zeigt, dass die Rolle von KI in der Arbeitswelt weitgehend kritisch gesehen wird. Management und Belegschaft sind sich einig darin, dass künstliche Intelligenz den Unternehmen enorme Transformationschancen…

Aufklärungsbedarf: Mehr als 80 Prozent der Befragten hat kein Vertrauen in KI-erstellte Inhalte

Künstliche Intelligenz wurde dieses Jahr an vielen Stellen zur Zukunft der Medienbranche erklärt, doch eine neue Umfrage von nextMedia.Hamburg zeigt, wie viel Arbeit noch geleistet werden muss, ehe KI –generierte Inhalte von den Konsumentinnen und Konsumenten angenommen werden.   Über 80 Prozent der Befragten geben an, dass sie nur geringes oder gar kein Vertrauen in…

KI und die Vertrauensfrage: Wie transparent muss Technologie sein?

Bei wichtigen Entscheidungen ist eine zweite Meinung oft hilfreich. Doch was, wenn diese zweite Meinung von einer künstlichen Intelligenz (KI) statt von einem Menschen stammt? Können wir Maschinen vertrauen?   Bei einer KI-basierten Produktempfehlung im Online-Shop eines Händlers mag die Antwort darauf noch egal sein. Versicherungen oder Banken hingegen sollten Erklärungen liefern, wenn ein Algorithmus…

Mehr als 460 Milliarden Dollar zusätzlicher Gewinn durch bessere Datenpraktiken, Vertrauen in künstliche Intelligenz (KI) und Geschäftsintegration

Gemeinsam besser: Studie zeigt, dass Unternehmen KI und Daten bündeln müssen, um einen strategischen Wert zu schaffen.   Nach der neuen Studie des Infosys Knowledge Institute, dem Thought-Leadership- und Forschungszweig von Infosys, können Unternehmen über 460 Milliarden US-Dollar an zusätzlichen Gewinnen erwirtschaften, wenn sie die drei nachfolgenden Dinge beherzigen: Datenpraktiken verbessern, auf künstliche Intelligenz (KI)…