KI mit Byte und Siegel? Eine Einschätzung zu den KI-TÜV-Plänen der Bundesregierung

 

Jetzt macht Deutschland in künstliche Intelligenz (KI): mit Formularen, Verordnungen und Prüfplaketten. Diesen Eindruck erwecken einige Überschriften der letzten Tage. Die Pläne des sogenannten KI-TÜVs der Bundesregierung machten die Runde.

Im Bundesministerium für Arbeit und Soziales angesiedelt, soll das KI-Observatorium – so die offizielle, etwas altbackene Bezeichnung – das Thema KI voranbringen. Der Zwischenbericht zur KI-Strategie der Bundesregierung vom 15. November 2019 beschreibt nüchtern: »Kernaufgaben […] sind die Beobachtung von Technologieentwicklung, -verbreitung und Technologiefolgenabschätzung für KI in Arbeit und Gesellschaft.« Das klingt nicht so, als ob im nächsten Jahr der einzelne Smart Speaker oder eine KI-Anwendung in einem Unternehmen einen Prüfstempel bekommt. Die Verantwortlichen aus der Politik stellten klar, dass es dem KI-Observatorium zunächst darum geht, den Einsatz von KI-Systemen in Deutschland zu erfassen und zu verstehen. Daraus leiten die Fachleute einen Ordnungsrahmen ab, der die Grundlage für das Prüfen und Bewerten bildet.

Spöttische Stimmen würden sagen, dass im KI-Observatorium zwei Welten aufeinanderprallen werden: der deutsche Hang zur Gründlichkeit und das atemberaubende Tempo technologischer Entwicklung. Aber die Idee hinter der Institution ist interessant – und das gleich auf zwei Ebenen: Das einzelne Unternehmen und einzelne KI-Projekte profitieren von eindeutigen Rahmenbedingungen. Algorithmen unterstützen Banken bei der Kreditvergabe, autonome Fahrzeuge beim Lenken oder Musikliebhaber bei der Auswahl des nächsten Songs. Dahinter stecken völlig unterschiedliche Anwendungen mit mehr oder weniger weitreichenden Konsequenzen für den Einzelnen. Wer weiß, welche Anforderungen ein KI-System erfüllen muss, um für einen bestimmten Einsatz zugelassen zu werden, tut sich leichter mit dem Entwickeln vernünftiger Software.

Aber auch deutschen und europäischen KI-Aktivitäten insgesamt hilft ein funktionierendes KI-Observatorium. Es sorgt mit dafür, neben dem US-amerikanischen und chinesischen KI-Verständnis einen dritten Weg zu etablieren. Einen, dem eine Auffassung von Wirtschaften, Datenschutz und Persönlichkeitsrechten zugrunde liegt, mit dem sich die meisten Bürgerinnen und Bürger der EU identifizieren.

Noch ist offen, wie mögliche Prüfungen und Bewertungen aussehen. Stellen Entwicklerinnen und Entwickler alle zwei Jahre ihre Algorithmen vor? Testen die Sachverständigen dann, ob die genutzten Machine-Learning-Verfahren in der Zwischenzeit Vorurteile entwickelten? Messen Prüfer den Grad der Nachvollziehbarkeit einer Entscheidung, die eine KI-Anwendung fällt, wie heute das Reifenprofil eines Autos? Es fällt schwer, sich die operative Umsetzung auszumalen.

Schwer bedeutet nicht, dass es unmöglich ist. Es braucht IT-Kompetenz ebenso wie Verständnis für Jura, Philosophie, Wirtschaft, Politik oder Arbeitsschutz. Gefragt sind Fachleute unterschiedlicher Disziplinen, die unter dem Dach des KI-Observatoriums zusammenarbeiten. Gemeinsam stellen sie Regeln auf. Regeln, die sich zum Qualitätsmaßstab für gute KI entwickeln können.

Schwer bedeutet, dass wir eine Menge menschlicher Intelligenz investieren müssen, bis die künstliche so funktioniert, wie wir das wollen. Diesem Willen zum Wollen kann das KI-Observatorium Gestalt geben. Nicht als Verhinderer, nicht als institutionalisierter Bedenkenträger. Sondern als Institution, die Regeln aufstellt und durchsetzt, die auf Qualität achtet. Die selbstbewusst ein europäisches KI-Verständnis vertritt. Wenn das so kommt, freue ich mich geradezu auf die nächste TÜV-Prüfung.

Volker Gruhn, Vorsitzender des Aufsichtsrats der adesso AG (Quelle: Julia Hermann)

 


 

Ethik bei künstlicher Intelligenz entscheidend für Vertrauen der Öffentlichkeit in Unternehmen

 

Illustration: Absmeier, Pixabay

  • Verbraucher fordern neue Regulierungen für KI und sind bereit, bei positiven KI-Erfahrungen mehr zu kaufen.

  • Führungskräfte aus neun von zehn Unternehmen haben eine ethisch fragliche KI-Nutzung beobachtet.

  • Unternehmensführung, Datenwissenschaftlicher und HR/Marketing bei der Umsetzung von ethischen KI-Strategien gefragt.

 

Ethische Grundsätze gewinnen für das Vertrauen der Öffentlichkeit in die künstliche Intelligenz (KI) eine immer bedeutendere Rolle [1]. Das zeigt die neue Studie des Capgemini Research Institute »Why adressing ethical Questions in AI will benefit Organizations« für die 1.580 Führungskräfte von Großunternehmen aus zehn Ländern sowie über 4.400 Verbraucher aus sechs Ländern – jeweils einschließlich Deutschland – befragt wurden. Verbraucher, Mitarbeiter und Bürger belohnen demnach ethisches Verhalten, sanktionieren aber auch zweifelhafte Praktiken. Als ethisch empfundene KI-Interaktionen steigern Kaufbereitschaft und Loyalität der Verbraucher gegenüber Unternehmen.

 

Einhaltung ethischer Grundsätze beeinflusst das Verhalten der Verbraucher

62 Prozent der befragten Verbraucher vertrauen Unternehmen mehr, wenn KI-basierte Interaktionen als ethisch wahrgenommen werden. Positive Erfahrungen würden 61 Prozent mit Freunden und Familie teilen, 59 Prozent würden eine höhere Loyalität gegenüber dem Unternehmen empfinden. Jeweils 55 Prozent geben an, sie würden in dem Fall mehr Produkte kaufen sowie gute Bewertungen in den sozialen Medien geben. Ethische Probleme bei der KI-Interaktion, etwa fehlende Zustimmung zur Datennutzung oder intransparente und verzerrte Ergebnisse, haben negative Auswirkungen: 41 Prozent der Konsumenten würden sich beschweren, 36 Prozent eine Erklärung verlangen. Ein Drittel würde den Kontakt zum Unternehmen abbrechen [2].

 

Unternehmen sehen ethische Fragestellungen bei ihren KI-Systemen

In allen befragten Ländern glauben Führungskräfte aus knapp neun von zehn Unternehmen, dass die Nutzung von KI innerhalb der letzten zwei bis drei Jahre ethische Fragen aufgeworfen habe. Zu den Vorkommnissen zählen im Gesundheitswesen etwa das Erheben persönlicher Patientendaten ohne vorherige Zustimmung sowie ein übermäßiges Vertrauen in nicht transparente, maschinell getroffene Entscheidungen bei Banken und Versicherungen. 53 Prozent der Führungskräfte finden es wichtig sicherzustellen, dass KI-Systeme ethisch und transparent sind. 41 Prozent geben an, dass sie den Einsatz von ethisch problematischen KI-Systemen wahrscheinlich beenden würden oder dies bereits getan haben. Als wichtigste Gründe für ethische Defizite von KI-Systemen nennen Führungskräfte in Deutschland und weiteren Ländern den Druck, KI-Systeme schnell einzuführen sowie Ressourcenmangel und fehlende Berücksichtigung ethischer Standards bei der Einführung von KI-Systemen. Für Datenwissenschaftlicher sind fehlende Richtlinien und Daten die größten Hindernisse, der zeitliche Druck kommt an vierter Stelle.

 

Verbraucher erwarten neue Regulierungen

Mit 47 Prozent (Deutschland (DE): 42 Prozent) gibt knapp die Hälfte der Befragten an, mindestens zwei Mal innerhalb der letzten zwei bis drei Jahre mit ethisch unzureichenden KI-Anwendungen konfrontiert worden zu sein. Wenn Leistungen KI-unterstützt sind, befürwortet die Mehrheit mehr Transparenz (74 Prozent) und möchte wissen, ob eine KI sie fair und diskriminierungsfrei behandelt (72 Prozent). Drei Viertel der Befragten, beziehungsweise 70 Prozent in Deutschland, sind der Ansicht, dass es weitere Regulierungen für Unternehmen zum KI-Einsatz geben sollte.

 

»Die Öffentlichkeit ist zunehmend offen für KI-basierte Services, ist sich aber auch der möglichen ethischen Auswirkungen bewusst. Unternehmen stehen an einem Scheideweg: Es wird deutlich, dass es nicht allein um Vorschriften und Compliance geht, sondern ethische Grundsätze vorteilhaft für das eigene Geschäft sein können«, so Fabian Schladitz, Leiter des Center of Excellence Künstliche Intelligenz bei Capgemini in Deutschland. »Unsere Studie zeigt zudem, dass Führungskräfte in Deutschland – neben Großbritannien – bereits heute mehr Vertrauen in ihre KI-Systeme haben als ihre europäischen Kollegen. Zugleich sind die Verbraucher hierzulande prinzipiell genauso offen für den KI-Einsatz wie anderswo. Hierauf aufbauend sollten Unternehmen die passenden Strukturen und einen Wertekanon schaffen, um ethische Aspekte angemessen zu berücksichtigen und darauf achten, dass dies auch während der Entwicklung von KI-Systemen geschieht. Wird KI anschließend eingesetzt, ist es mindestens genauso wichtig, alle Beteiligten über die Interaktionen mit KI umfassend zu informieren und sie zu befähigen, bewusst mit ihr umzugehen.«

 

Organisationen müssen auf eine ethische KI-Strategie fokussieren

Um die Bedenken zu adressieren und vom Vertrauensbonus eines ethischen KI-Einsatzes zu profitieren, empfiehlt Capgemini einen dreiteiligen Strategieansatz für eine ethische KI, der alle beteiligten Interessengruppen berücksichtigt.

 

  • Managementebene, weitere Führungskräfte und für Vertrauen und Ethik zuständige Personen: Etablierung einer Strategie und eines Verhaltenskodex in Bezug auf KI als grundlegende Basis; Entwicklung von Richtlinien für einen akzeptable KI-Einsatz durch Mitarbeiter und Anwendungen; Verlässliche KI-Systeme und die Umsetzung von Organisationsstrukturen, welche ethische Prinzipien berücksichtigen; Aufbau von Teams mit hoher Diversität, um eine umfassende Sensibilität gegenüber ethischen Fragestellungen sicherzustellen.
  • Personalabteilung, Marketing, Kommunikation, Kundenservice und weitere Teams mit Kontakt zu Kunden und Mitarbeitern: Gewährleistung, dass KI-Anwendungen nach ethischen Prinzipien eingesetzt werden; fortlaufende Aufklärung und Informierung beteiligter Personen, um Vertrauen in KI-Systeme zu schaffen und ihnen mehr Entscheidungsfähigkeit und Kontrolle zu ermöglichen. Vertrauensbildung, indem durch KI hervorgerufene Probleme aktiv intern und extern bekanntgemacht werden.
  • Leiter sowie IT-, KI- und Datenteams: KI-Systeme transparent und verständlich umsetzen; Sicherstellung eines umfassenden Datenmanagements, um das Risiko tendenziöser, Ergebnisse verfälschender Daten zu reduzieren; Nutzung technischer Werkzeuge, um Ethik in der KI zu verankern.

 

Luciano Floridi, Director of Digital Ethics Labs, Oxford Internet Institute dazu: »Die klassische Art Vertrauen zu gewinnen, lässt sich auch bei KI-Interaktionen in drei Worten zusammenfassen: Transparenz, Verantwortlichkeit und Befähigung: Transparenz, damit Menschen sehen, was man tut; Verantwortlichkeit, weil man die Verantwortung übernimmt für das, was man tut; und Befähigung, indem man die Verantwortung dafür übernimmt, dass es anderen möglich ist zu sagen, ob man das richtige getan hat oder etwas nicht gut war.«

 

Die vollständige Studie ist hier kostenlos zum Download verfügbar: http://bit.ly/2FRAusE

 

 

[1] Die »Ethik von KI« bezieht sich darauf, inwieweit Zielsetzung, Gestaltung und Verwendung von künstlicher Intelligenz nach ethischen Grundsätzen erfolgen. Die Bewertung erfolgt anhand folgender Dimensionen:
  • Transparenz: Funktionsweise ist klar, konsistent und nachvollziehbar
  • Überprüfbarkeit: Ermöglicht Dritten, den Dateninput zu bewerten und sicherzustellen, dass Ergebnisse vertrauenswürdig sind
  • Erklärbarkeit: Fähigkeit, die Funktionsweise in verständlicher Sprache zu erklären
  • Interpretierbarkeit: Möglichkeit zu erkennen, dass Ergebnisse bei verändertem Dateninput variieren können
  • Unvoreingenommenheit (»Bias«) und Fairness: Eliminiert oder reduziert Diskriminierung bestimmter Nutzer durch vorurteilsbehaftete, tendenziöse Datensätze, die zu voreingenommenen Ergebnissen führen, die sich durch Algorithmen verfestigenden können
[2] Hierzu zählen unter anderem: Die Verarbeitung personenbezogener Daten ohne vorherige Einwilligung; intransparente und nicht zurückzuverfolgende Entscheidungsfindungen mittels Machine Learning; diskriminierende Entscheidungen, Preisgestaltungen und Angebote aufgrund tendenziöser, vorurteilsbehafteter Daten und/oder fehlerhaften Algorithmen; Verwendung erhobener Daten für weitere Zwecke als ursprünglich intendiert; etc.
Untersuchungsmethodik
Für die Studie wurden 1.580 Führungskräfte von Großunternehmen mit über einer Milliarde US-Dollar Jahresumsatz aus zehn Ländern (Deutschland, China, Frankreich, Indien, Italien, Niederlande, Spanien, Schweden, Großbritannien und USA) befragt. Diese setzen sich aus drei Gruppen zusammen: General Management/Strategie/Corporate, IT/KI/Data Science/Analytics und HR/ Marketing. Zudem wurden 4.400 Verbraucher aus sechs Ländern (USA, China, Großbritannien, Frankreich, Deutschland, Niederlande) befragt. Jeder der Befragten hatte in der Vergangenheit bestimmte Formen einer KI-Interaktion, so dass sie Fragen zu Ethik, Vertrauen und Transparenz bezüglich KI beantworten konnten. Das Capgemini Research Institute führte weiterhin umfassende Interviews mit mehr als 20 Wissenschaftlern, Branchenexperten und Unternehmern durch.

 

 

90 Artikel zu „KI Ethik“

Phänomen KI – Hype oder reale Chance für Herausforderungen in der Cybersicherheit?

Die aktuelle Flut an KI-fähigen Geschäftsmodellen und KI-Angeboten sorgt vielerorts für Irritationen, das sich nicht wenige KI-Initiativen – zumindest bis dato – primär als Marketing-Stunts erweisen. Nachdem bei 40 Prozent der selbsternannten »KI-Unternehmen« in Europa entlarvt wurde, dass in ihren Lösungen KI gar nicht zum Einsatz kommt*, ist es verständlich, dass die Versprechen vieler Unternehmen…

Kommt jetzt die Persönlichkeitsanalyse mit KI?

Mit künstlicher Intelligenz (KI) kann man heute Informationen aus Hirnscans ableiten, die früher undenkbar waren. Forscher können beispielsweise vorhersagen, wie jemand bei einem Persönlichkeitstest abschneiden wird. Das haben bereits mehrere Studien gezeigt. Auch individuelle Prognosen für das Auftreten und die zukünftige Entwicklung von psychischen Krankheiten scheinen möglich. Die Neurowissenschaftler Simon Eickhoff und Robert Langner vom…

KI befeuert Meetings: Drei Gründe, warum künstliche Intelligenz kreative Teamarbeit fördert

Welche Aufgaben können KI-Technologien in Meetings übernehmen, um Mitarbeiter zu entlasten und mehr Raum für Ideen zu schaffen? An künstlicher Intelligenz führt kein Weg vorbei. Das haben mittlerweile auch die meisten Befragten einer internationalen Umfrage erkannt, die IDG im Auftrag von LogMeIn durchgeführt hat. KI-gesteuerte Kommunikationswerkzeuge spielen für Unternehmen der unterschiedlichsten Branchen demnach eine immer…

Ethik bei künstlicher Intelligenz entscheidend für Vertrauen der Öffentlichkeit in Unternehmen

Verbraucher fordern neue Regulierungen für KI und sind bereit, bei positiven KI-Erfahrungen mehr zu kaufen. Führungskräfte aus neun von zehn Unternehmen haben eine ethisch fragliche KI-Nutzung beobachtet. Unternehmensführung, Datenwissenschaftlicher und HR/Marketing bei der Umsetzung von ethischen KI-Strategien gefragt.   Ethische Grundsätze gewinnen für das Vertrauen der Öffentlichkeit in die künstliche Intelligenz (KI) eine immer bedeutendere…

5 Bereiche in denen Cybersicherheit von KI profitiert

Illustration: Geralt Absmeier Eine Untersuchung von Markets and Markets prognostiziert, dass die Industrie für künstliche Intelligenz bis zum Jahr 2025 auf ein Volumen von 190 Milliarden Dollar wächst. Bis zum Jahr 2021 werden dreiviertel aller kommerziellen Unternehmensanwendungen KI nutzen. Ein Bereich, in dem künstliche Intelligenz weiterhin auf dem Vormarsch ist, ist die Cybersicherheit. Wie in…

Wettlauf zwischen Angreifern und Verteidigern – KI und IT-Sicherheit

Die vom Bundesministerium für Bildung und Forschung (BMBF) initiierte Plattform Lernende Systeme (PLS) hat das Ziel, künstliche Intelligenz und maschinelles Lernen im Sinne der Gesellschaft zu gestalten. Im aktuellen Whitepaper »Künstliche Intelligenz und IT-Sicherheit« analysiert die Arbeitsgruppe »IT-Sicherheit, Privacy, Recht und Ethik« der PLS eines der Spannungsfelder der KI. Beigetragen haben dazu auch Experten des…

KI verantwortungsvoll und effektiv gestalten

84 Prozent der Unternehmensleiter sind der Meinung, dass künstliche Intelligenz (KI) in drei Jahren für ihr Unternehmen von entscheidender Bedeutung sein wird, aber nur 15 Prozent wissen, ob KI-Projekte in ihren Unternehmen vollständig umgesetzt werden. Während schnell wachsende Unternehmen in der KI einen Beitrag zur Festigung ihrer Führungsposition sehen, hat die Hälfte aller Unternehmen keine…

Das Kind in der Krokodilverkleidung erkennen

Autonomes Fahren wird mit großen Schritten vorangetrieben und könnte aus technischer Sicht schon in fünf bis zehn Jahren Realität auf deutschen Straßen sein. Die politischen und ethischen Richtlinien müssen dagegen erst noch festgelegt werden. Die Technologie für das autonome Fahren ist in weiten Teilen marktreif, jedoch sind die Deutschen diesbezüglich noch sehr skeptisch. Laut einer…

Für die weitaus meisten Entscheider ist KI nur ein Zeitgeistphänomen

Große Mehrheit der Unternehmen hält künstliche Intelligenz für Trend – und weiß ihn nicht zu nutzen. Das Marktforschungsunternehmen Wakefield Research hat im Auftrag von Avanade Unternehmenslenker und IT-Entscheider über künstliche Intelligenz (KI) befragt. Das Ergebnis: 98 Prozent der Teilnehmer halten hierzulande KI für ein Resultat des Zeitgeists. Zugleich sind sie der Meinung, dass Unternehmen noch nicht…

Vier Erkenntnisse aus einem Jahrzehnt Anwendungssicherheit

Bedrohungen bleiben auf hohem Niveau, aber neue Ansätze können helfen. Bereits seit 2009 veröffentlicht der Anwendungssicherheitsspezialist Veracode jedes Jahr seinen State of Software Security (SoSS) Report. Zur zehnjährigen Ausgabe liegt es da natürlich nahe, einen Vergleich zu ziehen und einen Blick auf die Entwicklungen in der letzten Dekade zu werfen. Zunächst fällt auf, dass die…

Datenkraken lauern überall

Weder die Suchmaschineneingaben noch die Daten des Fitnesstrackers bleiben unbeobachtet, warnen die IT-Sicherheitsexperten der PSW GROUP Consulting (www.psw-consulting.de). »Cookies, IP-Adressen, Suchmaschinen, Drittanbieter-Tracker, sogar Sprachassistenten wie Siri und Alexa: Datenkraken lauern überall und die Datensammelwut vieler Unternehmen ist ungebrochen. Interessiert an Daten ist nahezu jedes Unternehmen: Wer Produkte oder Dienstleistungen verkaufen möchte, optimiert seine Verkaufszahlen durch…