Das zeichnet eine verantwortungsvolle KI aus

Trifft künstliche Intelligenz diskriminierende Entscheidungen oder schlägt Kunden unpassende Angebot vor, kann das den Ruf und den Umsatz von Unternehmen ernsthaft beschädigen. Wie kann man sich mit einer verantwortungsvollen KI davor schützen?.

 

Immer mehr Unternehmen setzen bei ihren Angeboten auf künstliche Intelligenz (KI). Ihre Algorithmen schlagen Produkte und Services vor, hauchen Chatbots Leben ein und übersetzen Texte. Dadurch unterliegen Unternehmen einem gehörigen Wettbewerbsdruck, denn die Konkurrenz hat ihre KI-Systeme schließlich längst am Start. Dennoch sollten sie sich vor Schnellschüssen hüten und sicherstellen, dass sie eine verantwortungsvolle künstliche Intelligenz einsetzen. Sonst können ihnen erhebliche Schäden drohen. Pegasystems, ein Anbieter von Kundenbindungssoftware für Vertrieb, Marketing, Service und Operations, nennt die vier zentralen Eigenschaften einer solchen KI:

  1. Fairness. Unternehmen sollten sicherstellen, dass ihre KI alle Geschlechter, Ethnien, Altersgruppen, Gesellschaftsschichten, Einkommensgruppen, religiösen Gemeinschaften und sexuellen Orientierungen gleich behandelt. Dazu müssen sie KI-Modelle aufbauen, die frei von Voreingenommenheiten sind, sie proaktiv überwachen und ihre Ergebnisse kontinuierlich analysieren. Der Aspekt der Fairness hat beim Einsatz von KI oft nicht die oberste Priorität. Treffen Algorithmen aber diskriminierende Entscheidungen, kann das für Unternehmen äußerst ruf- und geschäftsschädigende Folgen haben.
  2. Transparenz. Unternehmen sollten im Zweifelsfall aufzeigen können, wie ihre KI zu einer Entscheidung gelangt ist. Das gilt insbesondere für stark regulierte Branchen wie Finanzdienstleistungen oder Versicherungswesen. So geriet vor kurzem etwa ein Finanzdienstleister in die Schusslinie, weil er anscheinend Frauen mit demselben Einkommenshintergrund wie Männer schlechtere Konditionen für Kreditkarten anbot. Da er nicht erklären konnte, wie seine KI zu den entsprechenden Entscheidungen kam, stand er als frauenfeindlich da. Für regulierte und risikoreiche Anwendungsfälle sollten Unternehmen deshalb transparente und erklärbare Algorithmen einsetzen.
  3. Empathie. Die Notwendigkeit für Unternehmen, sich gegenüber ihren Kunden einfühlsam zu zeigen, war noch nie so groß wie in den belastenden Zeiten der Corona-Pandemie. Deshalb sollten sie eine empathische KI einsetzen. Eine solche KI trifft Entscheidungen, die relevant und hilfreich sind und die Bedürfnisse der Kunden an die erste Stelle setzen. Dazu muss sie in der Lage sein, den vollständigen Kontext eines Kunden zu berücksichtigen. Nur dann kann sie wissen, was er genau jetzt benötigt. Das muss nicht unbedingt ein bestimmtes Angebot sein, sondern kann auch bedeuten, ihn für eine gewisse Zeit in Ruhe zu lassen.
  4. Robustheit. Vor einigen Jahren machte der Twitter-Bot Tay Schlagzeilen. Die Twitter-Nutzer waren dazu aufgerufen mit ihm zu interagieren; innerhalb von 24 Stunden entwickelte er sich dabei zu einem Alptraum. Das zugrundeliegende KI-Modell wurde durch die Daten, die es aus den Twitter-Konversationen aufnahm, frauenfeindlich und rassistisch. Dieser Fall macht deutlich, dass Unternehmen eine robuste KI benötigen; eine KI, die durch eingebaute Schutzmechanismen, Regeln und Leitlinien nicht so leicht beeinflusst werden kann.

»Fairness, Transparenz, Empathie und Robustheit sind die Grundpfeiler einer verantwortungsvollen Künstlichen Intelligenz. Mit ihnen können Unternehmen sicherstellen, dass ihre Künstliche Intelligenz die Werte unserer Gesellschaft widerspiegelt und die Kundenbedürfnisse in den Mittelpunkt stellt«, sagt Dr. Kay Knoche, Principal Solution Consultant bei Pegasystems. »Das ist nicht nur ethisch geboten, sondern macht sich langfristig auch im Umsatz der Unternehmen positiv bemerkbar.«

 


KI und Ethik – Wunsch kontra Wirklichkeit

Studie zeigt: Mehrheit hält ethische Auseinandersetzung mit künstlicher Intelligenz für wichtig. Ethische Richtlinien in Unternehmen sind aber noch in den Kinderschuhen.

Infografik: Digitalisierungsmonitor; Quelle BearingPoint

Künstliche Intelligenz (KI) verändert die Unternehmenswelt. Dem stimmen die meisten der 600 befragten Unternehmensvertreter aus dem aktuellen »Digitalisierungsmonitor 2020« der Management- und Technologieberatung BearingPoint zu. Dass bei weltverändernden Innovationen auch immer die Frage der ethischen Komponente betrachtet werden sollte, bestätigt ebenfalls die Mehrheit. 62 Prozent halten eine ethische Auseinandersetzung mit KI für wichtig oder sehr wichtig. Alle abgefragten ethischen Anforderungen und Prinzipien erhalten von den Befragten das Prädikat: Wichtig! KI soll menschliches Handeln unterstützen, nicht aber die Autonomie der Menschen verringern, finden 81 Prozent. Den gleichen Wert erzielen Transparenz, genauer gesagt die Nachvollziehbarkeit der Entscheidungen von KI, sowie der Punkt Privatsphäre und Datenqualitätsmanagement. Wo es um sensible Daten geht, wie persönliche Informationen zu Kunden, sollte alles besonders korrekt ablaufen.

Wichtig sind den Befragten mit je 77 Prozent auch technische Robustheit und Sicherheit der Algorithmen sowie eine Rechenschaftspflicht. Die Befragten wünschen sich darüber hinaus, dass ihre Unternehmen mit KI positiven sozialen Wandel, Nachhaltigkeit und ökologische Verantwortlichkeit unterstützen (73 Prozent). Außerdem dürfen der Algorithmus und die Datengrundlage nicht zu Diskriminierung führen (ebenfalls 73 Prozent). In der Theorie hat den Ergebnissen zufolge ein Großteil der Befragten sehr hohe moralische Ansprüche an den Umgang mit KI im Unternehmen. Aber obwohl dem Thema in der Theorie ein enormer Stellenwert zugesprochen wird, gibt es bei der konkreten Auseinandersetzung und Umsetzung noch erhebliche ungenutzte Potenziale, wie die Studie zeigt.

Ethik – die Wirklichkeit

In der Praxis sieht das jedoch ganz anders aus. Vielfalt, Nichtdiskriminierung und Fairness sind starke Ziele und Wünsche, aber nur fünf Prozent der Befragten bestätigen, dass es in ihrem Unternehmen bereits abgestimmte Richtlinien und Maßnahmen für den ethischen Umgang mit KI gibt. Das ist ein sehr geringer Anteil, gerade im Vergleich zu der Bedeutung, die dem Thema von den Befragten beigemessenen wird. Bei 46 Prozent gibt es gar keine Richtlinien und Maßnahmen. Weitere 22 Prozent wissen es nicht sicher, vermuten aber immerhin, dass erste Diskussionen geführt werden. Unternehmen mit KI-Initiativen sind zwar in den meisten Punkten besser aufgestellt, aber auch hier gibt jeder zehnte Befragte an, dass bislang noch nichts zum ethischen Umgang (11 Prozent) vorhanden sei.

Theodor Schabicki, Partner bei BearingPoint und Experte für das Thema künstliche Intelligenz: »Das Thema KI ist in vielen Unternehmen noch jung. Deshalb ist die Lücke zwischen theoretischem Anspruch und Realität, wenn es um KI und Ethik geht, noch groß – aber nicht unüberwindbar. Um KI von Anfang an richtig zu machen, ist die Etablierung eines KI-Ethik-Teams zur Ausarbeitung und Festlegung grundlegender Prinzipien sowie eine entsprechende Kommunikation unabdingbar. Für Unternehmen, die schon Erfahrung mit KI gemacht haben, ist es umso wichtiger, sich auch diesem Thema konsequent zu widmen. Sich hier richtig zu positionieren, führt zur Akzeptanz von KI im Unternehmen selbst und dient der Glaubwürdigkeit. Darüber hinaus – und das sollte für Unternehmen immer ein Argument sein – liefert der transparente Umgang mit Ethik einen nicht zu unterschätzenden Mehrwert für Kunden. Hier liegt eine große Chance, um Ethik und KI zum Differenzierungsmerkmal zu machen.«

[1] Die vollständige Studie »Digitalisierungsmonitor 2020: Auf den KI-Zug aufspringen statt hinterherrennen! Ungenutzte Potenziale soweit das Auge reicht …« steht hier zum Download zur Verfügung: https://www.bearingpoint.com/de-de/unser-erfolg/insights/digitalisierungsmonitor-2020/

 


Datenethik für KI wird zur Top-Priorität

CIOs müssen die ethische Nutzung von Daten zu einer Top-Priorität machen, um mit der sich schnell entwickelnden Regulierungslandschaft Schritt zu halten.

 

Illustration: Absmeier, Kahll, 905512

Wir befinden uns inmitten der vierten industriellen Revolution. Daten sind zu einem der wertvollsten Güter geworden, nicht zuletzt deshalb, weil künstliche Intelligenz stark von ihnen abhängt. KI und maschinelles Lernen werden derzeit in vielen Bereichen im Rekordtempo eingeführt, bei Regierungen, dem Gesundheitswesen, der Landwirtschaft, Polizei und Finanzinstituten. Damit machen sich diese Bereiche in Teilen von den Daten abhängig, mit denen ihre Entscheidungsfindung automatisiert wird.

Die Folgen über den Schaden, den missgeleitete KI-Lösungen anrichten können, zeigen sich beispielsweise im öffentlichen Misstrauen gegenüber Social-Networking-Plattformen. Der Skandal um Cambridge Analytica zeigte, wie Facebook und Co. persönliche Informationen nutzen und welche soziale Dimension die Algorithmen der Plattformen bereits einnehmen. KI-gestützte Werkzeuge können also, absichtlich – oder versehentlich, in die Privatsphäre eindringen oder Schaden, Ungerechtigkeit oder moralisches Unrecht verursachen. Bedenken über den potenziellen Missbrauch können folglich nicht einfach ignoriert werden.

 

Meilenstein: Der weltweit erste Ethikrat für KI ist aktiv

Der kürzlich von der britischen Regierung gegründete weltweit erste nationale Ethikbeirats für KI ist in diesem Zusammenhang ein wahrer Meilenstein. In Zusammenarbeit mit der Regierung, den Regulierungsbehörden und der Industrie, besteht die Aufgabe des neuen Beirats darin, die Grundlagen für KI zu schaffen, Lücken in der Governance-Landschaft zu antizipieren, sich auf bewährte Praktiken zu einigen und diese zu erläutern. So kann er dabei helfen eine ethische und innovative Nutzung der Daten zu lenken und die Regierung hinsichtlich der Notwendigkeit spezifischer politischer oder regulatorischer Maßnahmen zu beraten.

Für Organisationen, die KI-gestützte Systeme entwickeln oder nutzen, ist dies eine wichtige Entwicklung. Laut einer kürzlich durchgeführten Deloitte-Umfrage geben 76 Prozent der Führungskräfte an, dass sie erwarten, dass künstliche Intelligenz ihre Unternehmen innerhalb der nächsten drei Jahre »substanziell transformieren« wird. Gleichzeitig gab ein Drittel der Befragten zu, dass Fragen zur ethischen Nutzung von Daten eine ihrer größten Sorgen seien. Ganz offenbar gibt es in dem Bereich noch viel zu tun.

 

Wie die Ergebnisse aus Daten durch KI verzerrt werden können

KI-Systeme lernen aus den Datensätzen, mit denen sie trainiert werden. Die Zusammensetzung der Datensätze kann damit die Ergebnisse nicht nur beeinflussen, sondern diese auch verzerren. Ein Beispiel aus der Arbeitswelt zeigte jüngst, wie Datensätze, die aus einem männlich dominierten Bereich stammen, unbeabsichtigt zu einem geschlechtsverzerrten Rekrutierungsinstrument führten. In ähnlicher Weise kann ein Mangel an Transparenz über die zur Steuerung von KI-Systemen verwendeten Datenmodelle zu Problemen mit dem ethischen Design, der Entwicklung und dem Einsatz von KI führen.

 

Ethische Nutzung von KI kann sich auszahlen

Das Vereinigte Königreich hat das Problem wie erwähnt bereits erkannt und geht mit der Gründung des Ethikbeirats mit gutem Beispiel voran. Insgesamt investiert die britische Regierung 9 Millionen Pfund in die Initiative. Der Vorstoß ist nicht ganz selbstlos – die Investition soll ganz offen die Führungsrolle Großbritanniens in diesem Bereich auf der globalen Bühne vorantreiben. Man verspricht sich so Innovationen, die nicht nur Nutzen versprechen, sondern auch sicher und ethisch unangreifbar sind. Ein Bericht des Sonderausschusses des britischen Oberhauses über die Auswirkungen der künstlichen Intelligenz auf die Wirtschaft und Gesellschaft Großbritanniens schätzt, dass KI den Wert der britischen Wirtschaft bis 2035 um 630 Milliarden Pfund steigern könnte. Die ethische Nutzung von Daten scheint somit ein Wettbewerbsvorteil zu sein.

 

Datenethik im Bereich KI muss auf die Prioritätenliste

Durch den Vorstoß hat sich die Nation Großbritannien sicherlich einen kleinen Vorsprung gegenüber anderen Regionen geschaffen. Doch auch andere Organisationen haben bereits eingesehen, dass ethische Urteile darüber getroffen werden müssen, wie wir Daten nutzen und anwenden. Im vergangenen Jahr haben bereits eine Reihe technologischer Schwergewichte, darunter Google und IBM, ethische Richtlinien für KI veröffentlicht. Auch die Europäische Kommission hat kürzlich ihre Ethikrichtlinien für vertrauenswürdige KI veröffentlicht. Diese Schritte signalisieren deutlich, dass es für Organisationen jeder Art an der Zeit ist, die Datenethik im Bereich KI auf die Prioritätenliste zu setzen. Der Ruf und Erfolg von Unternehmen wird zukünftig auch davon abhängen, ob sie ihre Daten nach ethischen Standards verarbeiten. Um mit der sich schnell weiterentwickelnden Regulierung der ethischen Nutzung von Daten Schritt zu halten, müssen CIOs KI-Ethik zu einer der Prioritäten ihrer Organisation machen.

Egon Kando, Exabeam

 


Ethik bei künstlicher Intelligenz entscheidend für Vertrauen der Öffentlichkeit in Unternehmen

 

Illustration: Absmeier, Pixabay

  • Verbraucher fordern neue Regulierungen für KI und sind bereit, bei positiven KI-Erfahrungen mehr zu kaufen.

  • Führungskräfte aus neun von zehn Unternehmen haben eine ethisch fragliche KI-Nutzung beobachtet.

  • Unternehmensführung, Datenwissenschaftlicher und HR/Marketing bei der Umsetzung von ethischen KI-Strategien gefragt.

 

Ethische Grundsätze gewinnen für das Vertrauen der Öffentlichkeit in die künstliche Intelligenz (KI) eine immer bedeutendere Rolle [1]. Das zeigt die neue Studie des Capgemini Research Institute »Why adressing ethical Questions in AI will benefit Organizations« für die 1.580 Führungskräfte von Großunternehmen aus zehn Ländern sowie über 4.400 Verbraucher aus sechs Ländern – jeweils einschließlich Deutschland – befragt wurden. Verbraucher, Mitarbeiter und Bürger belohnen demnach ethisches Verhalten, sanktionieren aber auch zweifelhafte Praktiken. Als ethisch empfundene KI-Interaktionen steigern Kaufbereitschaft und Loyalität der Verbraucher gegenüber Unternehmen.

 

Einhaltung ethischer Grundsätze beeinflusst das Verhalten der Verbraucher

62 Prozent der befragten Verbraucher vertrauen Unternehmen mehr, wenn KI-basierte Interaktionen als ethisch wahrgenommen werden. Positive Erfahrungen würden 61 Prozent mit Freunden und Familie teilen, 59 Prozent würden eine höhere Loyalität gegenüber dem Unternehmen empfinden. Jeweils 55 Prozent geben an, sie würden in dem Fall mehr Produkte kaufen sowie gute Bewertungen in den sozialen Medien geben. Ethische Probleme bei der KI-Interaktion, etwa fehlende Zustimmung zur Datennutzung oder intransparente und verzerrte Ergebnisse, haben negative Auswirkungen: 41 Prozent der Konsumenten würden sich beschweren, 36 Prozent eine Erklärung verlangen. Ein Drittel würde den Kontakt zum Unternehmen abbrechen [2].

Unternehmen sehen ethische Fragestellungen bei ihren KI-Systemen

In allen befragten Ländern glauben Führungskräfte aus knapp neun von zehn Unternehmen, dass die Nutzung von KI innerhalb der letzten zwei bis drei Jahre ethische Fragen aufgeworfen habe. Zu den Vorkommnissen zählen im Gesundheitswesen etwa das Erheben persönlicher Patientendaten ohne vorherige Zustimmung sowie ein übermäßiges Vertrauen in nicht transparente, maschinell getroffene Entscheidungen bei Banken und Versicherungen. 53 Prozent der Führungskräfte finden es wichtig sicherzustellen, dass KI-Systeme ethisch und transparent sind. 41 Prozent geben an, dass sie den Einsatz von ethisch problematischen KI-Systemen wahrscheinlich beenden würden oder dies bereits getan haben. Als wichtigste Gründe für ethische Defizite von KI-Systemen nennen Führungskräfte in Deutschland und weiteren Ländern den Druck, KI-Systeme schnell einzuführen sowie Ressourcenmangel und fehlende Berücksichtigung ethischer Standards bei der Einführung von KI-Systemen. Für Datenwissenschaftlicher sind fehlende Richtlinien und Daten die größten Hindernisse, der zeitliche Druck kommt an vierter Stelle.

 

Verbraucher erwarten neue Regulierungen

Mit 47 Prozent (Deutschland (DE): 42 Prozent) gibt knapp die Hälfte der Befragten an, mindestens zwei Mal innerhalb der letzten zwei bis drei Jahre mit ethisch unzureichenden KI-Anwendungen konfrontiert worden zu sein. Wenn Leistungen KI-unterstützt sind, befürwortet die Mehrheit mehr Transparenz (74 Prozent) und möchte wissen, ob eine KI sie fair und diskriminierungsfrei behandelt (72 Prozent). Drei Viertel der Befragten, beziehungsweise 70 Prozent in Deutschland, sind der Ansicht, dass es weitere Regulierungen für Unternehmen zum KI-Einsatz geben sollte.

 

»Die Öffentlichkeit ist zunehmend offen für KI-basierte Services, ist sich aber auch der möglichen ethischen Auswirkungen bewusst. Unternehmen stehen an einem Scheideweg: Es wird deutlich, dass es nicht allein um Vorschriften und Compliance geht, sondern ethische Grundsätze vorteilhaft für das eigene Geschäft sein können«, so Fabian Schladitz, Leiter des Center of Excellence Künstliche Intelligenz bei Capgemini in Deutschland. »Unsere Studie zeigt zudem, dass Führungskräfte in Deutschland – neben Großbritannien – bereits heute mehr Vertrauen in ihre KI-Systeme haben als ihre europäischen Kollegen. Zugleich sind die Verbraucher hierzulande prinzipiell genauso offen für den KI-Einsatz wie anderswo. Hierauf aufbauend sollten Unternehmen die passenden Strukturen und einen Wertekanon schaffen, um ethische Aspekte angemessen zu berücksichtigen und darauf achten, dass dies auch während der Entwicklung von KI-Systemen geschieht. Wird KI anschließend eingesetzt, ist es mindestens genauso wichtig, alle Beteiligten über die Interaktionen mit KI umfassend zu informieren und sie zu befähigen, bewusst mit ihr umzugehen.«

 

Organisationen müssen auf eine ethische KI-Strategie fokussieren

Um die Bedenken zu adressieren und vom Vertrauensbonus eines ethischen KI-Einsatzes zu profitieren, empfiehlt Capgemini einen dreiteiligen Strategieansatz für eine ethische KI, der alle beteiligten Interessengruppen berücksichtigt.

 

  • Managementebene, weitere Führungskräfte und für Vertrauen und Ethik zuständige Personen: Etablierung einer Strategie und eines Verhaltenskodex in Bezug auf KI als grundlegende Basis; Entwicklung von Richtlinien für einen akzeptable KI-Einsatz durch Mitarbeiter und Anwendungen; Verlässliche KI-Systeme und die Umsetzung von Organisationsstrukturen, welche ethische Prinzipien berücksichtigen; Aufbau von Teams mit hoher Diversität, um eine umfassende Sensibilität gegenüber ethischen Fragestellungen sicherzustellen.
  • Personalabteilung, Marketing, Kommunikation, Kundenservice und weitere Teams mit Kontakt zu Kunden und Mitarbeitern: Gewährleistung, dass KI-Anwendungen nach ethischen Prinzipien eingesetzt werden; fortlaufende Aufklärung und Informierung beteiligter Personen, um Vertrauen in KI-Systeme zu schaffen und ihnen mehr Entscheidungsfähigkeit und Kontrolle zu ermöglichen. Vertrauensbildung, indem durch KI hervorgerufene Probleme aktiv intern und extern bekanntgemacht werden.
  • Leiter sowie IT-, KI- und Datenteams: KI-Systeme transparent und verständlich umsetzen; Sicherstellung eines umfassenden Datenmanagements, um das Risiko tendenziöser, Ergebnisse verfälschender Daten zu reduzieren; Nutzung technischer Werkzeuge, um Ethik in der KI zu verankern.

 

Luciano Floridi, Director of Digital Ethics Labs, Oxford Internet Institute dazu: »Die klassische Art Vertrauen zu gewinnen, lässt sich auch bei KI-Interaktionen in drei Worten zusammenfassen: Transparenz, Verantwortlichkeit und Befähigung: Transparenz, damit Menschen sehen, was man tut; Verantwortlichkeit, weil man die Verantwortung übernimmt für das, was man tut; und Befähigung, indem man die Verantwortung dafür übernimmt, dass es anderen möglich ist zu sagen, ob man das richtige getan hat oder etwas nicht gut war.«

 

Die vollständige Studie ist hier kostenlos zum Download verfügbar: http://bit.ly/2FRAusE

 

 

[1] Die »Ethik von KI« bezieht sich darauf, inwieweit Zielsetzung, Gestaltung und Verwendung von künstlicher Intelligenz nach ethischen Grundsätzen erfolgen. Die Bewertung erfolgt anhand folgender Dimensionen:
  • Transparenz: Funktionsweise ist klar, konsistent und nachvollziehbar
  • Überprüfbarkeit: Ermöglicht Dritten, den Dateninput zu bewerten und sicherzustellen, dass Ergebnisse vertrauenswürdig sind
  • Erklärbarkeit: Fähigkeit, die Funktionsweise in verständlicher Sprache zu erklären
  • Interpretierbarkeit: Möglichkeit zu erkennen, dass Ergebnisse bei verändertem Dateninput variieren können
  • Unvoreingenommenheit (»Bias«) und Fairness: Eliminiert oder reduziert Diskriminierung bestimmter Nutzer durch vorurteilsbehaftete, tendenziöse Datensätze, die zu voreingenommenen Ergebnissen führen, die sich durch Algorithmen verfestigenden können
[2] Hierzu zählen unter anderem: Die Verarbeitung personenbezogener Daten ohne vorherige Einwilligung; intransparente und nicht zurückzuverfolgende Entscheidungsfindungen mittels Machine Learning; diskriminierende Entscheidungen, Preisgestaltungen und Angebote aufgrund tendenziöser, vorurteilsbehafteter Daten und/oder fehlerhaften Algorithmen; Verwendung erhobener Daten für weitere Zwecke als ursprünglich intendiert; etc.
Untersuchungsmethodik
Für die Studie wurden 1.580 Führungskräfte von Großunternehmen mit über einer Milliarde US-Dollar Jahresumsatz aus zehn Ländern (Deutschland, China, Frankreich, Indien, Italien, Niederlande, Spanien, Schweden, Großbritannien und USA) befragt. Diese setzen sich aus drei Gruppen zusammen: General Management/Strategie/Corporate, IT/KI/Data Science/Analytics und HR/ Marketing. Zudem wurden 4.400 Verbraucher aus sechs Ländern (USA, China, Großbritannien, Frankreich, Deutschland, Niederlande) befragt. Jeder der Befragten hatte in der Vergangenheit bestimmte Formen einer KI-Interaktion, so dass sie Fragen zu Ethik, Vertrauen und Transparenz bezüglich KI beantworten konnten. Das Capgemini Research Institute führte weiterhin umfassende Interviews mit mehr als 20 Wissenschaftlern, Branchenexperten und Unternehmern durch.

 

 


101 Artikel zu „Ethik KI“

Wo KI drauf steht ist auch KI drin?

 

KI als Trendthema zur Jahreswende oder langfristig ein kritischer Faktor für effiziente IT- und Datennutzung? Nicht erst seit der Jahreswende ist KI als Schlagwort in aller Munde. Die Zahl der Unternehmen, die zumindest behaupten, KI-Fähigkeiten zu nutzen, steigt rapide an, besonders in der Cybersicherheitsbranche. Nachdem laut einer Studie von MMC Ventures 40 Prozent der selbsternannten…

KI mit Byte und Siegel? Eine Einschätzung zu den KI-TÜV-Plänen der Bundesregierung

 

  Jetzt macht Deutschland in künstliche Intelligenz (KI): mit Formularen, Verordnungen und Prüfplaketten. Diesen Eindruck erwecken einige Überschriften der letzten Tage. Die Pläne des sogenannten KI-TÜVs der Bundesregierung machten die Runde. Im Bundesministerium für Arbeit und Soziales angesiedelt, soll das KI-Observatorium – so die offizielle, etwas altbackene Bezeichnung – das Thema KI voranbringen. Der Zwischenbericht…

Phänomen KI – Hype oder reale Chance für Herausforderungen in der Cybersicherheit?

 

Die aktuelle Flut an KI-fähigen Geschäftsmodellen und KI-Angeboten sorgt vielerorts für Irritationen, das sich nicht wenige KI-Initiativen – zumindest bis dato – primär als Marketing-Stunts erweisen. Nachdem bei 40 Prozent der selbsternannten »KI-Unternehmen« in Europa entlarvt wurde, dass in ihren Lösungen KI gar nicht zum Einsatz kommt*, ist es verständlich, dass die Versprechen vieler Unternehmen…

Kommt jetzt die Persönlichkeitsanalyse mit KI?

 

Mit künstlicher Intelligenz (KI) kann man heute Informationen aus Hirnscans ableiten, die früher undenkbar waren. Forscher können beispielsweise vorhersagen, wie jemand bei einem Persönlichkeitstest abschneiden wird. Das haben bereits mehrere Studien gezeigt. Auch individuelle Prognosen für das Auftreten und die zukünftige Entwicklung von psychischen Krankheiten scheinen möglich. Die Neurowissenschaftler Simon Eickhoff und Robert Langner vom…

KI befeuert Meetings: Drei Gründe, warum künstliche Intelligenz kreative Teamarbeit fördert

 

Welche Aufgaben können KI-Technologien in Meetings übernehmen, um Mitarbeiter zu entlasten und mehr Raum für Ideen zu schaffen? An künstlicher Intelligenz führt kein Weg vorbei. Das haben mittlerweile auch die meisten Befragten einer internationalen Umfrage erkannt, die IDG im Auftrag von LogMeIn durchgeführt hat. KI-gesteuerte Kommunikationswerkzeuge spielen für Unternehmen der unterschiedlichsten Branchen demnach eine immer…

Ethik bei künstlicher Intelligenz entscheidend für Vertrauen der Öffentlichkeit in Unternehmen

 

Verbraucher fordern neue Regulierungen für KI und sind bereit, bei positiven KI-Erfahrungen mehr zu kaufen. Führungskräfte aus neun von zehn Unternehmen haben eine ethisch fragliche KI-Nutzung beobachtet. Unternehmensführung, Datenwissenschaftlicher und HR/Marketing bei der Umsetzung von ethischen KI-Strategien gefragt.   Ethische Grundsätze gewinnen für das Vertrauen der Öffentlichkeit in die künstliche Intelligenz (KI) eine immer bedeutendere…

5 Bereiche in denen Cybersicherheit von KI profitiert

 

Illustration: Geralt Absmeier Eine Untersuchung von Markets and Markets prognostiziert, dass die Industrie für künstliche Intelligenz bis zum Jahr 2025 auf ein Volumen von 190 Milliarden Dollar wächst. Bis zum Jahr 2021 werden dreiviertel aller kommerziellen Unternehmensanwendungen KI nutzen. Ein Bereich, in dem künstliche Intelligenz weiterhin auf dem Vormarsch ist, ist die Cybersicherheit. Wie in…

Wettlauf zwischen Angreifern und Verteidigern – KI und IT-Sicherheit

 

Die vom Bundesministerium für Bildung und Forschung (BMBF) initiierte Plattform Lernende Systeme (PLS) hat das Ziel, künstliche Intelligenz und maschinelles Lernen im Sinne der Gesellschaft zu gestalten. Im aktuellen Whitepaper »Künstliche Intelligenz und IT-Sicherheit« analysiert die Arbeitsgruppe »IT-Sicherheit, Privacy, Recht und Ethik« der PLS eines der Spannungsfelder der KI. Beigetragen haben dazu auch Experten des…

KI verantwortungsvoll und effektiv gestalten

 

84 Prozent der Unternehmensleiter sind der Meinung, dass künstliche Intelligenz (KI) in drei Jahren für ihr Unternehmen von entscheidender Bedeutung sein wird, aber nur 15 Prozent wissen, ob KI-Projekte in ihren Unternehmen vollständig umgesetzt werden. Während schnell wachsende Unternehmen in der KI einen Beitrag zur Festigung ihrer Führungsposition sehen, hat die Hälfte aller Unternehmen keine…

Das Kind in der Krokodilverkleidung erkennen

 

Autonomes Fahren wird mit großen Schritten vorangetrieben und könnte aus technischer Sicht schon in fünf bis zehn Jahren Realität auf deutschen Straßen sein. Die politischen und ethischen Richtlinien müssen dagegen erst noch festgelegt werden. Die Technologie für das autonome Fahren ist in weiten Teilen marktreif, jedoch sind die Deutschen diesbezüglich noch sehr skeptisch. Laut einer…

Für die weitaus meisten Entscheider ist KI nur ein Zeitgeistphänomen

 

Große Mehrheit der Unternehmen hält künstliche Intelligenz für Trend – und weiß ihn nicht zu nutzen. Das Marktforschungsunternehmen Wakefield Research hat im Auftrag von Avanade Unternehmenslenker und IT-Entscheider über künstliche Intelligenz (KI) befragt. Das Ergebnis: 98 Prozent der Teilnehmer halten hierzulande KI für ein Resultat des Zeitgeists. Zugleich sind sie der Meinung, dass Unternehmen noch nicht…

Künstliche Intelligenz und deren Zukunft

 

Wir leben in einer Zeit, in welcher der technische Fortschritt sich jede Minute weiter ausbreitet. Unsere Wissenschaftler arbeiten unter anderem im Bereich der künstlichen Intelligenz, um dort große Errungenschaften zu verbuchen. Diese Form der Technik kann zum Beispiel im Gebiet der Medizin moderne Wunder bewirken. Dort sind Roboter bereits seit einigen Jahren Hilfsmittel, die immer…

Künstliche Intelligenz, Green IT & Hyperautomation: die wichtigsten IT-Trends für 2020

 

Automatisierung hilft Druckereien, profitable Businessmodelle zur Unterstützung von Kunden aus Werbung und Marketing zu entwickeln. Produktionsanlagen warten, Verkehr in Smart Cities steuern oder Bilder digital erkennen: Künstliche Intelligenz wird in vielen Bereichen eingesetzt und ist daher das zentrale IT-Thema 2020. Hundertfach kürzere Latenzzeiten durch 5G und Hyperautomatisierung werden KI weiter vorantreiben und das tägliche Leben…