Auf dem Weg zur transparenten KI

Illustration: Absmeier

 

Im Schach, Poker und Go hat künstliche Intelligenz (KI) die Menschheit längst überflügelt. Auch Röntgenbilder oder Aktienkurse analysiert sie bereits ähnlich gut – und teilweise sogar besser – als ein Experte aus Fleisch und Blut. Doch auch die präzisesten KI-basierten Analysen haben einen Makel: Bis jetzt ist es für einen Menschen oft kaum nachvollziehbar, wie sie zustande kommen. In einem neuen Projekt arbeitet ein interdisziplinäres Team nun daran, mehr Licht in die »Black Box« der KI zu bringen.

Prof. Dr. Moritz Helias, Forschungszentrum Jülich
Copyright: RWTH Aachen / Peter Winandy

Der Physiker und Neurowissenschaftler Moritz Helias vom Forschungszentrum Jülich und der RWTH Aachen koordiniert das Vorhaben, das vom Bundesministerium für Bildung und Forschung mit 2 Millionen Euro gefördert wird.

 

Herr Helias, auch wie ganz gewöhnliche Computeranwendungen funktionieren, ist für einen Laien oft nicht klar. Wieso ist mangelnde Transparenz gerade im Bereich der KI ein Problem?

Bei traditionellen Anwendungen ist meist ganz genau definiert, wo welche Informationen gespeichert und wie diese im Zuge der Berechnung verwendet werden. Diese Modelle sind teilweise sehr komplex: beispielsweise Wetter- oder Klimamodelle. Trotzdem lässt sich die Berechnung Schritt für Schritt ganz exakt nachvollziehen. Man kann genau abschätzen, welche Folgen es hat, wenn man diesen oder jenen Parameter verändert.

Bei Anwendungen im Bereich der KI ist das anders. Diese sind tatsächlich meist wie eine Black Box. Speziell im Bereich des Deep Learning, bei dem die Information letztlich in Millionen trainierter Parameter gespeichert ist. Diese Anwendungen basieren auf künstlichen neuronalen Netzen, die nach dem Vorbild der natürlichen neuronalen Netze im Gehirn aufgebaut sind. Diese künstlichen neuronalen Netze bestehen aus mehreren Schichten von vernetzten künstlichen Neuronen und »lernen« anhand großer Datensätze, aus einem Input ein bestimmtes Ergebnis oder eine bestimmte Vorhersage abzuleiten. Die Informationen werden hier nicht an einem bestimmten Ort gespeichert, sondern sie bestehen in der Stärke der Verbindung zwischen künstlichen Neuronen. Welche Merkmale der Daten letztlich zu einer Entscheidung führen, kann bisher niemand genau sagen.

 

Wo wäre in der Praxis mehr Transparenz wünschenswert?

Tatsächlich ist die fehlende Transparenz in vielen Bereichen eigentlich kein Problem. Beispielsweise wenn es darum geht, im Internet bestimmte Produkte vorzuschlagen, Sprachbefehle zu verstehen oder die Fotosammlung am PC zu sortieren. Aber in manchen sensiblen Bereichen will man doch gerne einen Einblick haben und verstehen, wie die Entscheidungen zustande kommen.

Besonders wichtig ist das natürlich im medizinischen Bereich. Beispielsweise um besser nachvollziehen zu können, aus welchen Gründen eine Anwendung mit KI eine Empfehlung für einen chirurgischen Eingriff abgibt oder sich dagegen entscheidet. Das Gleiche gilt natürlich auch für Assistenzsysteme mit KI, die an Operationen beteiligt sind und den Chirurgen oder die Chirurgin unterstützen.

Transparenz ist aber auch ganz grundsätzlich von Bedeutung: Nur wenn man die Ursachen kennt, kann man Fehlentscheidungen einer KI gezielt korrigieren. Manchmal passieren mit Methoden der künstlichen Intelligenz recht offensichtliche Fehler; bekannt sind beispielsweise falsche Bildinterpretationen durch KI. Solche Fehler können gravierende Folgen haben, wenn sie zum Beispiel bei selbstfahrenden Autos auftreten. Oder wenn sich die KI »austricksen« lässt und dann bei einer Zugangskontrolle versagt.

 

Wie wollen Sie in Ihrem neuen Forschungsprojekt mehr Transparenz schaffen?

Im Kern greift das Projekt auf die sogenannte Renormierungsgruppe zurück, daher kommt auch der Name »RenormalizedFlows«. Die Methodik gilt als eine der größten Errungenschaften der theoretischen Physik im 20. Jahrhundert. Sie wurde speziell entwickelt, um Prozesse zu analysieren, die sich erst aus dem Zusammenspiel einer Vielzahl von Teilprozessen ergeben. Am Projekt beteiligt sind deshalb Physiker um Carsten Honerkamp von der RWTH Aachen, die auf diesem Gebiet langjährige Expertise besitzen. Dazu kommen Experten aus mehreren anderen Fachbereichen: Das sind zum einen Neurowissenschaftler und Mediziner um Tonio Ball von der Uniklinik Freiburg, aber auch Informatiker um Frank Hutter, einer der weltweit führenden Experten für Strukturoptimierung neuronaler Netzwerke. Einen starken Anwendungsbezug bekommt das Projekt durch die Expertise für Hardware und Softwarelösungen der medizinischen Diagnostik von Frank Zanow und Patrique Fiedler des beteiligten Unternehmens eemagine Medical Imaging Solutions GmbH.

 

Worum geht es bei Ihrem Ansatz konkret?

Tiefe neuronale Netzwerke bestehen aus einer Hintereinanderschaltung vieler Schichten von Neuronen. In diesen Schichten werden eingehende Daten Schritt für Schritt zerlegt. Aber diese Zerlegung ist so komplex, dass sie für einen Menschen nicht direkt nachvollziehbar ist.

Die eingangs erwähnte Renormierungsgruppe wollen wir im Projekt mit einer weiteren, noch relativ neuen Entwicklung kombinieren: den invertierbaren, das heißt umkehrbaren tiefen Netzwerken. Diese Netzwerke erlauben es, die zugrundeliegenden Ursachen in den Daten sichtbar zu machen. Und sie machen es möglich, den gesamten Prozess umzukehren. So wird es theoretisch möglich, die plausibelsten Daten zu errechnen, die zu einem bestimmten Ergebnis oder einer bestimmten Ursache gehören. Das ist enorm wichtig. Auf diese Weise kommt man zu Entscheidungen, deren Ursachen direkt überprüfbar, also für den Menschen nachvollziehbar werden.

 

Welche Anwendungen haben Sie im Fokus?

In unserem Projekt geht es vor allem um Grundlagenforschung. Im Mittelpunkt steht dabei die Analyse von Elektroenzephalografie-Daten (EEG). Dabei arbeiten wir etwa mit Tonio Ball von der Universität Freiburg zusammen, der KI-Systeme als mögliche Diagnosehilfe zur Erkennung von Krankheiten wie Epilepsie sieht.

EEG-Signale spielen aber auch für die Steuerung von Prothesen eine Rolle. KI-Systeme helfen dabei, die Hirnsignale in Steuerungsbefehle zu übersetzen. Damit das nicht nur im Labor, sondern auch im Alltag funktioniert, muss man manche Störquellen gezielt ausschalten. Lichtschalter können beispielsweise ganz ähnliche Signalmuster hervorrufen wie die Gehirnsignale, die man zur Steuerung der Prothese verwendet. Damit es beim Bedienen eines Schalters nicht zu einer Fehlfunktion kommt, muss man diese Störsignale gezielt ausschließen. Dies ist auch ein weiteres Ziel des Projekts.

 

694 Artikel zu „KI Transparenz“

Vier KI-Trends für das neue Jahrzehnt

In den 90er Jahren kamen Heimcomputer groß raus, in den sogenannten Nullerjahren setzte sich das Internet flächendeckend durch und im letzten Jahrzehnt waren Smart Devices »das Ding«. Verschiedene Dekaden haben prägende Technologien hervorgebracht, die Wirtschaft und Gesellschaft nachhaltig beeinflussen. In den 20er Jahren des aktuellen Jahrhunderts wird künstliche Intelligenz mindestens eine davon sein – vermutlich…

KI und der Wunsch nach noch mehr Effizienz  

Effizienzsteigerung und Prozessverbesserung sind die größten Treiber bei der Implementierung von künstlicher Intelligenz. Die einen sprechen von Revolution, die anderen wissen nicht einmal, ob es KI-Initiativen in ihrem Unternehmen gibt. Die Unterschiede könnten nicht größer sein, zeigt der aktuelle »Digitalisierungsmonitor 2020« von BearingPoint, für den 600 Unternehmensvertreter zum Thema KI befragt wurden [1]. Mit 94…

KI-Schub für Unternehmen: Sechs Entwicklungen, die zeigen, wie künstliche Intelligenz Prozesse im Alltag beflügeln

KI-Einsatzmöglichkeiten im Zusammenspiel mit Unternehmensanwendungen. Dass künstliche Intelligenz (KI) eines der Trendthemen schlechthin ist, steht außer Frage. Eine aktuelle PwC-Studie kommt jedoch zu dem Ergebnis, dass erst sechs Prozent der Unternehmen in Deutschland KI einsetzen oder implementieren – es gibt demnach immensen Nachholbedarf. Oracle hat jetzt Anwendungsbereiche im ERP- und Geschäftssoftware-Umfeld zusammengestellt, in denen KI…

KI und Ethik – Wunsch kontra Wirklichkeit

Studie zeigt: Mehrheit hält ethische Auseinandersetzung mit künstlicher Intelligenz für wichtig. Ethische Richtlinien in Unternehmen sind aber noch in den Kinderschuhen. Künstliche Intelligenz (KI) verändert die Unternehmenswelt. Dem stimmen die meisten der 600 befragten Unternehmensvertreter aus dem aktuellen »Digitalisierungsmonitor 2020« der Management- und Technologieberatung BearingPoint zu. Dass bei weltverändernden Innovationen auch immer die Frage der…

Datenethik für KI wird zur Top-Priorität

CIOs müssen die ethische Nutzung von Daten zu einer Top-Priorität machen, um mit der sich schnell entwickelnden Regulierungslandschaft Schritt zu halten. Wir befinden uns inmitten der vierten industriellen Revolution. Daten sind zu einem der wertvollsten Güter geworden, nicht zuletzt deshalb, weil künstliche Intelligenz stark von ihnen abhängt. KI und maschinelles Lernen werden derzeit in vielen…

KI mit Byte und Siegel? Eine Einschätzung zu den KI-TÜV-Plänen der Bundesregierung

  Jetzt macht Deutschland in künstliche Intelligenz (KI): mit Formularen, Verordnungen und Prüfplaketten. Diesen Eindruck erwecken einige Überschriften der letzten Tage. Die Pläne des sogenannten KI-TÜVs der Bundesregierung machten die Runde. Im Bundesministerium für Arbeit und Soziales angesiedelt, soll das KI-Observatorium – so die offizielle, etwas altbackene Bezeichnung – das Thema KI voranbringen. Der Zwischenbericht…

Cyberbedrohungen 2020: Fortgeschrittene KI und intelligente Bedrohungs-Desinformation

Unternehmen die sich proaktiv vor Angriffen schützen wollen, sollten bei ihrer Security-Strategie auf Integration, fortgeschrittene KI und anwendbare Threat Intelligence setzen.   Fortinet hat die Prognosen von FortiGuard Labs zur Bedrohungslandschaft für 2020 veröffentlicht. Die Analysten von Fortinet zeigen darin Methoden, die Cyberkriminelle in der nahen Zukunft voraussichtlich einsetzen werden. Zudem verraten sie wichtige Strategien,…

Datenintegration als Grundlage KI-gestützter Planungssysteme – Marktreife KI-Lösungen

Künstliche Intelligenz (KI) lebt von großen Datenmengen. Für die zunehmende Unterstützung von Planungs-, Budgetierungs- und Controllingprozessen durch Advanced Analytics und KI-Lösungen sind leistungsfähige Datenmanagement- und Integrationsszenarien eine unabdingbare Voraussetzung. Die Jedox AG nutzt den  Data Hub ihrer CPM-Softwareplattform für neue KI-Applikationen. Pilotkunden berichten vom erfolgreichen Einsatz der Jedox KI-Engine.

Die Überlegenheit der Quantencomputer ist belegt – aber ohne maximale Transparenz in den Datenverkehr wird es nicht erfolgreich sein

  Ron Lifton, Senior Enterprise Solutions Manager bei NETSCOUT kommentiert:   »Obwohl es zweifellos ein enormer Meilenstein ist, dass Google die Überlegenheit der Quantencomputer – die sogenannte Quantum Supremacy – belegen konnte, steht dem Unternehmen noch eine gewaltige Aufgabe bevor. Wenn schnelles und leistungsfähiges Quanten-Computing über die Cloud verfügbar wird, können riesige Datenmengen und Aufgaben…