»Der EU AI Act muss auf der Tagesordnung stehen«

Illustration Absmeier foto freepik ki

Im Frühjahr wurde das weltweit erste Gesetz zur Regulierung von künstlicher Intelligenz verabschiedet: Der EU AI Act. Viele Unternehmen sind sich der Auswirkungen noch nicht bewusst und haben keine klaren Vorstellungen, wie sie die Vorgaben erfüllen sollen. Im Interview beantwortet Peter Ahnert, Big Data & AI Practice Lead Central Europe bei Nagarro, was das Regelwerk konkret für Unternehmen bedeutet und wie sie verantwortungsvoll mit Technologie umgehen können.

 

Die Situation ähnelt der Einführung der DSGVO vor einigen Jahren: Viele Unternehmen stehen dem EU AI Act, der einheitliche Regeln für künstliche Intelligenz in der EU schafft, verunsichert und skeptisch gegenüber – und warten daher ab. Die neuen Dokumentations- und Compliance-Pflichten können für sie erhebliche Mehraufwände bedeuten, die wertvolle Ressourcen binden. Bestehende KI-Systeme müssen geprüft und eventuell angepasst werden. Das schieben die meisten vor sich hin, obwohl bei Missachtung empfindliche Strafen drohen.

Dabei wird gerne übersehen, dass der EU AI Act auch Chancen bietet. Das Gesetz zwingt Unternehmen, sich strategisch mit der Schlüsseltechnologie auseinanderzusetzen. Außerdem schafft es einen klaren, europaweit gültigen Rechtsrahmen, der Orientierung gibt und Investitionen planbar macht. Als »AI made in Europe« können Technologien einen echten Gütesiegel für vertrauenswürdige KI erhalten – ein Vorteil im globalen Wettbewerb. Nicht zuletzt stärkt ein bewusster Umgang mit KI das Vertrauen bei Kunden, Partnern und Mitarbeitern.

 

Peter Ahnert, Big Data & AI Practice Lead Central Europe bei Nagarro
Quelle: Nagarro

Herr Ahnert, der EU AI Act folgt einem risikobasierten Ansatz. Was bedeuten diese Risikoklassen praktisch?

Peter Ahnert: Stellen Sie sich eine Pyramide mit vier Stufen vor: Ganz oben, und damit grundsätzlich verboten, sind KI-Systeme mit einem inakzeptablen Risiko, wie Social Scoring oder manipulative Techniken. Für die meisten Unternehmen ist diese Kategorie nicht relevant.

Die wichtigste Stufe für Unternehmen sind die Hochrisiko-Systeme. Hier gelten strenge Anforderungen an Dokumentation, Transparenz und menschliche Aufsicht. Ein klassisches Beispiel im Personalwesen: Eine Software, die Lebensläufe von Bewerbern scannt und eine Vorauswahl trifft. Sie müssen sicherstellen, dass die KI nicht diskriminiert und ein Mensch die endgültige Entscheidung trifft. Ähnliches gilt für KI im Betrieb kritischer Infrastrukturen, bei der Kreditvergabe oder im Bildungsbereich.

Darunter gibt es die Stufe des begrenzten Risikos. Hier geht es vor allem um Transparenz. Nutzer müssen wissen, dass sie mit einer KI interagieren, wie bei einem Chatbot. Die große Mehrheit der KI-Anwendungen, etwa Spamfilter, fällt in die unterste Kategorie mit minimalem oder keinem Risiko, für die es keine neuen Verpflichtungen durch den EU AI Act gibt.

 

Wo sehen Sie die größten Hürden, und was ist schon heute machbar?

Viele Dinge können Unternehmen schnell angehen. Eine Bestandsaufnahme aller KI-Systeme ist eine organisatorische Aufgabe. Auch Verantwortlichkeiten festzulegen oder den Hinweis bei einem Chatbot einzubauen, ist kein Hexenwerk. Ebenso ist die Förderung einer allgemeinen KI-Kompetenz im Unternehmen gut umsetzbar.

Die wirklichen Herausforderungen liegen bei den Hochrisiko-Systemen. Hier sprechen wir über eine lückenlose technische Dokumentation, die man beim Zukauf von Software aktiv vom Lieferanten einfordern, bei der Eigenentwicklung selbst gewährleisten muss. Zudem müssen diese Systeme ein Konformitätsbewertungsverfahren durchlaufen, ähnlich einer CE-Kennzeichnung. Auch die Mitarbeiterschulung muss hier viel spezifischer und rechtlich überprüfbar sein. Ein Personaler muss beispielsweise verstehen können, warum ein KI-System einen Bewerber ablehnt und in der Lage sein, die Entscheidung kritisch zu hinterfragen.

 

Was ändert sich durch das Gesetz im Geschäftsalltag?

Der EU AI Act zieht sich, ähnlich wie die DSGVO, durch fast alle Unternehmensbereiche. Der Einkauf muss KI-Software nicht mehr nur nach Funktion und Preis bewerten, sondern ob sie gesetzeskonform ist. Im Projekt- und Risikomanagement muss Compliance von Anfang an mitgedacht werden und der IT-Betrieb muss die relevante Dokumentation vorhalten und die Überwachung sicherstellen. Die Personalabteilung muss bei KI-Tools besonders auf Fairness und Nachvollziehbarkeit achten.

 

Was sind Ihre konkreten Empfehlungen, wo Unternehmen starten sollten?

Meine klare Empfehlung ist: Der EU AI Act muss auf der Tagesordnung stehen! Zögern und abwarten bringt nichts. Der erste Schritt ist immer, eine zentrale Verantwortlichkeit zu benennen. Ich empfehle hier nach Möglichkeit, bestehende Compliance-Strukturen wie der Datenschutzorganisation aufzubauen. Sobald diese Person oder das Team feststeht, folgt eine Bestandsaufnahme aller KI-Einsatzfelder. Danach muss das Risiko für jede Anwendung bewertet werden. Die Ergebnisse helfen bei der Gap-Analyse, Lücken zu identifizieren und einen konkreten Maßnahmenplan abzuleiten. Parallel dazu sollten Lieferanten in die Pflicht genommen und Konformitätserklärungen eingefordert werden. Es empfiehlt sich, all diese neuen Prüfschritte fest in die Prozesse zu integrieren, damit Compliance zur Routine wird.

 

Ein zentraler Punkt ist die Risikobewertung. Wie gehen Sie da in der Praxis vor?

Die Risikobewertung ist der Dreh- und Angelpunkt des Gesetzes, denn eine falsche Einstufung kann teuer werden. Wir prüfen in Workshops mit IT, Fachbereich und Rechtsabteilung den geplanten Einsatz. Entscheidend ist dabei nie die Technologie allein, sondern wie sie konkret verwendet wird. Eine Bilderkennungs-KI, die in einer Lackiererei die Oberflächenqualität prüft, hat ein minimales Risiko. Exakt dieselbe Technologie, die zur Gesichtserkennung am Werkstor genutzt wird, wäre eine Hochrisikoanwendung. Wir unterstützen Unternehmen dabei, Risiken frühzeitig zu erkennen, aber auch das innovative Potenzial von KI im Rahmen des EU AI Acts weiter auszuschöpfen.

Foto Quelle Nagarro (c)

Was empfehlen Sie über das Gesetz hinaus, um verantwortungsvoll mit KI umzugehen?

Ein zentraler Hebel ist eine verantwortungsvolle Unternehmenskultur, die sich an KI-Leitlinien orientiert. Außerdem empfiehlt es sich, ein interdisziplinäres KI-Board einzurichten, das strategisch in Hinblick auf die Unternehmensziele berät, anstatt zu bremsen. Ein weiterer Punkt ist, Vertrauen durch technische Exzellenz zu schaffen. Unternehmen sollten proaktiv nach Schwachstellen in ihren Systemen suchen und Entscheidungen im Zusammenhang mit KI transparent kommunizieren. Solche Prinzipien zu entwickeln und offenzulegen, ist auch ein gutes Verkaufsargument. So wird aus einer Pflicht ein starkes Signal an den Markt.

 

4817 Artikel zu „EU AI Act“

EU AI Act: Chancen für Europa durch klare Regeln

Der viel diskutierte EU AI Act wird Realität: Bereits seit Februar 2025 gelten die Vorgaben für die Kompetenz von KI-Betreibern sowie das Verbot bestimmter KI-Systeme und -Praktiken. Am 2. August 2025 ist es ernst geworden für die Unternehmenswelt: Die Regeln des europäischen Gesetzes über künstliche Intelligenz werden angewendet, und bei Verstößen drohen Geldbußen und Sanktionen.…

»EU AI Act? Sagt mir nichts« – Zwei Drittel der Entscheider kennen den Inhalt des Gesetzes nicht​

  Viele Unternehmen in Deutschland, Österreich und der Schweiz fühlen sich laut Umfrage des IT-Dienstleisters adesso schlecht vorbereitet und beklagen Qualität sowie Quantität eigener Daten. Der EU Artificial Intelligence Act (EU AI Act) – das kürzlich beschlossene und weltweit erste KI-Gesetz – hat weitreichende Auswirkungen auf den Einsatz der Technologie in allen Unternehmen, die in…

Der EU AI Act: Regulieren wir KI zu Tode?

Ein Kommentar von Christoph Hohenberger, Co-CEO von Retorio Ein Gespenst geht um. Die Angst vor künstlicher Intelligenz und deren Auswirkungen befeuert den Ruf nach mehr Regulierung. Klar, dass die EU Vorreiter sein will, wenn es um Bürokratie und Vorschriften geht. Darin sind wir schließlich Weltmeister. In der zukunftsweisenden kerntechnologischen Entwicklung hinken wir dagegen hinterher. Als…

Was der AI Act für den Mittelstand bedeutet

Am 1. August 2024 tratt der AI Act der Europäischen Union in Kraft [1]. Hier ein Auszug des Kommentars von Bitkom-Präsident Dr. Ralf Wintergerst [2]: »[…] Ob Deutschland und Europa zu Innovationsstandorten für künstliche Intelligenz oder zu Nachzüglern werden, hängt entscheidend von der weiteren Ausgestaltung und Umsetzung des AI Acts ab. Die Umsetzung darf nicht…

Neue Anforderungen durch den AI Act: Fünf Handlungsempfehlungen

Das erste Gesetz für KI ist seit gestern abgesegnet und gibt Herstellern von KI-Anwendungen zwischen sechs Monaten und drei Jahren Zeit, sich den neuen Regeln anzupassen. Wer KI in sensiblen Bereichen einsetzen will, wird die KI-Daten und ihre Qualität streng kontrollieren und Transparenz schaffen müssen – klassische Kerndisziplinen aus dem Datenmanagement.   Die EU hat…

Schatten über der DSGVO: Welche Fragen der CLOUD Act für europäische Unternehmen aufwirft

Nahezu zeitgleich mit der DSGVO ist der US-amerikanische CLOUD Act in Kraft getreten. In der Praxis geraten damit zwei Rechtsauffassungen unvereinbar miteinander in Konflikt. Nicht nur für Cloudanbieter, sondern auch für Unternehmen, die Cloudanwendungen nutzen, könnte dies rechtliche Schwierigkeiten mit sich bringen. Anliegen des »Clarifying Lawful Overseas Use of Data« (CLOUD) Act ist es, die…

GenAI-Modelle gefähren die Cybersicherheit der Automobilindustrie

Die Integration von GenAI in Automobilsysteme bringt nicht nur Vorteile, sondern birgt auch Risiken für die gesamte Lieferkette.   Die Integration von GenAI in Fahrzeugsysteme bringt neben neuen Funktionen auch die Einbettung eines IT-Systems mit sich, das eigenständig lernt, sich weiterentwickelt und autonom arbeitet. Diese adaptiven und dynamischen, während des gesamten Lebenszyklus im Fahrzeug verbleibenden…

Integration von künstlicher Intelligenz – »AI gehört nicht nur in den Code, sondern ins System Mensch«

Kathy Pham, Vice President AI bei Workday, betont, dass KI nicht nur als Werkzeug, sondern auch als Verantwortung gesehen werden sollte, und dass es wichtig ist, Technologie sinnvoll in menschliche Abläufe zu integrieren. Zudem weist sie auf Unterschiede in der Akzeptanz neuer Technologien zwischen den USA und Europa sowie die Bedeutung von Vertrauen und ethischen Leitplanken hin.

Digitalisierung, KI & Automatisierung – Deutschland darf diese Zeitenwende nicht verschlafen

Der globale Wettbewerb wird zunehmend digital und technologieorientiert. Die Einführung fortschrittlicher digitaler Technologien mit Fokus auf IT, künstlicher Intelligenz und Automatisierung sorgt für nachhaltiges Wachstum und Effizienzsteigerung. Kontinuierliche Innovation ist Teil eines umfassenden Transformationsprozesses.

508 Artikel zu „KI Ethik“

KI und Ethik müssen schnellstens zusammenwachsen

Im Hype um die Einsatzmöglichkeiten von künstlicher Intelligenz bleibt die Diskussion um deren verantwortungsbewusste Nutzung zunehmend auf der Strecke. Zu verlockend sind die Möglichkeiten, zu atemberaubend ist das Entwicklungstempo. Gleichzeitig wird immer deutlicher, dass KI zwar nach rationalen Gesichtspunkten handelt, die Berücksichtigung ethischer Aspekte aber (noch) nicht zu ihren Schlüsselkompetenzen gehört. Vorurteile werden dadurch nicht…

KI und Ethik – Wunsch kontra Wirklichkeit

Studie zeigt: Mehrheit hält ethische Auseinandersetzung mit künstlicher Intelligenz für wichtig. Ethische Richtlinien in Unternehmen sind aber noch in den Kinderschuhen. Künstliche Intelligenz (KI) verändert die Unternehmenswelt. Dem stimmen die meisten der 600 befragten Unternehmensvertreter aus dem aktuellen »Digitalisierungsmonitor 2020« der Management- und Technologieberatung BearingPoint zu. Dass bei weltverändernden Innovationen auch immer die Frage der…

Datenethik für KI wird zur Top-Priorität

CIOs müssen die ethische Nutzung von Daten zu einer Top-Priorität machen, um mit der sich schnell entwickelnden Regulierungslandschaft Schritt zu halten. Wir befinden uns inmitten der vierten industriellen Revolution. Daten sind zu einem der wertvollsten Güter geworden, nicht zuletzt deshalb, weil künstliche Intelligenz stark von ihnen abhängt. KI und maschinelles Lernen werden derzeit in vielen…

Der Ansturm auf KI-Agenten: Sind Unternehmen bereit, schnell UND groß zu scheitern?

Unternehmen lassen KI unbeaufsichtigt laufen, als ob sie einem Praktikanten große Entscheidungen anvertrauen, anstatt einfache Aufgaben – obwohl sie noch nicht klug genug sind.   Stellen Sie sich vor, Sie kommen an einem Bahnhof während der Hauptverkehrszeit an einem überfüllten Zug irgendwo in Bangladesch oder Indien vorbei. Sie wissen vielleicht nicht, wohin er fährt, aber…

Der Aufstieg KI-gestützter GRC-Systeme – Vom Bauchgefühl zur Datenhoheit

Der Einsatz künstlicher Intelligenz verändert in rasantem Tempo die Art und Weise, wie Unternehmen ihr Governance, Risiko- und Compliance-Management (GRC) organisieren. Die Regulierung durch den EU AI Act bringt zusätzlich neue Anforderungen und potenzielle Risiken mit sich. Statt sich hinter absoluten Verboten zu verstecken, sind Organisationen jetzt gefordert, klare interne Leitplanken für den Einsatz von KI zu definieren und Governance-Strukturen frühzeitig anzupassen.

Die unterschätzte Datenbasis: Drei Gründe, warum KI-Projekte oft scheitern

Was sind die drei häufigsten Stolpersteine, die KI-Projekte ausbremsen – und wie sieht die ideale Grundlage, die KI für langfristigen Mehrwert wirklich braucht, aus?   Viele Unternehmen befinden sich mit ihren KI-Projekten noch immer in einer frühen Phase, treten scheinbar permanent auf der Stelle und erzielen so gut wie keinen echten Mehrwert. Diese Situation betrifft…

KI-Agenten im Kommen, aber Governance-Lücken gefährden Vertrauen der Verbraucher

Vier von fünf Verbrauchern wünschen sich eine klare Governance für KI-Interaktionen, aber weniger als ein Drittel der Unternehmen verfügt über umfassende Richtlinien. Genesys, ein Anbieter von KI-gestützter Orchestrierung von Kundenerlebnissen, veröffentlicht die Ergebnisse seiner aktuellen Umfrage: Diese decken eine kritische Diskrepanz auf, zwischen der Art und Weise, wie Unternehmen künstliche Intelligenz (KI) regeln, und den…

ChatGPT-Agenten: Je eigenständiger KI-Agenten handeln, desto gefährlicher werden sie

Generative KI wird bisher vor allem als Assistenzwerkzeug verstanden, doch mit der Einführung von sogenannten »Agenten« steht ein Paradigmenwechsel bevor. Diese autonomen Systeme führen nicht nur Befehle aus, sondern agieren selbstständig, interagieren mit Systemen, treffen Entscheidungen und können, im schlimmsten Fall, ohne menschliches Zutun Schaden anrichten. In einem neuen Blogbeitrag warnt Trend Micro vor den…

Die meisten KI-Tools haben massive Sicherheitsprobleme

Cybersicherheitsexperten sagen, dass »unkontrollierte KI-Nutzung« gefährliche blinde Flecken schafft, da Untersuchungen zeigen, dass 84 % der KI-Tool-Anbieter Sicherheitsverletzungen erlitten haben.   Vor drei Wochen enthüllte das ChatGPT-Leck »geteilte Gespräche« und machte Tausende von Benutzerchats – einige davon mit Namen, Adressen und anderen persönlich identifizierbaren Informationen – in den Google-Suchergebnissen sichtbar. Die Links, die ursprünglich über…

KI im Kundenkontakt: Experten fordern klare Use Cases statt Tool-Hype

In vielen Unternehmen wird KI noch technologiegetrieben eingeführt – oft ohne klaren Bezug zu konkreten Geschäftsproblemen. Ein Expertengespräch von SYBIT und NovaTaste zeigt, wie sich messbarer Nutzen erzielen lässt und welche Stolpersteine Unternehmen vermeiden sollten. Wie lässt sich künstliche Intelligenz (KI) im Unternehmensalltag so einsetzen, dass sie messbaren Nutzen bringt? Diese Frage stand im Mittelpunkt…

Ethik: 95 Prozent der Unternehmen scheitern an Responsible AI

Trotz wachsender Anforderungen erreichen nur wenige Unternehmen ethische Standards im Einsatz von künstlicher Intelligenz, agentenbasierte KI verschärft die Lage.   Das Infosys Knowledge Institute (IKI), ein Forschungszweig von Infosys, veröffentlicht seine aktuelle Studie über den verantwortungsvollen Einsatz von KI in Unternehmen. Für den »Responsible Enterprise AI in the Agentic Era« Report wurden mehr als 1.500…

Umgang mit KI-Risiken: Identity, Zugriff und Kontrolle

Datenschutz und Sicherheitsrisiken durch KI bereiten Führungskräften die größten Sorgen. Damit KI-Agenten die ihnen zugedachten Aufgaben erfüllen können, benötigen sie oft Zugriff auf die Daten, Systeme und Ressourcen des Unternehmens. Je mehr Zugriff sie dabei besitzen, desto mehr können sie leisten. Daher drängt es sich – vor allem in dieser »Wild-West-Phase« der Tests und Experimente…

KI-Einsatz im Blindflug: Unternehmen bringen sich durch fehlende Sicherheitsmaßnahmen in Gefahr

Viele Unternehmen verzichten auf Maßnahmen zur sicheren Anwendung von KI. Das zeigt die repräsentative Umfrage von G DATA CyberDefense, Statista und brand eins: Nur zwei von fünf Firmen schulen ihre Mitarbeitenden oder haben unternehmensweite KI-Guidelines etabliert [1]. Zwar ergreifen viele Verantwortliche bereits vereinzelt Maßnahmen, jedoch noch zu wenig und ohne Strategie. Die Risiken sind groß,…

KI-Kompetenz aufbauen – Weiterbildung als Schlüssel zur Zukunftsfähigkeit

Künstliche Intelligenz verändert die Arbeitswelt – und mit ihr die Anforderungen an Mitarbeitende. Wer den technologischen Wandel aktiv gestalten will, muss jetzt in Qualifizierung investieren. Experten für smarte Dokumentenverarbeitung erklären, warum Weiterbildung allein nicht genügt – und was es braucht, um Technologie und Menschen wirksam zu verbinden.   Der Einsatz von KI prägt die Art…

KI-Einsatz: Nachholbedarf bei Governance-Strukturen

Studie zeigt wachsende Akzeptanz der Technologie sowie neue Erwartungen an junge Talente.   Der flächendeckende Einsatz von künstlicher Intelligenz (KI) schreitet in Deutschland voran. Dabei gibt es große Lücken in Governance-Strukturen sowie einen Wandel für Berufseinsteigende. Das zeigt eine aktuelle Umfrage des HR-Plattformanbieters HiBob unter 2.000 Befragten, darunter 1.100 Fachkräfte [1]. Besonders auffällig: Während alle…

Künstliche Intelligenz: Was erwarten Unternehmen vom KI-Einsatz?

Die meisten Unternehmen in Deutschland, die künstliche Intelligenz einsetzen, tun dies mit dem Ziel, ihre Mitarbeitenden von Routinearbeiten zu befreien oder diese zu erleichtern. 84,5 Prozent der im Rahmen einer Erhebung des Instituts der deutschen Wirtschaft Köln (PDF-Download [1]) befragten Unternehmen hat dies angegeben, wie die Statista-Infografik zeigt. Der in öffentlichen Diskussionen oft thematisierte Aspekt…

EU KI-Gesetz wird scharf gestellt: Was Personalverantwortliche und Arbeitnehmende jetzt wissen müssen

KI-Verstöße ab August 2025 können teuer werden. Das KI-Gesetz der Europäischen Union, die weltweit erste umfassende KI-Verordnung, erreicht am 2. August 2025 einen entscheidenden Meilenstein. Ab diesem Stichtag gelten für Unternehmen, Behörden und KI-Anbieter in der EU zahlreiche zentrale Verpflichtungen, bei deren Nichteinhaltung Strafmaßnahmen eingeleitet und verhängt werden können. SD Worx, europäischer Anbieter von HR-Lösungen,…

NRW statt Silicon Valley: Eigene KI für NRW-Hochschulen

Alle Hochschulen in Nordrhein-Westfalen stehen vor der Herausforderung, große Sprachmodelle datenschutzsicher und unabhängig in Forschung, Lehre, Studium und Verwaltung zu betreiben. Das Projekt Open Source-KI.nrw, kurz OSKI.nrw, ermöglicht an der Ruhr-Universität Bochum erstmals den Zugang zu einem Sprachmodell mit Datenhoheit im Land NRW. Gefördert wird das Projekt vom NRW-Ministerium für Kultur und Wissenschaft.   Das…

Maßnahmen zur Abfederung von Stellenabbau durch KI

In Deutschland rechnen 27,1 % der Unternehmen damit, dass künstliche Intelligenz in den kommenden fünf Jahren zum Abbau von Stellen führen wird. Mit gezielten Maßnahmen lassen sich negative Effekte auf Beschäftigung und Wohlstand jedoch deutlich reduzieren. Proaktive Weiterbildung und Umschulung Lebenslanges Lernen fest in Unternehmens- und Weiterbildungskultur verankern Staatliche Förderprogramme wie Qualifizierungsgutscheine oder Bildungsprämien stärker…

Wie KI zur größten Cyberbedrohung wird

Von Michael Kleist, Area Vice President CEE bei CyberArk Das aktuelle »Bundeslagebild Cybercrime 2024« des Bundeskriminalamts hat es nochmal bestätigt: Die Gefährdungslage durch Cyberkriminalität bleibt in Deutschland unverändert hoch, teilweise ist sogar von steigenden Gefahren auszugehen [1]. Ein Grund dafür ist die zunehmende KI-Nutzung durch Angreifer. Auch das Lagebild kommt zum Schluss, dass KI verstärkt…