Um möglichen Risiken wie dem Missbrauch personenbezogener Daten und der Privatsphäre sowie der Menschenwürde durch KI vorzubeugen, nimmt die Europäische Union (EU) mit dem »Artificial Intelligence Act« eine internationale Vorreiterrolle mit regulatorischen Überwachungsanforderungen für KI-Systeme ein. Neben dem EU AI Act gibt es auch aus den USA Vorgaben für KI, jedoch bezieht sich der »National…
Alle Artikel zu EU AI Act
News | Künstliche Intelligenz | Services
Unterstützung bei der Umsetzung des KI-Gesetzes der EU
Risiken minimieren, Qualität sichern, Vertrauen fördern: Im August ist mit der EU-Verordnung über künstliche Intelligenz (engl. »AI Act«) das weltweit erste umfassende Gesetz zur Regulierung von KI in Kraft getreten. Nun müssen betroffene Unternehmen die neuen Regularien fristgerecht umsetzen, andernfalls drohen Strafzahlungen. Mit einem neuen Angebot im Bereich KI-Governance & Qualitätsmanagement unterstützt das Fraunhofer-Institut für…
Trends 2024 | News | Künstliche Intelligenz
»EU AI Act? Sagt mir nichts« – Zwei Drittel der Entscheider kennen den Inhalt des Gesetzes nicht
Viele Unternehmen in Deutschland, Österreich und der Schweiz fühlen sich laut Umfrage des IT-Dienstleisters adesso schlecht vorbereitet und beklagen Qualität sowie Quantität eigener Daten. Der EU Artificial Intelligence Act (EU AI Act) – das kürzlich beschlossene und weltweit erste KI-Gesetz – hat weitreichende Auswirkungen auf den Einsatz der Technologie in allen Unternehmen, die in…
News | Favoriten der Redaktion | Künstliche Intelligenz | Lösungen | Strategien
Trustworthy AI: Mit dem Use-Case-Management-Tool die KI-Journey meistern
Der EU AI Act wurde verabschiedet und somit die Regeln für die Anwendung und Entwicklung von KI festgelegt. Dadurch müssen sich Unternehmen nun systematisch mit der Erfassung und Risikobewertung ihrer KI-Use-Cases befassen. Ein neues Tool der appliedAI-Initiative [1] unterstützt dabei und schafft darüber hinaus einen echten Mehrwert für Unternehmen: Durch das systematische Management ihrer KI-Use-Cases…
News | Business | Favoriten der Redaktion | Künstliche Intelligenz | New Work
Generative KI: Vier Risiken, die Unternehmen adressieren sollten
Generative KI-Systeme wie ChatGPT und Copilot haben ihren Siegeszug gestartet und werden sich nicht mehr stoppen lassen. Technologien, die eigenständig Texte und Bilder über einfache Prompts erstellen und Ideen generieren können, haben die Art, wie wir kreativ denken und Probleme lösen, in kurzer Zeit signifikant verändert. Obwohl die (generative) KI anfangs auf einige Vorbehalte stieß…
News | Kommentar | Künstliche Intelligenz
Der EU AI Act: Regulieren wir KI zu Tode?
Ein Kommentar von Christoph Hohenberger, Co-CEO von Retorio Ein Gespenst geht um. Die Angst vor künstlicher Intelligenz und deren Auswirkungen befeuert den Ruf nach mehr Regulierung. Klar, dass die EU Vorreiter sein will, wenn es um Bürokratie und Vorschriften geht. Darin sind wir schließlich Weltmeister. In der zukunftsweisenden kerntechnologischen Entwicklung hinken wir dagegen hinterher. Als…
News | Kommentar | Künstliche Intelligenz
Europäisches Parlament beschließt Rahmen für KI-Systeme
Workday begrüßt Regulierung und risikobasierten Ansatz. Das Europäische Parlament hat am 15. Juni über seine Änderungsanträge zum vorgeschlagenen Gesetz über künstliche Intelligenz, allgemein als KI-Gesetz bekannt, abgestimmt. Diese Abstimmung ist ein wichtiger Schritt auf dem Weg zu der weltweit ersten umfassenden Regulierung im Bereich der künstlichen Intelligenz. Die Weichen für die Verhandlungen zwischen dem…
News | Kommentar | Künstliche Intelligenz
Künstliche Intelligenz: Stoppt die Maschinen?!
Die Petition einiger KI-Forscher, die Entwicklung von GPT-4 zu stoppen, beruht auf berechtigten Bedenken. Ihr liegt das nachvollziehbare Ziel zugrunde, vertrauenswürdige und verantwortungsvolle KI-Systeme zu schaffen. Die Frage ist, ob eine Petition, die die Weiterentwicklung großer KI-Modelle einschränkt, dafür der richtige Weg ist. (K)eine praktikable Forderung Große Sprachmodelle bergen Risiken, darüber lässt sich nicht…