Jetzt 25 % Ticketrabatt für »manage it« Leser


KI-Rausch und Qualitäts-Kater

foto freepik

Unternehmen investieren Milliarden in generative KI für die Code-Entwicklung. Doch wer investiert in das intelligente Gegengewicht, das für die nötige Stabilität sorgt? Ein Expertenkommentar von Roman Zednik, Field CTO bei Tricentis, der die vergessene zweite Hälfte einer erfolgreichen KI-Strategie beleuchtet – und zeigt, warum der alleinige Fokus auf Entwicklerproduktivität gefährlich kurzsichtig ist.

 

»Ein historischer Budget-Shift durchzieht gerade die IT-Branche: Geld fließt massiv in KI, um Entwicklungsprozesse zu beschleunigen. Der dadurch erzeugte Geschwindigkeitsrausch ist allgegenwärtig, doch er hat einen blinden Fleck – die Qualitätssicherung. Wir investieren in Rennwagen-Motoren, vergessen aber, die Fahrradbremsen auszutauschen. Dieses Ungleichgewicht führt unweigerlich zu einem unternehmensweiten »Qualitäts-Kater«. Die anfänglichen Geschwindigkeitsgewinne werden durch endlose Nachbesserungszyklen aufgefressen und Innovationen bleiben auf der Strecke.

 

Der blinde Fleck: Wenn alte Metriken versagen

Die Gefahr liegt nicht nur in der schieren Skalierung, die KI in der Code-Entwicklung ermöglicht – ein Entwickler, dessen Produktivität sich vervielfacht, erzeugt eine unüberschaubare Menge an Änderungen, die potenziell Risiken bergen. Das eigentliche Problem ist mentaler Natur: Wir klammern uns an veraltete Metriken. Jahrzehntelang war das Ziel, eine möglichst hohe Code-Abdeckung zu erreichen. Im KI-Zeitalter ist diese Metrik jedoch unzureichend. Die Flut an neuem Code macht vollständige Abdeckung zur Illusion und sagt vor allem nichts über Geschäftswert oder Risiko aus. Wir jagen einer quantitativen Zahl hinterher, statt die notwendigen qualitativen Fragen zu stellen: Was passiert, wenn dieser oder jener Teil der Software ausfällt? Wie hoch ist die aktuelle Wahrscheinlichkeit dafür? Und wo müssen wir ansetzen, um das zu verhindern?

 

Das Prinzip der dualen KI-Architektur

Die logische Konsequenz ist daher nicht, mehr zu tun, sondern das Richtige. Erfolgreiche KI-Implementierung muss einem Prinzip der dualen Architektur folgen. Sie erkennt, dass es zwei KI-Systeme geben muss, die perfekt synchron arbeiten, um sich gegenseitig in Balance zu halten: Auf der einen Seite die generative KI, die Code erstellt; auf der anderen Seite eine analytische KI, die als intelligente Leitplanke Qualität und Geschäftsrisiken managt.

Diese zweite KI agiert wie der intelligente Dirigent eines Orchesters aus KI-Agenten. Jeder dieser digitalen Spezialisten hat eine klare Rolle: Einer analysiert etwa das Risiko neuer Code-Änderungen, ein zweiter prüft die Performance, ein dritter stößt in unkritischen Fällen Self-Healing-Mechanismen an. Sie arbeiten Hand in Hand, überblicken den gesamten Geschäftsprozess End-to-End und validieren gezielt das, was aus Business-Sicht wirklich zählt – nicht blind alles.

 

Der Mensch als Pilot: Vom Tester zum Risikomanager

Die Ergebnisse dieser koordinierten Analyse werden gebündelt und als klare Entscheidungsgrundlage an den Menschen übergeben. Der Qualitätsexperte hält sich nicht länger mit reaktiver Fehlersuche auf, sondern wird zum Piloten im Cockpit. Er bewertet die von den digitalen Helfern aufbereitete Risikolandkarte und trifft fundierte Go/No-Go-Entscheidungen. Seine Erfahrung wird nicht ersetzt, sondern durch bessere Daten auf eine neue, strategische Ebene gehoben. Qualitätssicherung wird so zum unverzichtbaren strategischen Wegbereiter für schnelle und sichere Innovation.

 

Innovation braucht Qualitätsgarantien

Der entscheidende Wettbewerbsvorteil durch KI entsteht also nicht durch das stärkste Einzelmodell, sondern durch die intelligenteste Gesamtarchitektur. Während sich der Fokus verständlicherweise oft auf unmittelbare Produktivitätsgewinne richtet, liegt der nachhaltige Erfolg in der klugen Implementierung KI-gestützter Qualitätsmechanismen. Erst dieses Gleichgewicht ermöglicht, was Entscheider wirklich wollen: Innovation mit hoher Geschwindigkeit – ohne das Risiko eines System-Crashs. So endet der KI-Rausch nicht mit einem bösen Kater und Unternehmen differenzieren sich von Wettbewerbern, die kurzfristige Produktivitätsgewinne mit langfristiger Instabilität erkaufen.«

 

4156 Artikel zu „KI Qualität“

Strategisches Datenkapital: Wie KI Qualität und Management revolutioniert

In einer zunehmend datengetriebenen Wirtschaft stellt die Qualität von Informationen einen kritischen Erfolgsfaktor dar. Angesichts des exponentiellen Wachstums von Daten mit Blick auf Umfang, Vielfalt sowie Geschwindigkeit erkennen Unternehmen, dass Präzision, Konsistenz und Verlässlichkeit ihrer Datenbestände nicht länger ein Nice-to-Have, sondern ein unverzichtbarer Wettbewerbsvorteil sind.   Minderwertige Daten führen zu oftmals gravierenden Fehlentscheidungen, operativer Unwirtschaftlichkeit…

Die wichtigsten Trends im Online Marketing: Warum es 2026 auf Datenqualität, Automatisierung und KI ankommt

Künstliche Intelligenz 2026 steigert die Performance und Werbetreibende profitieren von diesem Effizienzschub 2026 prägen hybride Sucharchitekturen, Automatisierung, KI-getriebene Kreativität und mediale Ausspielung sowie die Verschmelzung von Social Media und Commerce die Werbelandschaft. Executive Board Member Jan Honsel fasst zusammen: »Effizienz, Datenqualität und kreative Präzision werden zur neuen Währung des Marketings.«   Zum Jahreswechsel veröffentlicht die…

Die Top Software & Testing Trends für 2026: Wie verändert KI Entwicklung und Qualitätssicherung?

Künstliche Intelligenz wird 2026 zum dominierenden Thema in der Software-Entwicklung und Qualitätssicherung. Nachdem Unternehmen erste Erfahrungen gesammelt haben, suchen sie jetzt nach Möglichkeiten, um wirkliche Kosten- und Produktivitätsvorteile zu erzielen. Roman Zednik, Field CTO bei Tricentis, zeigt, wo im kommenden Jahr die größten Potenziale liegen und warum menschliche Kontrolle unverzichtbar ist.   Risikobasiertes Testing löst…

Prüfbare KI-Qualität: MISSION KI präsentiert Qualitätsstandard und digitales Prüfportal für Niedrigrisiko-KI

Der VDE hat sich an dem Projekt MISSION KI – Nationale Initiative für Künstliche Intelligenz und Datenökonomie beteiligt. Entstanden sind ein Qualitätsstandard und ein Portal für die strukturierte Bewertung der Qualität von KI-Systemen, die sich unterhalb der Hochrisikoschwelle befinden.   Die Partner des Projekts MISSION KI – Nationale Initiative für Künstliche Intelligenz und Datenökonomie haben…

Vier GenAI-Qualitätskiller: Vertraue keiner KI

Ohne echte Qualitätssicherung für die Nutzung generativer KI steht der Menschheit eine Dystopie ins Haus. Solange sie nicht existiert, sind die Nutzer in der Pflicht, die Gefahren von GenAI zu kennen und die Technologie verantwortungsvoll einzusetzen. Was sind die vier gefährlichsten Qualitätskiller im beginnenden KI-Zeitalter?   Die Leistung und die Zuverlässigkeit von KI-Assistenten nehmen gefühlt…

KI, Cloud und Datenqualität werden zum Dreh- und Angelpunkt erfolgreicher Digitalisierung

57 Prozent der Unternehmen nennen neue Technologien, vor allem künstliche Intelligenz, als Haupttreiber ihrer IT-Transformation. Technik allein reicht nicht: Digitale Transformation gelingt mit Teamwork, Erfahrung, Agilität und Datenschutz. 47 Prozent sehen zum vierten Mal in Folge schlechte Datenqualität als Transformationshindernis Nummer Eins. Unternehmen wollen durch Transformation innovationsfähig bleiben – und deshalb häufiger Cloud-Dienste einsetzen.  …

Deutschland übertrifft Europa bei GenAI-Investitionen und ROI mit KI-Einsatz in Prozessoptimierung, Cybersicherheit und Qualitätskontrolle

Eine globale Studie zeigt, dass deutsche Hersteller trotz Herausforderungen bei der Personalentwicklung und Datennutzung die höchsten GenAI-Renditen in Europa erzielen.   Rockwell Automation, das Unternehmen für industrielle Automatisierung und digitale Transformation, hat die deutschen Ergebnisse seines 10. jährlichen Berichts zur intelligenten Fertigung vorgestellt [1]. Die Daten zeigen, dass der Fertigungssektor erhebliche Investitionen und Erträge in…

KI-Agenten: Es fehlt an Datenqualität, Governance und Qualifikation

Die aktuelle BARC-Studie »Preparing and Delivering Data for AI: Adoption Trends, Requirements, and Best Practices« zeigt: Unternehmen setzen zunehmend auf KI – fast ein Drittel nutzt bereits KI-Agenten produktiv [1]. Doch fehlende Strukturen in der Governance, unzureichender Fokus auf Datenqualität und mangelnde KI-Kompetenzen gefährden den langfristigen Erfolg.   Die Befragten stammen aus aller Welt, mit…

KI als Gamechanger im Dokumenten- und Qualitätsmanagement – Fabasoft Approve: Computer-Aided Quality aus der Cloud

Der Einsatz von KI in den verschiedenen Unternehmensbereichen und die Vernetzung unterschiedlicher Technologieplattformen zum organisationsübergreifenden Datenaustausch werden im Jahr 2025 zu einem zentralen Erfolgsfaktor. Integrierte „Retrieval Augmented Generation“ (RAG)-Systeme und die zunehmende Nutzung von Multi-Cloud-Architekturen spielen eine wesentliche Rolle bei der digitalen Transformation.

Mit KI zu besserer Softwarequalität

Tricentis bietet Kunden mit seiner Copilot Suite eine Sammlung KI-gestützter Assistenten, die Qualitätssicherungs- und Entwicklungsteams in verschiedenen Phasen des Testprozesses unterstützen.   Die Anforderungen an moderne Softwareentwicklung steigen rasant: Anwendungen werden immer komplexer, während sich die Release-Zyklen zunehmend verkürzen. Qualität und Effizienz dürfen dabei nicht auf der Strecke bleiben. Tricentis, ein führender Anbieter von Continuous…

USU KAI – intelligenter KI-Assistent setzt neue Maßstäbe für Qualität und Effizienz im Kundenservice

Die USU-Gruppe hat ihren neuen KI-Assistenten KAI vorgestellt, der die Effizienz und Qualität im Kundenservice maßgeblich verbessern soll. Der neue Assistent ist Teil des USU Knowledge Management Systems. Mit einem besonderen Fokus auf Präzision, Konsistenz und Anpassungsfähigkeit setzt KAI neue Maßstäbe in der Anwendung von künstlicher Intelligenz im Kundenservice. Details werden in einem neuen, kostenfrei…

KI-Wissen und Führungsqualitäten entscheidend für mehr Vertrauen und Leistung

Mitarbeitende sehen künstliche Intelligenz, maschinelles Lernen sowie die Förderung von Führungsqualitäten als ihre größten Qualifikationslücken. Nur jeder fünfte Mitarbeitende in Deutschland bewertet die Talententwicklungsprogramme ihres Unternehmens als hochwirksam. Mitarbeitende wünschen sich mehr Zeit, neue interaktive Lernformate und mehr Unterstützung durch die Führungskräfte, um ihren Weiterbildungsbedarf zu decken.   Skillsoft, eine Plattform für transformative Lernerfahrungen, hat…

»KI ist kein Qualitätsmerkmal«: Das Thema wird im Marketing gehypt

ChatGPT und andere Tools haben einen Hype um das Thema KI ausgelöst. Die Werbeversprechen in Sachen künstliche Intelligenz sind inzwischen allgegenwärtig. Überall ist KI drin, dran oder zumindest beteiligt. KI ist zum Marketingrenner geworden. Dabei ist KI aber keineswegs ein Qualitätsmerkmal. Zwar ist es gut, dass durch ChatGPT und Co. das Thema nun große Aufmerksamkeit…

KI als Booster für Effizienz und Qualität im Prozessmanagement

Wie künstliche Intelligenz das Leistungsspektrum von BPM erweitert.   Künstliche Intelligenz (KI) gilt als eine der Schlüsseltechnologien im Zeitalter der Industrie 4.0 und besitzt das Potenzial, über die künftige Wettbewerbsfähigkeit von Unternehmen zu entscheiden. Unter anderem ermöglicht sie eine effizientere Produktion und eine gezieltere, individualisierte Bereitstellung von Produkten und Dienstleistungen, was wiederum zu gänzlich neuen…

Neuer Leitfaden für das Qualitätsmanagement bei der Entwicklung von KI-Lösungen und -Anwendungen

Die Begleitforschung des Innovationswettbewerbs »Künstliche Intelligenz als Treiber für volkswirtschaftlich relevante Ökosysteme« (KI-Innovationswettbewerb) hat einen neuen Leitfaden für das Qualitätsmanagement bei der Entwicklung von KI-Lösungen und -Anwendungen veröffentlicht. Der Leitfaden bietet eine umfassende Orientierungshilfe für KI-Entwickelnde, um Anwendungen auf Umsetzbarkeit zu überprüfen. Anforderungen wie die Marktchancen oder die Erfüllung gesetzlicher Richtlinien stehen dabei ebenso im…

Cloud bremst KI: Warum 86 Prozent der Unternehmen ihr Potenzial verschenken

KI erhöht die Abhängigkeit von der Cloud, doch notwendige Investitionen fehlen. Legacy-Anwendungen und Daten bremsen Innovation, Modernisierung wird zur wichtigsten Cloud-Priorität. Komplexe Technologie-Ökosysteme rücken Security-Investitionen und den Fokus auf Grundlagen in den Mittelpunkt.   NTT DATA, ein Anbieter von KI-, digitalen Business- und Technologie-Services, hat die neue Studie Cloud-led innovation in the era of AI:…

Das Wikipedia‑Verbot für KI‑Texte ist ein Weckruf für Unternehmen

  Datenökologie, Governance und strategische Risiken im Zeitalter generativer KI   Das Wikipedia‑Verbot für KI‑Texte ist weniger ein KI‑Problem als vielmehr ein Signal für die Bedeutung stabiler unternehmensinterner Datenökosysteme. Model Collapse und »Habsburg AI« sind reale Risiken, entstehen jedoch nicht automatisch, sondern vor allem durch fehlende Daten‑Governance und unkontrollierten Einsatz synthetischer Inhalte. Die zentrale Botschaft…

Model Collapse und Datenökologie: Warum die englischsprachige Wikipedia KI‑generierte Artikeltexte untersagt

Abstract Die englischsprachige Wikipedia hat den Einsatz großer Sprachmodelle (LLMs) zum Generieren oder Umschreiben von Artikelinhalt untersagt und nur eng begrenzte Ausnahmen für Copyediting eigener Texte sowie Übersetzungsunterstützung zugelassen. Diese Entscheidung lässt sich nicht allein als redaktionelles Qualitätsinstrument verstehen, sondern als datenökologischer Eingriff in ein globales Trainingsdaten‑Ökosystem, das zunehmend durch synthetische Inhalte geprägt wird. Zentraler…

Warum Wikipedia den Einsatz generativer KI einschränkt: Habsburg KI als datenökologisches Risiko

Die Entscheidung der englischsprachigen Wikipedia, den Einsatz großer Sprachmodelle (Large Language Models, LLMs) zum Schreiben oder Umschreiben von Artikeln weitgehend zu untersagen, markiert einen Wendepunkt im gesellschaftlichen Umgang mit generativer künstlicher Intelligenz. Auf den ersten Blick wirkt das Verbot paradox: Gerade LLMs sind in der Lage, formal korrekte, gut strukturierte und enzyklopädisch anmutende Texte zu…