Alle Artikel zu Model Collapse

Das Wikipedia‑Verbot für KI‑Texte ist ein Weckruf für Unternehmen

  Datenökologie, Governance und strategische Risiken im Zeitalter generativer KI   Das Wikipedia‑Verbot für KI‑Texte ist weniger ein KI‑Problem als vielmehr ein Signal für die Bedeutung stabiler unternehmensinterner Datenökosysteme. Model Collapse und »Habsburg AI« sind reale Risiken, entstehen jedoch nicht automatisch, sondern vor allem durch fehlende Daten‑Governance und unkontrollierten Einsatz synthetischer Inhalte. Die zentrale Botschaft…

Model Collapse und Datenökologie: Warum die englischsprachige Wikipedia KI‑generierte Artikeltexte untersagt

Abstract Die englischsprachige Wikipedia hat den Einsatz großer Sprachmodelle (LLMs) zum Generieren oder Umschreiben von Artikelinhalt untersagt und nur eng begrenzte Ausnahmen für Copyediting eigener Texte sowie Übersetzungsunterstützung zugelassen. Diese Entscheidung lässt sich nicht allein als redaktionelles Qualitätsinstrument verstehen, sondern als datenökologischer Eingriff in ein globales Trainingsdaten‑Ökosystem, das zunehmend durch synthetische Inhalte geprägt wird. Zentraler…

Warum Wikipedia den Einsatz generativer KI einschränkt: Habsburg KI als datenökologisches Risiko

Die Entscheidung der englischsprachigen Wikipedia, den Einsatz großer Sprachmodelle (Large Language Models, LLMs) zum Schreiben oder Umschreiben von Artikeln weitgehend zu untersagen, markiert einen Wendepunkt im gesellschaftlichen Umgang mit generativer künstlicher Intelligenz. Auf den ersten Blick wirkt das Verbot paradox: Gerade LLMs sind in der Lage, formal korrekte, gut strukturierte und enzyklopädisch anmutende Texte zu…