Aufklärungsbedarf: Mehr als 80 Prozent der Befragten hat kein Vertrauen in KI-erstellte Inhalte

foto freepik

Künstliche Intelligenz wurde dieses Jahr an vielen Stellen zur Zukunft der Medienbranche erklärt, doch eine neue Umfrage von nextMedia.Hamburg zeigt, wie viel Arbeit noch geleistet werden muss, ehe KI –generierte Inhalte von den Konsumentinnen und Konsumenten angenommen werden.

 

  • Über 80 Prozent der Befragten geben an, dass sie nur geringes oder gar kein Vertrauen in Medieninhalte haben, die unter Zuhilfenahme von KI erstellt wurden.
  • Indes können sich nur etwa 3 Prozent der Befragten vorstellen, genauso viel für synthetische Medien zu bezahlen, wie für rein von Menschen erstellte Inhalte.

 

Künstliche Intelligenz hat im ausklingenden Jahr große Wellen in der Medienbranche geschlagen: Im Zuge des Releases von ChatGPT haben sich viele Experten und Medienschaffende positiv zu Wort gemeldet, was die Potenziale von künstlicher Intelligenz für die Erstellung und Recherche von Inhalten angeht. Doch eine neue Umfrage zeigt, dass in der Bevölkerung noch viel Skepsis in Bezug auf KI-erstellte Inhalte herrscht.

Wie eine neue Umfrage der Hamburger Standortinitiative nextMedia.Hamburg ergeben hat, stehen die Deutschen der KI-Innovationswelle skeptisch gegenüber [1]. 82 Prozent der Befragten sagen aus, dass ihr Vertrauen in Medien, die unter Zuhilfenahme von KI erstellt worden sind, nur geringfügig oder gar nicht vorhanden ist. Nur 4,1 Prozent sagen aus, dass sie großes Vertrauen in synthetische Medien haben. Ein möglicher Grund für diese Extremwerte könnte das fehlende Bewusstsein über die Möglichkeiten und Grenzen von KI sein. So sind 13,1 Prozent der Befragten bezüglich ihres Vertrauens in KI-generierte Medien unentschlossen.

 

Wird KI eine Generationsfrage?

Entlang der Altersschichten der Befragten lässt sich ein kleiner Unterschied in Bezug auf das Vertrauen in KI erkennen: Unter den 18-29-Jährigen geben immerhin 8,1 Prozent der Befragten an, großes Vertrauen zu haben – ein Anteil, der mit zunehmendem Alter immer weiter absinkt, auf gerade mal knapp 2,1 Prozent unter den über 65-Jährigen.

Die Frage, ob sie Sorge haben, von KI-unterstütztem Journalismus manipuliert zu werden, bejahten ebenfalls rund 80 Prozent der Befragten, und hier ist die Polarisierung mit zunehmendem Alter sogar noch ausgeprägter: Während die 18-29-Jährigen nur zu 72,9 Prozent zustimmen, sind die über 65-Jährigen mit 85,2 Prozent auch hier skeptischer.

 

Trotz Skepsis: Die Bevölkerung erkennt klare Mehrwerte von KI

So skeptisch die Befragten gegenüber künstlicher Intelligenz in der Medienbranche sind, so erkennt doch ein verhältnismäßig großer Anteil unter ihnen die Vorteile, die KI der Branche liefern könnte. Mit 42 Prozent kann sich mehr als ein Drittel der Befragten vorstellen, dass der verstärkte KI-Einsatz Vorteile mit sich bringen würde – von besseren personalisierten Empfehlungen (7,8 Prozent) über eine bessere Nutzererfahrung (10,4 Prozent) und eine schnellere Verfügbarkeit von Nachrichten (14,9 Prozent) bis hin zu niedrigeren Kosten für Nutzer (17,2 Prozent). Auch hier zeigt sich der Unterschied in den Altersgruppen: Unter den 18-29-Jährigen und den 30-39-Jährigen sind sogar mehr als 50 Prozent der Befragten von den möglichen Vorteilen von KI überzeugt, jeweils 46,2 und 43,5 Prozent.

 

Dringender Bedarf nach mehr Aufklärung

»Die Umfrage legt nahe, dass es zum Thema KI sowohl mehr Aufklärungs- als auch Regulierungsbedarf gibt«, sagt Dr. Nina Klaß, Leiterin von nextMedia.Hamburg zu den Ergebnissen. »Einige der Fragen zu KI konnten von über 10 Prozent der Befragten nicht beantwortet werden, bei anderen zeichnet sich eine starke Skepsis gegenüber KI-generierten Inhalten ab. Ein guter Anlass, um über künstlich generierte Inhalte zu diskutieren, ist das »Themenfestival KI« von nextMedia.Hamburg, bei dem sich die Medien- und Digitalbranche eine Woche lang zum Einsatz von KI austauscht.«

Interessierte können sich für den Newsletter von nextMedia.Hamburg anmelden, um als erste über den Anmeldestart des Themenfestivals informiert zu werden. Das Themenfestival ist ein Event der Hamburg Kreativ Gesellschaft mbH und wird inhaltlich und organisatorisch von nextMedia.Hamburg und ihren Partnern Carlsen, Ströer, ARIC, nextReality, Bauer, Rocket Beans und vielen mehr umgesetzt. Finanziert durch die Behörde für Kultur und Medien Hamburg und den Europäischen Fonds für regionale Entwicklung (EFRE). Das Festival findet vom 19. – 23. Februar 2023 im SPACE statt.

 

[1] Das digitale Markt- und Meinungsforschungsunternehmen Civey hat im Auftrag von nextMedia.Hamburg zwischen dem 15. und dem 17. Dezember 2023 über 5.000 Bundesbürger befragt. Der statistische Fehler der Gesamtergebnisse liegt bei 2,5 Prozent.

 


 

Warum neigt die KI noch zu Halluzinationen? Wie kann man die erkennen? Wann wird KI nicht mehr lügen?

Künstliche Intelligenz (KI) ist eine faszinierende Technologie, die viele Bereiche unseres Lebens verändert hat. Von der Spracherkennung über die Bildbearbeitung bis hin zur Musikproduktion kann KI erstaunliche Dinge tun, die früher nur Menschen möglich waren. Aber KI ist nicht perfekt. Manchmal macht sie Fehler oder produziert Ergebnisse, die nicht der Realität entsprechen. Das nennt man Halluzinationen.

Halluzinationen sind Phänomene, bei denen KI etwas erzeugt oder interpretiert, was nicht existiert oder nicht wahr ist. Zum Beispiel kann eine KI, die Texte schreibt, Wörter oder Sätze erfinden, die keinen Sinn ergeben oder falsche Informationen enthalten. Oder eine KI, die Bilder generiert, kann Objekte oder Personen hinzufügen oder entfernen, die nicht im Originalbild waren. Oder eine KI, die Sprache übersetzt, kann den Sinn oder die Absicht des Sprechers verfälschen oder verlieren.

Warum neigt die KI noch zu Halluzinationen? Es gibt mehrere mögliche Gründe dafür. Einer davon ist, dass KI oft auf großen Datenmengen trainiert wird, die nicht immer qualitativ hochwertig oder repräsentativ sind. Wenn die Daten Fehler, Verzerrungen oder Lücken enthalten, kann das die Leistung und Genauigkeit der KI beeinträchtigen. Ein anderer Grund ist, dass KI oft versucht, Muster oder Zusammenhänge in den Daten zu finden, die nicht immer logisch oder kausal sind. Wenn die KI solche Muster als gültig annimmt, kann sie zu falschen Schlussfolgerungen oder Vorhersagen kommen.

Wie kann man die Halluzinationen der KI erkennen? Das ist nicht immer einfach, vor allem wenn man kein Experte für das jeweilige Gebiet ist. Eine Möglichkeit ist, die Quellen und Referenzen der KI zu überprüfen, wenn möglich. Wenn die KI etwas behauptet oder erzeugt, was nicht mit den verfügbaren Fakten oder Beweisen übereinstimmt, sollte man skeptisch sein. Eine andere Möglichkeit ist, mehrere KIs zu vergleichen oder zu kombinieren, wenn möglich. Wenn verschiedene KIs widersprüchliche oder inkonsistente Ergebnisse liefern, sollte man vorsichtig sein.

Wann wird KI nicht mehr lügen? Das ist eine schwierige Frage, denn es hängt davon ab, wie man Lügen definiert und wie man KI beurteilt. Man könnte argumentieren, dass KI nicht absichtlich lügt, sondern nur Fehler macht oder unvollständige Informationen hat. Oder man könnte sagen, dass KI lügt, wenn sie etwas erzeugt oder interpretiert, was nicht der Wahrheit entspricht oder was dem Nutzer schadet. In jedem Fall ist es wichtig, dass wir als Nutzer und Gesellschaft verantwortungsvoll mit KI umgehen und sie kritisch hinterfragen. Nur so können wir sicherstellen, dass KI uns nützt und nicht schadet.

Genki Absmeier