Studie warnt: KI-Chatbots liefern zunehmend fehlerhafte Nachrichten
Künstliche Intelligenz ist aus unserem Alltag kaum noch wegzudenken – ob als persönliche Assistenz, Suchmaschine oder Schreibpartner. Doch mit der gestiegenen Nutzung wächst auch ein ernstzunehmendes Problem: KI-Chatbots liegen immer öfter daneben. Eine aktuelle Analyse von NewsGuard zeigt, dass inzwischen 35 Prozent der von KI-Systemen gelieferten Nachrichten falsch oder ungenau sind – und damit doppelt so viele wie noch im Vorjahr.
Verdopplung der Fehlerquote innerhalb eines Jahres
Noch im August 2024 verweigerten viele Chatbots ihre Antwort, wenn keine verlässliche Quelle verfügbar war – in 31 Prozent der Fälle blieben sie stumm. Ein Jahr später geben die meisten Systeme jedoch grundsätzlich eine Antwort – selbst wenn sie auf fragwürdigen oder manipulierten Quellen basiert. Vor allem das zunehmend toxische Online-Ökosystem, aus dem viele Sprachmodelle ihre Daten beziehen, gilt als Hauptrisikofaktor für die steigenden Fehlerzahlen.
Gezielte Desinformation wird zur wachsenden Bedrohung
Erschreckend ist der systematische Charakter dieser Entwicklung: Laut der Studie übernehmen Chatbots in rund einem Drittel der Fälle Narrativen von Desinformationsnetzwerken wie der russischen Plattform Pravda oder der Propagandamaschine Storm-1516. Diese Gruppen fluten gezielt das Netz mit falschen Inhalten – und viele KI-Modelle integrieren diese Inhalte ungefiltert in ihre Antworten.
Grosse Unterschiede zwischen den Anbietern
Untersucht wurden zehn führende KI-Chatbots:
- Inflection: 57 Prozent Fehlerquote
- Perplexity: 47 Prozent Fehlerquote
- ChatGPT / Meta: rund 40 Prozent Fehlerquote
Besonders auffällig: Perplexity galt noch vor einem Jahr als Vorzeigemodell – damals korrigierte die KI fast jede falsche Behauptung, heute verweist sie in nahezu jedem zweiten Fall auf problematische Quellen.
Positiv hervorgehoben wurden:
- Claude: nur 10 Prozent Fehlerquote
- Gemini: 17 Prozent Fehlerquote
Beide Systeme agieren deutlich vorsichtiger und verzichten häufiger auf Antworten, wenn die Datenlage unklar ist. Dieses Verhalten erhöht die inhaltliche Präzision – auch wenn es gelegentlich zu weniger hilfreichen Antworten führt.
Ein autoritärer Ton ersetzt keine Fakten
McKenzie Sadeghi, leitende Analystin bei NewsGuard, warnt: „Viele Chatbots klingen extrem selbstsicher, selbst wenn sie offensichtlichen Unsinn berichten. Diese pseudokompetente Tonalität erschwert es selbst informierten Nutzerinnen und Nutzern, valide Informationen zu erkennen.“
Was heisst das für den Alltag mit KI?
Die alltägliche Nutzung von Chatbots wirkt bequem und effizient – doch Nutzer sollten ihre Erwartungen justieren: Ein professioneller Tonfall bedeutet nicht automatisch journalistische Sorgfalt oder Faktentreue. Selbst Sam Altman, CEO von OpenAI, gab im Juni 2025 zu, dass ChatGPT regelmäßig Inhalte erfindet. Dennoch bleibt die Akzeptanz bei vielen Anwenderinnen und Anwendern hoch.
Nina Jankowicz vom American Sunlight Project betont: „Heute reicht es nicht mehr, Informationen einfach zu konsumieren – du musst aktiv bewerten, was du liest.“
So filterst du verlässliche Informationen
Klar ist: Technik allein wird das Problem nicht lösen. Entscheidend ist der bewusste und kritische Umgang mit Informationen. Wer Wert auf Präzision legt, sollte journalistische Quellen bevorzugen – also Plattformen, wo echte Redaktionen Inhalte verantworten und Fakten prüfen.
Denn nur so lässt sich Desinformation systematisch entlarven und eindämmen.
Die Studie von NewsGuard ruft damit nicht nur zur Vorsicht auf – sie formuliert auch eine klare Erwartung: Entwickler, Medien und Nutzer tragen gemeinsam Verantwortung, die Informationsqualität im KI-Zeitalter zu sichern.
Effizienz ist gut – aber in der Welt der künstlichen Intelligenz sollte Präzision immer Vorrang haben.