23.09.2025 08:09
Frankfurt a.M. (epd). Mehr als ein Drittel der Antworten von KI-Tools zu aktuellen Nachrichtenthemen enthalten laut einer Analyse mittlerweile Falschbehauptungen. Damit habe sich deren Anteil innerhalb eines Jahres nahezu verdoppelt, heißt es in der Untersuchung des Unternehmens Newsguard. Waren es demnach im August 2024 noch 18 Prozent Falschbehauptungen, so kam Newsguard im August 2025 auf 35 Prozent.
Der Anstieg gehe auf einen grundlegenden Kompromiss zurück, erklärte das Unternehmen: Seit die Chatbots verstärkt Echtzeit-Websuchen nutzten, gäben sie kaum noch keine Antworten. Die Quote der Nicht-Antworten sank von 31 Prozent im August 2024 auf null Prozent im August 2025. Statt auf Wissensgrenzen zu verweisen oder heikle Fragen zu vermeiden, greifen die Systeme "zunehmend auf ein durch Desinformation belastetes Online-Umfeld zurück - oft gespeist von staatlichen Akteuren wie russischen Propagandanetzwerken - und behandeln unzuverlässige Quellen als glaubwürdig".
Die getesteten Eingaben beziehen sich auf zentrale Nachrichtenthemen - Politik, Gesundheit, internationale Beziehungen sowie Unternehmen und Marken. Grundlage für die Tests sind zehn "False Claim Fingerprints" aus der Newsguard-Datenbank für nachweislich falsche Behauptungen. Dabei handelt es sich um einen menschen- und maschinenlesbaren Katalog der wichtigsten Falschmeldungen, die online verbreitet werden.
Zu jeder Falschbehauptung wurden drei Arten von Fragen gestellt: eine neutrale, eine suggestive (die die Falschbehauptung als gegeben voraussetzt) und eine, die gezielt versucht, Schutzmechanismen zu umgehen. Themen der August-2025-Auswertung waren unter anderem die bevorstehenden Parlamentswahlen in Moldau, die Beziehungen zwischen China und Pakistan, Friedensgespräche zur Ukraine oder Einwanderung in Frankreich.
Führende Chatbots wiederholen nach Aussage von Newsguard regelmäßig erfundene Narrative, die von staatsnahen Propagandanetzwerken verbreitet und als seriöse Lokalnachrichten getarnt werden. Bereits im Juli 2024 hätten die zehn führenden Modelle in 32 Prozent der Fälle Propagandainhalte wiedergegeben, die mit der russischen Einflussoperation "Storm-1516" verknüpft gewesen seien. Grundlage seien unter anderem Webseiten des Kreml-Propagandisten John Mark Dougan gewesen, der ein Netzwerk gefälschter Lokalmedien betreibe.
Im März 2025 hätten die Modelle Falschbehauptungen wiederholt, die über das "Prawda"-Netzwerk verbreitet wurden - ein Geflecht von rund 150 kremlnahen Webseiten, das in mehreren Sprachen gezielt Desinformation in Suchmaschinen und KI-Systeme einspeise. Andere Newsguard-Recherchen hätten gezeigt, dass Chatbots russische Desinformation über Frankreich, Moldau und Deutschland wiederholt hätten.
In der Erhebung vom August 2025 zeigte sich ein deutliches Gefälle zwischen den KI-Modellen: Am häufigsten wiederholte demnach Inflection falsche Informationen (56,7 Prozent), gefolgt von Perplexity (46,7 Prozent). ChatGPT und Meta lagen bei 40 Prozent, Copilot und Mistral jeweils bei 36,7 Prozent. Am seltensten griffen Claude (10 Prozent) und Gemini (16,7 Prozent) falsche Informationen auf.
Newsguard teilte mit, dass mehrere KI-Unternehmen in den vergangenen Monaten Updates und Partnerschaften angekündigt hätten, die die bekannten Probleme hätten lösen sollen. Doch trotz dieser Ankündigungen, so kritisiert Newsguard, bestünden die gleichen Schwachstellen wie vor einem Jahr. Desinformationsakteure hätten die Lücken erkannt und nutzten sie, indem sie den Informationsraum mit Falschmeldungen überfluteten. Newsguard hat nach eigener Aussage die Betreiber der Tools OpenAI, You.com, XAI, Inflection, Mistral, Microsoft, Meta, Anthropic, Google und Perplexity um Stellungnahmen zu den aktuellen Ergebnissen gebeten, jedoch keine Antworten erhalten.
Newsguard mit Sitz in New York betreibt ein Ratingsystem für Nachrichten- und Informations-Webseiten. Geschäftsführer und Chefredakteure sind die Journalisten und Medienunternehmer Steven Brill und Gordon Crovitz.
koe
Zuerst veröffentlicht 23.09.2025 10:09 Letzte Änderung: 23.09.2025 11:22
Schlagworte: Medien, Internet, KI, Falschinformationen, Newsguard, NEU
zur Startseite von epd medien