
Immer mehr Menschen nutzen KI-Tools, um sich über aktuelle Ereignisse zu informieren. Doch eine neue internationale Studie zeigt: KI-Systeme liefern Nachrichteninhalte häufig fehlerhaft. Die Untersuchung „News Integrity in AI Assistants“ der Europäischen Rundfunkunion (EBU), an der unter anderem ARD und ZDF beteiligt waren, kommt zu dem Ergebnis, dass 45 Prozent der KI-Antworten mindestens einen erheblichen Fehler enthalten – unabhängig von Sprache, Region oder Plattform.
Die Studie wurde von 22 öffentlich-rechtlichen Medienorganisationen aus 18 Ländern in 14 Sprachen durchgeführt. Über 3.000 Antworten der KI-Assistenten ChatGPT, Copilot, Gemini und Perplexity wurden dabei von Journalist:innen anhand zentraler Kriterien bewertet: Genauigkeit, Quellenangaben, Unterscheidung zwischen Meinung und Fakten sowie Bereitstellung von Kontext.
Zentrale Ergebnisse der Studie
Von allen untersuchten Antworten wiesen 45 Prozent mindestens einen erheblichen Fehler auf, 31 Prozent hatten gravierende Probleme bei der Quellenangabe, und 20 Prozent enthielten deutliche Ungenauigkeiten, Halluzinationen oder veraltete Informationen.
Florian Hager, ARD-Vorsitzender und Intendant des hr, erklärt, dass die Studie die Linie der ARD stütze: „Vertrauenswürdige Inhalte brauchen vertrauenswürdige KI-Systeme. Die ARD hat explizit Interesse daran, dass unsere Inhalte auch über KI für die Nutzenden zugänglich sind. Deshalb suchen wir aktiv das Gespräch mit den Plattformen, um zu guten Kooperationsmodellen zu kommen, die einen regulierten Zugang zu unseren Inhalten ermöglichen. Es braucht Mechanismen, die falsche und missverständliche Informationen verhindern.“
Auch ZDF-Intendant Dr. Norbert Himmler hebt die Rolle der öffentlich-rechtlichen Medien hervor: „Wir wollen die Informationsvermittlung im KI-Zeitalter aktiv mitgestalten und sehen die Chancen der Technologie. Die Studie belegt zugleich die Bedeutung öffentlich-rechtlicher Informationsangebote. Dort finden die Menschen verlässliche Informationen und journalistische Einordnung, die KI-Tools allein nicht leisten können. Die Studie unterstreicht zudem die Notwendigkeit, die Qualität von KI-generierten Inhalten kontinuierlich zu überprüfen.“
Nächste Schritte und Empfehlungen
Das Forschungsteam hat ein Toolkit zur Genauigkeit bei KI-Assistenten veröffentlicht, das Vorschläge für KI-Anbieter enthält, wie die Zuverlässigkeit von Antworten verbessert und die Medienkompetenz der Nutzer:innen gestärkt werden kann. Aufbauend auf den Ergebnissen der Studie sollen Fragen geklärt werden wie: „Was macht eine gute KI-Antwort auf eine Nachrichtenfrage aus?“ und „Welche Probleme müssen behoben werden?“
Darüber hinaus fordern die EBU und ihre Mitglieder die EU sowie nationale Regulierungsbehörden auf, bestehende Gesetze zur Informationsintegrität, zu digitalen Diensten und zur Medienvielfalt konsequent durchzusetzen. Angesichts der rasanten technologischen Entwicklungen sei eine fortlaufende unabhängige Überwachung von KI-Assistent:innen unerlässlich.
Globale Relevanz
Die Untersuchung baut auf einer BBC-Studie vom Februar 2025 auf und bestätigt, dass Probleme bei KI-generierten Nachrichten international verbreitet sind. Sie zeigt zugleich, dass öffentlich-rechtliche Medien eine zentrale Rolle dabei spielen, verlässliche und journalistisch geprüfte Inhalte bereitzustellen – gerade in Zeiten, in denen immer mehr Menschen Nachrichten über KI-Systeme beziehen.