Studie zeigt: KI-Suchmaschinen versagen bei korrekter Quellenangabe

Stock Foto KI Künstliche Intelligenz in der PR Digitale Zukunft
Foto: © AdobeStock / Jürgen Fälchle
Stock Foto KI Künstliche Intelligenz in der PR Digitale Zukunft
Foto: © AdobeStock / Jürgen Fälchle

Eine aktuelle Studie des Tow Center for Digital Journalism der Columbia University offenbart erhebliche Mängel bei der Quellenangabe durch KI-gestützte Suchmaschinen. Demnach liefern diese Tools in über 60 % der Fälle fehlerhafte oder unvollständige Zitationen, was die Verlässlichkeit solcher Systeme infrage stellt.

Untersuchung von acht KI-Suchsystemen

Die Forscher:innen testeten acht generative Suchmaschinen, darunter ChatGPT Search, Perplexity, Perplexity Pro, DeepSeek Search, Copilot, Grok-2, Grok-3 und Gemini. Insgesamt wurden 1.600 Suchanfragen durchgeführt, bei denen die KI-Modelle aufgefordert wurden, auf Basis von Textauszügen aus Nachrichtenartikeln den Titel, das Veröffentlichungsdatum, den Namen der Publikation und die URL korrekt anzugeben.

Ernüchternde Ergebnisse

Die Ergebnisse zeigen erhebliche Unterschiede zwischen den getesteten Systemen:

  • Perplexity wies mit einer Fehlerquote von 37 % die beste Leistung auf.
  • ChatGPT Search lag bei 67 % fehlerhaften Antworten.
  • Grok-3 schnitt mit einer Fehlerquote von 94 % am schlechtesten ab.

Besonders problematisch ist, dass viele KI-Systeme falsche Informationen mit hoher Überzeugung präsentieren, ohne Unsicherheiten zu signalisieren. So verwendete ChatGPT in nur 15 von 134 fehlerhaften Antworten einschränkende Formulierungen wie „möglicherweise“.

Fehlende oder fehlerhafte Quellenangaben

Ein zentrales Problem liegt in der mangelhaften oder fehlenden Quellenangabe:

  • Viele KI-Tools verlinken auf aggregierte Inhalte statt auf Originalquellen.
  • Einige generieren sogar erfundene oder fehlerhafte URLs, die ins Leere führen.

Diese Praktiken erschweren die Überprüfung der Informationen und benachteiligen Originalverlage, da der Traffic nicht auf deren Seiten gelenkt wird.

Umgehung von Zugriffsbeschränkungen

Die Studie stellte zudem fest, dass einige KI-Suchmaschinen die in der „robots.txt“-Datei festgelegten Zugriffsbeschränkungen von Verlagen ignorieren. So konnte beispielsweise Perplexity Inhalte von National Geographic abrufen, obwohl der Zugriff ausdrücklich untersagt war.

Fazit

Die Untersuchung des Tow Center macht deutlich, dass KI-gestützte Suchmaschinen derzeit erhebliche Defizite bei der korrekten Zitation von Nachrichtenquellen aufweisen. Für Nutzer:innen bedeutet dies, dass sie die Ergebnisse solcher Tools kritisch hinterfragen und gegebenenfalls auf traditionelle Suchmethoden zurückgreifen sollten, um die Zuverlässigkeit der Informationen sicherzustellen.

aicommission.org, aibase.com,GIGAZINE, Techzine Global, cjr.org