Neben ARD und ZDF beteiligten sich öffentlich-rechtliche Sender aus Frankreich, Kanada, Schweden, Spanien, den USA und anderen Ländern an der internationalen Studie "News Integrity in AI Assistants" unter Federführung der BBC, die am 22. Oktober veröffentlicht wurde. Es zeigte sich, dass KI-Tools Fehler produzieren – unabhängig von Sprache, Region oder Plattform.
Zentrale Ergebnisse der Studie:
- 45 Prozent aller KI-Antworten wiesen mindestens einen erheblichen Fehler auf.
- 31 Prozent der Antworten zeigten gravierende Probleme bei den Quellenangaben.
- 20 Prozent enthielten deutliche Ungenauigkeiten, Halluzinationen oder veraltete Informationen.
In einer gemeinsamen Mitteilung von ARD und ZDF sagt Florian Hager, ARD Vorsitzender und hr-Intendant: "Wir sehen unsere Linie von der Studie gestützt: Vertrauenswürdige Inhalte brauchen vertrauenswürdige KI-Systeme. Die ARD hat explizit Interesse daran, dass unsere Inhalte auch über KI für die Nutzenden zugänglich sind. Deshalb suchen wir aktiv das Gespräch mit den Plattformen, um zu guten Kooperationsmodellen zu kommen, die einen regulierten Zugang zu unseren Inhalten ermöglichen. Es braucht Mechanismen, die falsche und missverständliche Informationen verhindern."
ZDF-Intendant Dr. Norbert Himmler ergänzt: "Wir wollen die Informationsvermittlung im KI-Zeitalter aktiv mitgestalten und sehen die Chancen der Technologie. Die Studie belegt zugleich die Bedeutung öffentlich-rechtlicher Informationsangebote. Dort finden die Menschen verlässliche Informationen und journalistische Einordnung, die KI-Tools allein nicht leisten können. Die Studie unterstreicht zudem die Notwendigkeit, die Qualität von KI-generierten Inhalten kontinuierlich zu überprüfen."