Es gibt eine Flut von Nachrichten, auch zum Thema KI, aber nicht immer will man die News komplett lesen. Aber das weiß man oft erst, wenn man den Artikel gelesen hat, also zu spät. Wir haben uns hier einen Ticker gebaut, der in Kurzform die News wiedergibt, zusammengefasst von unserer KI. Das teilen wir gerne mit Euch!
Aktuell läuft unsere Testphase, das KI-Training! Wir freuen uns über Feedback. Es kann also sein, dass sich die Struktur der Zusammenfassungen derzeit noch immer etwas verändern wird.
News-Team: ki-post@jobfellow.de
EBU-Studie: ChatGPT & Co. verzerren Nachrichten, schieben Fehler traditionellen Medien in die Schuhe
Eine neue Studie der Europäischen Rundfunkunion (EBU), an der öffentlich-rechtliche Sender aus 18 Ländern (u.a. ZDF, Radio Canada) teilnahmen, warnt eindringlich vor der Nutzung von KI-Assistenten zur Nachrichteninformation. Die Untersuchung von über 2.700 Antworten von ChatGPT (GPT4o), Copilot, Perplexity und Gemini ergab, dass fast jede zweite Antwort (45 %) fehlerhaft war: Sie enthielten irreführende Informationen, unterschlugen Kontext oder verwiesen auf falsche Quellen.
Besonders problematisch: Bei über 56 % der Antworten schoben die KI-Assistenten traditionellen Medien (z.B. tagesschau.de) Aussagen unter, die diese so nicht getätigt hatten, oder verwiesen auf unzuverlässige Quellen wie Reddit-Kommentare. Dies führt zu einem Vertrauensverlust bei den fälschlicherweise verlinkten Öffentlich-Rechtlichen.
Beispiele für Fehler: ChatGPT lieferte für die Frage nach der AfD in Ostdeutschland Restauranttipps in Kiew; Perplexity bezeichnete Viktor Orban als Diktator und verlinkte fälschlicherweise auf die Tagesschau als Beleg. Copilot lobte die NATO und verwandelte Zitate in Fakten.
Die Studie kritisiert zudem, dass KI-Assistenten Meinungen nicht ausreichend von Fakten trennen und "journalistisch die Grenzen ihres Wissens" nicht zugeben können – sie versuchen lieber, Lücken mit Erklärungen zu füllen, statt "Wir wissen es nicht" zu sagen.
ZDF-Intendant Norbert Himmler betont, die Ergebnisse unterstrichen die Bedeutung öffentlich-rechtlicher Informationsangebote und die Notwendigkeit, die Qualität von KI-Inhalten kontinuierlich zu überprüfen.
Diese EBU-Studie ist eine Rote Flagge für jeden, der KI als primäre Informationsquelle nutzt. Als dein jobfellow solltest du die Implikationen dieser Studie ernst nehmen:
Doppelter Vertrauensverlust: KI-Generierungen sind nicht nur fehlerhaft, sie untergraben auch das Vertrauen in traditionelle Medien, indem sie ihnen Fake News unterschieben. Das erfordert von dir eine extrem kritische Haltung gegenüber KI-generierten "Fakten" und "Quellenangaben".
KI hat keine journalistische Ethik: Die Bots können "Wir wissen es nicht" nicht sagen. Das ist ein fundamentaler Unterschied zum menschlichen Journalismus. Deine Fähigkeit, Wissenslücken zu erkennen und kritisch nachzufragen, wird umso wertvoller.
Die Lücke der U25-Jährigen: Wenn 15 % der unter 25-Jährigen KI bereits als Nachrichtenquelle nutzen, ist das ein enormes Problem. Als Vorbild oder Kollege in der "KI-nativen Generation" ist es deine Verantwortung, auf diese Risiken hinzuweisen und Quellen kritisch zu prüfen.



