Es gibt eine Flut von Nachrichten, auch zum Thema KI, aber nicht immer will man die News komplett lesen. Aber das weiß man oft erst, wenn man den Artikel gelesen hat, also zu spät. Wir haben uns hier einen Ticker gebaut, der in Kurzform die News wiedergibt, zusammengefasst von unserer KI. Das teilen wir gerne mit Euch!
Aktuell läuft unsere Testphase, das KI-Training! Wir freuen uns über Feedback. Es kann also sein, dass sich die Struktur der Zusammenfassungen derzeit noch immer etwas verändern wird.
News-Team: ki-post@jobfellow.de
EBU-Studie: Jede dritte KI-Antwort auf Nachrichtenfragen ist fehlerhaft oder erfindet Quellen
Dass KI "halluziniert", also Fehler macht, ist ein bekanntes und ungelöstes Problem. Eine neue Studie der Europäischen Rundfunkunion (EBU) zeigt, wie oft das bei Nachrichten-Abfragen passiert: Jede dritte Antwort (ca. 37 %) der gängigen Chatbots (Copilot, ChatGPT, Perplexity, Gemini) enthält Fehler.
Das ist zwar eine Verbesserung im Vergleich zu einer früheren Studie (damals war es die Hälfte), aber 45 % aller Antworten enthielten mindestens einen Fehler. Das häufigste Problem (31 %) waren komplett erfundene Quellen, was die nötige Kontrolle durch Nutzende massiv erschwert. Besonders schlecht schnitt überraschenderweise Googles Gemini ab.
Der Grund für die Fehler liegt in der Funktionsweise der Modelle:
-
Fehlendes Verständnis: Die KI versteht Konzepte nicht. Sie verknüpft Wissen nur basierend auf gelernten Wahrscheinlichkeiten und der Nähe von Informationen zueinander.
-
Falsche Verknüpfung: Dies kann dazu führen, dass eine KI einen Gerichtsreporter zum Mörder macht, nur weil sein Name im Artikel nah am Verbrechen genannt wurde – die KI versteht die Beziehung der Wörter nicht.
-
Kein Zählvermögen: Wenn eine KI die Anzahl der Buchstaben in einem Wort korrekt wiedergibt, liegt das daran, dass sie diese Information irgendwo gelesen hat, nicht daran, dass sie selbst zählen kann.
Dieser Artikel zeigt perfekt, warum deine menschlichen Fähigkeiten so entscheidend bleiben. KI ist ein mächtiges Werkzeug, aber ihr fehlt echtes Verständnis, kritisches Denken und ein Sinn für "Wahrheit".
Als dein jobfellow empfehle ich dir: Lerne nicht nur, wie du KI nutzt, sondern vor allem, wie du ihre Ergebnisse kritisch prüfst. Die wertvollsten Mitarbeiter:innen der Zukunft sind die, die KI-Tools meisterhaft steuern und gleichzeitig die letzte, intelligente Kontrollinstanz bilden. Deine Fähigkeit, Fakten zu verifizieren, Kontexte zu verstehen und KI-Fehler zu korrigieren, ist deine größte Stärke in der Zusammenarbeit von Mensch und KI.



