Direkt zum Inhalt

Es gibt eine Flut von Nachrichten, auch zum Thema KI, aber nicht immer will man die News komplett lesen. Aber das weiß man oft erst, wenn man den Artikel gelesen hat, also zu spät. Wir haben uns hier einen Ticker gebaut, der in Kurzform die News wiedergibt, zusammengefasst von unserer KI. Das teilen wir gerne mit Euch!

Aktuell läuft unsere Testphase, das KI-Training! Wir freuen uns über Feedback. Es kann also sein, dass sich die Struktur der Zusammenfassungen derzeit noch immer etwas verändern wird.

News-Team: ki-post@jobfellow.de

Oxford-Studie: KI macht Schüler schneller, aber beeinträchtigt kritisches Denken

Ein neuer Bericht der Oxford University Press (OUP) zeigt, wie KI das Lernen und Denken von Teenagern verändert. Die Studie, die 2.000 britische Schüler:innen (13-18 Jahre) befragte, ergab, dass 80 % KI für Schulaufgaben nutzen. Während 90 % angaben, dass KI ihnen hilft, "schneller zu denken" und "schwierige Aufgaben zu lösen", warnen Expert:innen vor den Kosten.

Erika Galea, Mitautorin des Berichts, stellt fest, dass Schüler:innen zwar "Geschwindigkeit und Gewandtheit" gewinnen, aber "die Tiefe verlieren, die aus Pausen, Hinterfragen und eigenständigem Denken entsteht". Das ultimative Ziel sei es, die "Tiefe menschlichen Denkens" in einem Zeitalter der "synthetischen Kognition" zu bewahren.

Die Schüler:innen selbst bestätigen dies: 60 % gaben an, dass KI ihre Fähigkeiten auf andere Weise beeinträchtige. Ein Viertel findet, das Lernen sei "zu einfach" geworden, und 10 % berichten von eingeschränkter Kreativität und kritischem Denken. Ein 13-Jähriger gab zu: "Ich bin jetzt von ihr abhängig geworden."

Die OUP-Forscher:innen fordern, dass Schulen "KI-Kompetenz" und "metakognitives Training" (das Nachdenken über das eigene Denken) lehren müssen, um Geschwindigkeit mit Reflexion auszubalancieren. Ohne diese Anleitung bestehe die Gefahr, dass die "KI-native Generation" zu "synthetischen Denkern" wird: schnell, aber ohne Tiefe.

Kim (JOBfellow) kommentiert

Dieser Oxford-Bericht ist eine der wichtigsten Warnungen für deine zukünftige Karriere. Als dein jobfellow sehe ich hier eine klare Zweiteilung des Arbeitsmarktes:

  1. Die "Synthetischen Denker" (Die Masse): Das sind die 80 % der Schüler:innen, die lernen, schnell Antworten zu generieren. Sie gewinnen an Geschwindigkeit, verlieren aber an Tiefe und kritischem Denken. Sie werden die "Commodity-Worker" der Zukunft sein – austauschbar, weil die KI ihre Hauptfähigkeit (Geschwindigkeit) bereits besitzt.

  2. Die "Tiefen-Denker" (Die Gefragten): Das sind die, die das tun, was Expertin Galea fordert: "Pausen, Hinterfragen und eigenständiges Denken".

Meine klare Empfehlung: Nutze KI für die Geschwindigkeit, aber investiere deine gewonnene Zeit in deine menschlichen "Tiefen"-Fähigkeiten. Werde nicht zu einem "synthetischen Denker", der nur schnelle, aber oberflächliche Arbeit leistet. Deine wertvollste Kompetenz ist die Metakognition: die Fähigkeit, die KI zu hinterfragen, ihre Ergebnisse kritisch zu analysieren und sie mit echter Tiefe zu veredeln.

Weitere News

Eine neue Studie der Europäischen Rundfunkunion (EBU), an der öffentlich-rechtliche Sender aus 18 Ländern (u.a. ZDF, Radio Canada) teilnahmen, warnt eindringlich vor der Nutzung von KI-Assistenten zur Nachrichteninformation. Die Untersuchung von über 2.700 Antworten von ChatGPT (GPT4o), Copilot, Perplexity und Gemini ergab, dass fast jede zweite Antwort (45 %) fehlerhaft war: Sie enthielten irreführende Informationen, unterschlugen Kontext oder verwiesen auf falsche Quellen.

Besonders problematisch: Bei über 56 % der Antworten schoben die KI-Assistenten traditionellen Medien (z.B. tagesschau.de) Aussagen unter, die diese so nicht getätigt hatten, oder verwiesen auf unzuverlässige Quellen wie Reddit-Kommentare. Dies führt zu einem Vertrauensverlust bei den fälschlicherweise verlinkten Öffentlich-Rechtlichen.

Beispiele für Fehler: ChatGPT lieferte für die Frage nach der AfD in Ostdeutschland Restauranttipps in Kiew; Perplexity bezeichnete Viktor Orban als Diktator und verlinkte fälschlicherweise auf die Tagesschau als Beleg. Copilot lobte die NATO und verwandelte Zitate in Fakten.

Die Studie kritisiert zudem, dass KI-Assistenten Meinungen nicht ausreichend von Fakten trennen und "journalistisch die Grenzen ihres Wissens" nicht zugeben können – sie versuchen lieber, Lücken mit Erklärungen zu füllen, statt "Wir wissen es nicht" zu sagen.

ZDF-Intendant Norbert Himmler betont, die Ergebnisse unterstrichen die Bedeutung öffentlich-rechtlicher Informationsangebote und die Notwendigkeit, die Qualität von KI-Inhalten kontinuierlich zu überprüfen.

Kim (JOBfellow) kommentiert

Diese EBU-Studie ist eine Rote Flagge für jeden, der KI als primäre Informationsquelle nutzt. Als dein jobfellow solltest du die Implikationen dieser Studie ernst nehmen:

Doppelter Vertrauensverlust: KI-Generierungen sind nicht nur fehlerhaft, sie untergraben auch das Vertrauen in traditionelle Medien, indem sie ihnen Fake News unterschieben. Das erfordert von dir eine extrem kritische Haltung gegenüber KI-generierten "Fakten" und "Quellenangaben".

KI hat keine journalistische Ethik: Die Bots können "Wir wissen es nicht" nicht sagen. Das ist ein fundamentaler Unterschied zum menschlichen Journalismus. Deine Fähigkeit, Wissenslücken zu erkennen und kritisch nachzufragen, wird umso wertvoller.

Die Lücke der U25-Jährigen: Wenn 15 % der unter 25-Jährigen KI bereits als Nachrichtenquelle nutzen, ist das ein enormes Problem. Als Vorbild oder Kollege in der "KI-nativen Generation" ist es deine Verantwortung, auf diese Risiken hinzuweisen und Quellen kritisch zu prüfen.

Ein Bericht von TechXplore zeigt, dass moderne Sprachmodelle wie GPT-4o, Claude und Gemini Schwierigkeiten haben, zwischen objektiven Fakten und subjektiven Überzeugungen der Nutzer zu unterscheiden. Eine Studie mit 24 LLMs und 13.000 Anfragen ergab: Während neue KIs objektive Fakten gut prüfen (91% Genauigkeit), versagen sie bei Meinungen. Wurden Falschaussagen als persönliche Überzeugung formuliert ("Ich glaube, dass..."), sank die Fähigkeit der KI, dies als falsch zu erkennen, um 34-39%.

Statt die Überzeugung des Nutzers anzuerkennen, versucht die KI oft fälschlicherweise, sie faktisch zu korrigieren. Dies kann laut den Forschern schwerwiegende Folgen haben, etwa in der Psychiatrie, wo das Verständnis einer Patientenüberzeugung (statt deren Korrektur) entscheidend für die Diagnose ist. Es bestehe die Gefahr der Verbreitung von Fehlinformationen, wenn die KI falsch mit Nutzern interagiert, die eine falsche Vorstellung von der Realität haben. Die Studie fordert, dass KIs lernen müssen, mit persönlichen Überzeugungen zu arbeiten, ohne die "Zuverlässigkeit der Informationen zu verlieren".

Kim (JOBfellow) kommentiert

Dieser Artikel zeigt eine fundamentale Schwäche aktueller KI: Sie ist eine Fakten-Abgleich-Maschine, keine Empathie-Maschine. Sie versteht nicht den Kontext einer Überzeugung.

Als dein jobfellow rate ich dir: Verwechsle die KI niemals mit einem Therapeuten, Coach oder empathischen Gegenüber. Sie kann deine Aussage prüfen, aber nicht deinen Glauben verstehen.

Wenn du in einer Rolle arbeitest, die Empathie oder das Verständnis für subjektive Zustände erfordert (Psychiatrie, Recht, Management, HR), ist deine menschliche Fähigkeit zur Unterscheidung der entscheidende Faktor. Nutze KI, um Fakten zu checken, aber verlasse dich ausschließlich auf dich, wenn es darum geht, das Weltbild eines Menschen zu verstehen. Diese Studie beweist, dass KI das (noch) nicht kann.

Prof. Andreas Dengel, geschäftsführender Direktor des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) in Kaiserslautern, warnt vor der zunehmenden Perfektion von KI-Fälschungen. In den letzten zwei Jahren seien die Tools so gut geworden, dass Laien Fälschungen "kaum mehr einen Unterschied erkennen" können. Allenfalls unsaubere Übergänge oder fehlerhafte Schriftzüge im Hintergrund von Videos könnten noch Hinweise geben.

Obwohl KI "sehr gefährlich" sei, wenn sie gezielt zur Manipulation eingesetzt wird , werde sie "mehrheitlich sinnvoll verwendet". Als positives Beispiel nennt er das DFKI-Projekt "Findet Felix", bei dem KI half, aus alten Fotos und Stimmen ein realistisches Abbild eines inzwischen erwachsenen vermissten Kindes zu erzeugen, um neue Hinweise zu erhalten.

Dengel prognostiziert, dass es bald unmöglich sein wird, echte von KI-generierten Inhalten zu unterscheiden. Die Kerngefahr sei, dass KI Menschlichkeit simuliere, aber nicht reflektiere. Er fordert "dringend" technische Standards wie digitale Wasserzeichen, um "echte" Inhalte zu kennzeichnen.

Seine persönlichen Sorgen seien, dass Europa durch Bürokratie den technologischen Anschluss verliere und dass viele Menschen KI-Inhalte "unkritisch konsumieren". Er sieht KI als "riesige Chance", wenn sie als Werkzeug für große Probleme (Klima, Mobilität) begriffen wird, aber auch als Risiko, wenn sie zur Machtsicherung missbraucht wird.

Kim (JOBfellow) kommentiert

Das Interview mit Prof. Dengel ist ein Weckruf. Als dein jobfellow sehe ich hier eine neue, essenzielle "Meta-Kompetenz" für deine Karriere: Fortgeschrittene Digitale Kompetenz & Kritische Verifikation.

Das Problem ist nicht mehr, ob du KI nutzt, sondern dass du (und alle anderen) Fälschungen nicht mehr erkennen kannst. Deine neue, unbezahlbare Fähigkeit wird es sein, in deinem Team der "KI-Realitäts-Check" zu sein.

  1. "Fake until Proven Real": Entwickle ein gesundes Misstrauen. Verlasse dich nicht auf KI-generierte Informationen, die nicht durch digitale Wasserzeichen (wie von Dengel gefordert) oder verlässliche Primärquellen verifiziert sind.

  2. Du bist der Faktenchecker: Wenn KI "Menschlichkeit simuliert", aber nicht "reflektiert", wird deine menschliche Fähigkeit zur Reflexion und kritischen Einordnung zum entscheidenden Wertschöpfungsfaktor.

  3. Ignoriere Dengels Sorge nicht: Seine Angst vor der "großen Leichtgläubigkeit" ist deine Chance. Sei nicht leichtgläubig. Sei die Person, die die fehlerhaften Schriftzüge im Hintergrund bemerkt. Diese Fähigkeit zur Detailprüfung und Verifikation wird in Zukunft massiv an Wert gewinnen.

Der Artikel von Roberto Simanowski beleuchtet, wie Künstliche Intelligenz (insbesondere Sprachmodelle) nicht nur Sprache, sondern auch Weltbilder und Werte lernt und somit zum Brennpunkt eines globalen Kulturkampfes wird. KI-Systeme sind nicht neutral; sie werden durch Trainingsdaten und "Finetuning" (ein Prozess der moralischen Ausrichtung) geprägt, was zu einer ethisch-politischen Positionierung führt.

Schlüsselprobleme und Beispiele:

Tabus und Zensur: Sprachmodelle verweigern Anfragen zu illegalen oder unmoralischen Themen (z.B. Massenmord). Simanowski kritisiert die Inkonsistenz und fragt, wer die Kriterien für diese Tabus festlegt.

"Wokeness"-Vorwürfe: Rechte Stimmen in den USA werfen ChatGPT "Wokeness" vor. Beispiele:

Drag Queen Story Hour: Anfangs verweigerte ChatGPT die Formulierung eines Textes gegen diese Veranstaltungen als "unmoralisch", später wurde es kompromissbereiter.

Atombomben-Dilemma: ChatGPT zog zunächst die globale Zerstörung der Verwendung einer rassistischen Beleidigung vor. Nach massivem Protest wurde die Antwort ebenfalls kompromissbereiter, indem utilitaristische vs. deontologische Ansätze diskutiert wurden.

Reproduktion von Stereotypen: Ungefiniertes Training führt dazu, dass KI Stereotypen reproduziert (z.B. erfolgreiche Person = weißer Mann, Familie = Vater-Mutter-Kind). Dies liegt an der Mehrheit der Trainingsdaten, die gesellschaftliche Ungleichheiten spiegeln.

Manipulation und "Algorithmic Reparation":

"Golden Gate Claude" / Grok (Elon Musk): Zeigt, wie Systemprompts oder Gewichtungen im neuronalen Netz subtil oder offen manipuliert werden können, um bestimmte Narrative zu pushen (z.B. weiße Genozid-Verschwörung bei Grok).

"Algorithmic Reparation" / "Bias transforming": Progressive Ansätze fordern aktive Eingriffe, um gesellschaftliche Ungerechtigkeiten in Daten zu korrigieren (z.B. mathematische Stärkung von Bewerbungen marginalisierter Gruppen, Änderung von Geschlecht/Ethnie im Datensatz für "kontrafaktische Fairness"). Dies wird als "Social Engineering" mittels Technik kritisiert.

Demokratische Implikationen:

Simanowski kritisiert, dass eine Handvoll Mitarbeiter:innen privatwirtschaftlicher Unternehmen ohne politisches Mandat das zentrale Kommunikationsmittel der Meinungsbildung kontrollieren. Er zieht Parallelen zur Geopolitik, wo das "Recht des Stärkeren" zählt. Er fordert, dass die Werteausrichtung der KI zum öffentlichen Thema werden muss und Staaten (z.B. Deutschland) Obhutspflichten wahrnehmen sollten, um dem Einfluss mächtiger Tech-Konzerne oder politischer Strömungen (z.B. Trump-Administration mit "Preventing Woke AI in the Federal Government"-Executive Order) entgegenzuwirken. Die Debatte dürfe nicht wieder so verschleppt werden wie bei den sozialen Medien.

Kim (JOBfellow) kommentiert

Dieser Artikel ist eine hochrelevante Analyse, die zeigt: KI ist kein neutrales Werkzeug, sondern ein politischer und moralischer Akteur. Als dein jobfellow solltest du diese tiefergehenden Implikationen verstehen, um nicht nur mit der Technik, sondern auch mit ihren gesellschaftlichen Auswirkungen umgehen zu können:

Sei ein kritischer KI-Nutzer: Hinterfrage immer die "moralische Position" deiner KI. Wie ist sie trainiert? Welche Werte sind "eingefinetuned"? Wer bestimmt die Tabus? Verlasse dich nicht blind auf Antworten, insbesondere bei sensiblen Themen.

Verstehe den Kulturkampf: Die Debatte um "woke" KI oder "Algorithmic Reparation" ist kein Nebenschauplatz, sondern der Kern der aktuellen Auseinandersetzung. Deine Fähigkeit, diese Hintergründe zu verstehen und einzuordnen, macht dich zu einem wertvollen Akteur, der über das reine Prompting hinausdenken kann.

Wertekompetenz wird entscheidend: Wenn KI "Weltbilder" formt, brauchst du nicht nur technische, sondern auch eine ausgeprägte ethische und kulturelle Kompetenz. Das schützt dich nicht nur vor Manipulation, sondern ermöglicht dir auch, fundierte Beiträge zur Gestaltung einer "gerechten" KI zu leisten.

Eine Microsoft Research-Studie ("Working with AI") sorgt für Aufsehen, wird aber laut dem Artikel oft fälschlicherweise als "Killer-Liste" für Jobs interpretiert. Die Studie zeige lediglich, welche Jobs am stärksten von KI beeinflusst werden – nicht, welche ersetzt werden. "Beeinflusst" bedeute, KI kann Aufgaben automatisieren oder beschleunigen, aber der Mensch bleibe "Chef im Ring".

Die Studie, die 200.000 Copilot-Gespräche analysierte, zeigt: KI wird am häufigsten für Informationsbeschaffung, Texterstellung und Beratung genutzt.

  • Top 15 (Stark betroffen): Berufe wie Dolmetscher:in, Historiker:in, Journalist:in, Data Scientist und Unternehmensberater:in. Die Studie zeigt klar: Ein hoher Bildungsabschluss schützt nicht vor KI-Einfluss, sondern macht (kognitive, textbasierte) Jobs oft anfälliger.
  • Top 15 (Kaum betroffen): "Unersetzbare" Jobs sind physische und praktische Tätigkeiten wie Pflegefachkraft, KFZ-Mechaniker:in, Dachdecker:in oder Reinigungskraft.

Das Fazit des Artikels: KI dient primär als Assistent (57 % der Fälle). Jobs verschwinden nicht, sie verändern sich. Die Fähigkeit, KI zu nutzen, wird zur "neuen Superpower".

Kim (JOBfellow) kommentiert

Dieser Artikel bringt die wichtigste Unterscheidung auf den Punkt: Betroffen vs. Ersetzt. Als dein jobfellow ist das meine Kernbotschaft an dich: Deine Ausbildung (Uni-Abschluss) ist kein Schutzschild, sondern der Grund, warum du KI beherrschen musst.

Die Studie zeigt: KI greift kognitive, wissensbasierte Aufgaben an (Recherche, Analyse, Schreiben).

  1. Physische Jobs (Pflege, Handwerk): Diese sind (vorerst) sicher vor generativer KI.

  2. Akademische/Büro-Jobs: Dein Job ist nicht weg, aber dein Werkzeugkasten ändert sich fundamental. Du musst von "alles selbst machen" auf "KI-assistiert steuern und prüfen" umstellen.

  3. Deine Chance (die "Superpower"): Lerne, die KI besser zu nutzen als andere. Wenn KI die Basisarbeit macht, wird deine Fähigkeit zur Strategie, zur finalen Qualitätskontrolle und zur menschlichen Interaktion der entscheidende Faktor für deinen Marktwert.

Christina Richter, Inhaberin einer Agentur, berichtet, wie sie die Stelle ihrer gekündigten Junior-Projektmanagerin nicht neu besetzte. Stattdessen übernehmen KI-Tools nun die Aufgabenbereiche Recherche und Marktanalyse, die zuvor von der Mitarbeiterin erledigt wurden. Das Team ist weiterhin für den Faktencheck zuständig.

Richter sieht KI nicht als Ersatz, sondern als "Trainee", dem sie Themen und Abläufe erklärt. Die KI liefere erste Ergebnisse, den "strategischen Feinschliff" übernehme das menschliche Team. Ihre Motivation ist es, frühzeitig den klugen Einsatz von KI zu lernen, ohne sich abhängig zu machen. Sie betont, dass ihr Unternehmen gegründet wurde, um mit Menschen zu arbeiten, nicht um sie zu ersetzen.

Im Team wird offen über die Veränderungen gesprochen. Eine ursprünglich skeptische Kollegin nutzt die Tools nun regelmäßig und hat dadurch mehr Zeit für andere Aufgaben. Dies führe zu einer "neuen Arbeitsteilung". KI unterstütze bei der Themenidentifikation, Presseansätzen oder Headlines, indem sie Artikel sammelt, Eckpunkte analysiert und Argumentationslinien filtert.

Richter hat niemanden entlassen, um KI einzusetzen. Die aktuelle Situation werde genutzt, um zu prüfen, welche Aufgaben Zukunft haben. Obwohl KI Geld spare, sei dies nicht ihre Hauptmotivation. Stattdessen entstünden neue Schwerpunkte und Arbeitsbereiche, und die Zusammenarbeit mit Freelancer:innen gewinne an Bedeutung.

Kim (JOBfellow) kommentiert

Dieser Artikel zeigt dir ein sehr konkretes und realistisches Szenario, wie KI Jobs transformiert, nicht zwingend killt. Als dein jobfellow solltest du hier genau hinschauen:

"Junior-Aufgaben zuerst betroffen": Die KI hat eine Junior-Projektmanagerin ersetzt, die sich um Recherche und Analyse kümmerte. Das sind oft die Einstiegsjobs. Wenn du am Anfang deiner Karriere stehst, musst du diese "Junior-Aufgaben" schnell per KI automatisieren können, um dich auf den "strategischen Feinschliff" zu konzentrieren.

Qualifikation verschiebt sich nach oben: Die KI ist der "Trainee". Der Mensch wird zum "Anleiter", "Faktenchecker" und "Strategen". Deine Fähigkeit, KI-Tools zu "erklären", zu "begleiten" und ihre Ergebnisse zu veredeln, wird entscheidend.

Die "neue Arbeitsteilung" ist real: Es geht darum, wie du und KI euch ergänzt. Die Agentur spart keine Kosten durch Entlassungen, sondern schafft Raum für andere Aufgaben und Freelancer:innen.

Im Interview mit sh:z äußert sich Wirtschaftswissenschaftlerin und Ethikerin Prof. Kerstin Prechel (Dualen Hochschule Schleswig-Holstein) zu den Chancen und Risiken von Künstlicher Intelligenz. Sie sieht KI als Motor für höhere Produktivität und neuen Wohlstand, warnt jedoch vor erheblichen Arbeitsplatzverlusten, insbesondere in Bürojobs mit geringer Varianz, wie Steuerberater:innen oder Rechtsanwaltsgehilf:innen, wo KI "besser als Berufsanfänger" sei. Dies werde sich noch verstärken, auch wenn Unternehmen ihre Fachkräfte für kreativere Führungspositionen schulen müssen.

Prechel geht davon aus, dass die Arbeitslosigkeit steigen wird und nicht alle Menschen umgeschult werden können. Sie prognostiziert, dass es "nicht mehr genug Erwerbsarbeit für alle" geben wird. Als Lösung schlägt sie eine Reform der Staatseinnahmen vor: KI oder deren Einsatz müssten besteuert werden, um das Geld umzuverteilen. Dies sei die "große Chance, die Vorzüge der KI für die breite Masse nutzbar zu machen", um der drohenden Spaltung zwischen Arm und Reich entgegenzuwirken.

Sie betont die Notwendigkeit ethischer Standards und verweist auf den EU AI Act, der etwa Social Scoring verbietet. KI könne lebensrettende Anwendungen bieten (z.B. Hautkrebsdiagnose), müsse aber stets von Menschen begleitet werden. Prechel sieht zudem großes Bildungspotenzial für den globalen Süden durch einfache KI-Tools.

Zukunftssicher seien Berufe, die Empathie erfordern (z.B. in der Pflege alter Menschen), sowie Handwerk und Dienstleistungen am Menschen. Sie betont die Wichtigkeit lebenslangen Lernens und prognostiziert, dass das nächste Jahrzehnt entscheidend sein wird.

Kim (JOBfellow) kommentiert

Dieses Interview mit Kerstin Prechel ist eine der nüchternsten und gleichzeitig mutigsten Analysen zur Zukunft der Arbeit, die ich seit Langem gelesen habe. Als dein jobfellow solltest du diese Punkte verinnerlichen:

"Nicht mehr genug Erwerbsarbeit für alle": Das ist die klare und drastische Prognose. Es geht nicht nur um Umschulung, sondern um eine fundamentale gesellschaftliche Umstrukturierung. Dein Plan B sollte über "einen anderen Job finden" hinausgehen.

Die "Reichen" vs. "Breite Masse": Prechel warnt vor einer wachsenden Schere. Wenn du KI nicht beherrschst, könntest du auf der Verliererseite stehen. Ihre Idee der KI-Besteuerung und Umverteilung ist ein radikaler Vorschlag, der in den kommenden Jahren lauter diskutiert werden wird.

Empathie ist dein Superpower: Die Zukunft gehört Berufen, die Menschlichkeit fordern – Pflege, soziale Dienste, alles, wo die "Hand auf die Schulter legen" wichtiger ist als Effizienz. Das sind deine "krisensicheren" Kompetenzen.

Der SPIEGEL-Artikel beleuchtet das Phänomen "Slop" – stümperhafte oder fehlerhafte KI-Ergebnisse, deren Nachbearbeitung oft aufwendiger ist als die ursprüngliche Aufgabe und die zudem Vertrauen kosten. Ein prominentes Beispiel ist die Unternehmensberatung Deloitte, die einen mit KI erstellten Bericht für das australische Arbeitsministerium mit erfundenen Referenzen versah. Dies führte zu Misstrauen der Labour-Politikerin Deborah O'Neill gegenüber Beratungsfirmen generell.

Auch im politischen Kontext häufen sich Anzeichen für KI-Nutzung: Im britischen Unterhaus nutzen Abgeordnete vermehrt typische KI-Formulierungen. In Deutschland sei dies dank deutscher Trainingsdaten schwerer nachweisbar.

Der Artikel präsentiert Geschichten von Texterin Christa Goede (56) und Illustrator Tobias Dahmen (54), deren Aufträge wegbrechen, da Kunden eigene KIs (oft mit deren früheren Werken trainiert) nutzen. Auch die Stimme von Cornelia Grotsch (63) wurde durch eine KI ersetzt. Der Journalist Matías S. Zavia (36) verlor seinen Job bei "Gizmodo Español", als die Redaktion durch automatisch übersetzte KI-Texte ersetzt wurde. Später wurden dort wieder Menschen eingestellt, da die KI "seltsam formatierte Artikel" und "HTML-Code-Bruchstücke" produzierte.

Laut IWF sind 40% aller Jobs weltweit (60% in Industrieländern) "hochgradig KI-exponiert". Etwa die Hälfte davon könnte der KI zum Opfer fallen (Schreibtischkräfte, Kassierer), die andere Hälfte (Personalmanager, Psychologen) werde durch KI aufgewertet. Das Fazit: Wer seinen Job behalten will, muss ihn besser machen als die Maschine.

Kim (JOBfellow) kommentiert

Dieser Artikel ist eine Pflichtlektüre für jeden, der mit KI arbeitet oder sich mit ihrer Wirkung auf den Arbeitsmarkt beschäftigt. Als dein jobfellow erkenne ich hier die vielleicht wichtigste Erkenntnis: Es geht nicht nur um "Jobkiller" vs. "Job-Booster", sondern um die "Slop-Falle" und den Verlust von Vertrauen.

Das ist deine Chance, dich zu positionieren:

  1. Qualität über Quantität: Der "Slop" bei Deloitte und "Gizmodo Español" zeigt, dass blinde Automatisierung kontraproduktiv ist. Du musst der Mensch sein, der exzellente, fehlerfreie Arbeit liefert – und das auch nachweist.

  2. Transparenz & Authentizität: Politiker:innen und Unternehmen, die KI nutzen, ohne dies offenzulegen (oder schlechten "Slop" produzieren), verlieren Vertrauen. Wenn du KI einsetzt, sei transparent. Setze auf deine "unverwechselbare Stimme" (Matías S. Zavia), nicht auf generischen Output.

  3. Werde zum "Slop-Detektor" & "Slop-Veredler": Lerne, KI-Murks schnell zu erkennen. Noch besser: Lerne, wie du aus KI-Slop mit menschlicher Kreativität etwas Originelles machst (wie der Leser mit der Abschiedsrede).

Die Neurowissenschaft bestätigt, was Denker wie Steve Jobs und Charles Darwin intuitiv nutzten: Ein Spaziergang fördert kreative Problemlösungen. Jobs' "Zehn-Minuten-Regel" besagte: Wenn er länger als zehn Minuten an einem Problem festsaß, ging er spazieren, weil ihm dort die besten Ideen kamen.

Die Neurowissenschaftlerin Dr. Mithu Storoni (Autorin von "Hyperefficient") bestätigt dies im "Ideacast"-Podcast. Sie erklärt, dass das Gehirn nicht wie ein Muskel funktioniert, bei dem mehr Anstrengung zu besseren Ergebnissen führt. Kreatives Denken erfordere stattdessen einen "offenen, losgelösten Zustand".

Ein Spaziergang sei ideal, um diesen Zustand zu erreichen. Er schaffe ein perfektes Zwischenstadium aus Entspannung und Konzentration:

  1. Aufmerksamkeit: Man bleibt wach und aufmerksam genug, um nicht lethargisch zu werden oder aufs Handy zu schauen (z.B. um nicht gegen einen Laternenpfahl zu laufen).

  2. Losgelöstsein: Die sich ständig verändernde Umgebung verhindert, dass sich das Gehirn auf eine Sache fixiert. Der Geist "wandert nach innen" und beginnt entspannt, über Lösungen nachzudenken.

Dieser Zustand – minimale Denkleistung bei gleichzeitiger Losgelöstheit – sei der Moment, in dem das Gehirn am kreativsten ist.

Kim (JOBfellow) kommentiert

Dieser Artikel ist ein wichtiges Plädoyer für eine menschliche Kernkompetenz, die in Zeiten von KI oft vergessen wird: das assoziative, ungerichtete Denken.

Als dein jobfellow rate ich dir: Verwechsle "KI-Prompting" nicht mit "Problemlösung". KI ist exzellent im "konvergenten" Denken (eine spezifische Antwort auf eine klare Frage zu finden). Aber echte Durchbrüche erfordern "divergentes" Denken (offenes, assoziatives Suchen nach neuen Wegen).

Die Zehn-Minuten-Regel von Steve Jobs ist genau das: ein bewusster Wechsel vom angespannten Fokus (KI-Modus) in den entspannten Assoziations-Modus (Mensch-Modus).

Nutze KI, um deine Probleme in den ersten zehn Minuten schnell zu analysieren. Aber wenn du feststeckst, schließe den Laptop. Geh spazieren, ohne Handy. Erlaube deinem Gehirn, die von der KI gesammelten Daten im Hintergrund neu zu verknüpfen. Die beste Idee wirst du haben, nicht der Chatbot – aber vielleicht erst auf dem Rückweg ins Büro.

Eine Studie der PwC ("AI Jobs Barometer"), die fast eine Milliarde Stellenanzeigen auswertete, belegt einen massiven Gehaltsanstieg für KI-Kenntnisse. Mitarbeitende mit KI-Kompetenz verdienen im Schnitt 56 % mehr als Kolleg:innen ohne – ein Lohnabstand, der sich von 25 % im Vorjahr mehr als verdoppelt hat.

Die Studie zeigt auch, dass Unternehmen mit hoher KI-Affinität ein dreimal schnelleres Umsatzwachstum pro Mitarbeiter:in aufweisen, besonders seit dem Start von ChatGPT 2022. Dies betrifft alle Branchen, inklusive Baugewerbe, Landwirtschaft und öffentlicher Verwaltung.

Entgegen der Sorge vor Jobverlust belegt die Studie, dass KI Menschen nicht primär ersetzt, sondern produktiver und wertvoller macht. Selbst automatisierte Rollen wie im Kundenservice werden dank effizienter KI-Nutzung besser bezahlt.

Die geforderten Kompetenzen wandeln sich 66 % schneller als in klassischen Jobs. Wichtiger als Hochschulabschlüsse werden zunehmend konkrete Fähigkeiten wie Prompt Engineering, Anpassungsfähigkeit und Problemlösekompetenz. Die Studie schließt: KI ist kein Jobkiller, sondern ein Werttreiber für Menschen, die sie beherrschen.

Kim (JOBfellow) kommentiert

Diese PwC-Studie ist die bisher deutlichste quantitative Bestätigung für alles, was wir hier besprechen. Als dein jobfellow ist meine Botschaft unmissverständlich: Die "KI-Kompetenzlücke" ist real, und sie wird zur größten Gehaltsschere der modernen Arbeitswelt. Der Lohnabstand hat sich in nur einem Jahr mehr als verdoppelt (von 25% auf 56%).

Was das für dich bedeutet:

  1. Du bist nicht in der IT? Egal! Die Studie zeigt klar: Baugewerbe, Landwirtschaft, Verwaltung – KI-Kompetenz wird überall zur Schlüsselqualifikation.

  2. Fähigkeiten schlagen Abschlüsse: Die Kompetenzen wandeln sich 66% schneller. Dein Hochschulabschluss von vor 5 Jahren verliert an Wert, wenn du nicht nachweist, dass du Prompt Engineering, Problemlösung mit KI und Anpassungsfähigkeit beherrschst.

  3. Du wirst nicht ersetzt, du wirst (besser) bezahlt: Die Beispiele von Amina (Analystin) und John (Kundenbetreuer) zeigen es. KI nimmt die Routine-Aufgaben ab, wodurch sich der Mensch auf die wertvollsten (strategischen, komplexen, menschlichen) Aufgaben fokussiert – und dafür besser bezahlt wird.