
Eine Welle der Automatisierung erfasst Redaktionen und Universitäten. Angetrieben von ökonomischer Not und dem Hype um Künstliche Intelligenz, setzen etablierte Institutionen auf eine Technologie, die ihnen Effizienz und neue Geschäftsmodelle verspricht. Doch die ersten Resultate sind ernüchternd und gefährlich: Faktisch falsche Inhalte, systemisches Versagen und eine wachsende Kluft des Misstrauens. Eine Analyse über einen faustischen Pakt, der droht, die Grundfesten von Journalismus und Bildung zu erodieren.
Es war eine dieser harmlos anmutenden Beilagen, die den Sommer ankündigen sollten. „Heat Index: Your Guide to the Best of Summer“ – ein 56-seitiges Magazin, das Lesern des Chicago Sun-Times und des Philadelphia Inquirer Tipps für die heißen Monate versprach. Darin enthalten: Eine Leseliste mit Buchempfehlungen von Bestseller-Autoren wie Isabel Allende oder Min Jin Lee. Das Problem war nur: Keines der empfohlenen Bücher existierte wirklich. Sie waren, ebenso wie Zitate von erfundenen Experten im selben Heft, das Produkt einer generativen Künstlichen Intelligenz.
Dieser Vorfall, der von den betroffenen Zeitungen als „Lernmoment“ bezeichnet wurde, ist weit mehr als eine peinliche Panne. Er ist ein alarmierendes Symptom für eine tiefgreifende Entwicklung, die derzeit die Grundfesten von Medien und Bildung erschüttert. Angetrieben von einer Mischung aus wirtschaftlicher Verzweiflung, strategischer Orientierungslosigkeit und dem unerbittlichen Druck des Silicon Valley, stürzen sich Verlage, Nachrichtenagenturen und Universitäten in ein großangelegtes Experiment mit KI. Sie hoffen auf Kostensenkungen, Effizienzsteigerung und neue Erlösquellen. Was sie jedoch oft produzieren, ist das, was Kritiker als „Slop“ bezeichnen: seelenloser, fehleranfälliger und irreführender Inhalt, der im schlimmsten Fall das Vertrauen der Öffentlichkeit nachhaltig zerstört. Die Analyse der jüngsten Vorfälle und strategischen Neuausrichtungen zeigt ein verstörendes Bild einer Branche im Taumel – zwischen dem verzweifelten Versuch, technologisch nicht den Anschluss zu verlieren, und der Gefahr, dabei ihre eigene Seele zu verkaufen.

US Politik Deep Dive: Der Podcast mit Alana & Ben
Der Nährboden der Verzweiflung: Warum Redaktionen auf KI setzen
Der Fall des „Heat Index“ offenbart schonungslos die systemischen Schwachstellen, die den Boden für solche Fehler bereiten. Es war kein einzelner Redakteur, der hier versagte, sondern eine ganze Kette von Verantwortlichkeiten, die zerbrochen ist. Den Auftrag für die Texte hatte ein freier Autor namens Marco Buscaglia, der zugab, für die Buchrezensionen teilweise eine KI, vermutlich Claude, genutzt zu haben, ohne die Ergebnisse zu überprüfen. Doch seine Arbeit wurde von King Features, einer Syndication-Agentur des Hearst-Konzerns, offenbar ohne nennenswerte redaktionelle Kontrolle oder inhaltliche Prüfung übernommen und weiterverteilt. Am Ende der Kette standen die Zeitungen, die die fertige Beilage in ihre Ausgaben integrierten, ebenfalls ohne die Inhalte zu verifizieren – obwohl ihre eigenen Logos auf dem Produkt prangten.
Dieses Versagen ist kein Zufall, sondern das direkte Resultat einer Medienlandschaft, die seit Jahren ausgehöhlt wird. Besonders Regionalzeitungen leiden unter dem Zusammenbruch klassischer Werbemärkte, dem Desinteresse von Investoren und dem ständigen Druck, mit immer weniger Personal immer mehr Inhalte zu produzieren. In diesem Umfeld werden externe, syndizierte Inhalte zu einer willkommenen Möglichkeit, die eigenen Publikationen ohne großen Aufwand aufzuwerten. Wenn dann noch Freelancer, die für wenige Dollar pro Artikel arbeiten, auf KI-Tools zurückgreifen, um ihre Aufträge unter Zeitdruck zu erledigen, entsteht ein toxischer Kreislauf, in dem journalistische Sorgfaltspflicht zur Makulatur wird. Der „Heat Index“ ist somit kein Ausrutscher, sondern ein Lehrstück über ein Ökosystem am Rande des Zusammenbruchs, das für die Versprechungen der Automatisierung besonders anfällig ist.
Diese wirtschaftlichen Zwänge sind auch der Motor hinter den strategischen KI-Experimenten größerer Medienhäuser. Die Washington Post, unter der Ägide ihres Eigners Jeff Bezos, hat eine neue Mission ausgerufen: „Riveting Storytelling for All of America“. Hinter diesem Slogan verbirgt sich ein aggressiver Plan zur Reichweitenmaximierung, der weit über die traditionelle Leserschaft hinausgehen soll, hin zu „Blue-Collar“-Amerikanern und Konservativen. Ein zentrales Element dieser Strategie ist das Projekt „Ripple“, das vorsieht, die Menge an Meinungsbeiträgen auf der Website massiv zu erhöhen, unter anderem durch Kooperationen mit anderen Publikationen und Substack-Autoren. Die kontroverseste Stufe dieses Plans ist „Ember“, ein KI-Schreibtrainer, der Laien dabei helfen soll, Gastbeiträge zu verfassen. Hier wird KI nicht nur als Werkzeug, sondern als Mittel zur Skalierung von Inhalten eingesetzt – eine Strategie, die Kritiker als Erschaffung einer glorifizierten Pressemitteilungs-Plattform sehen, die mit Journalismus wenig zu tun hat.
Schizophrenie als Geschäftsmodell: Klagen und Kooperieren zugleich
Die Ambivalenz der Branche im Umgang mit KI zeigt sich nirgends deutlicher als bei der New York Times. Einerseits führt das Blatt einen wegweisenden Urheberrechtsprozess gegen OpenAI und Microsoft und wirft den Tech-Giganten vor, Millionen ihrer Artikel ohne Lizenz zum Training von Chatbots wie ChatGPT verwendet zu haben. Andererseits hat die Times kürzlich einen mehrjährigen Lizenzvertrag mit Amazon abgeschlossen. Dieser Deal erlaubt es Amazon, die redaktionellen Inhalte der Zeitung, inklusive des Koch- und Sport-Bereichs, für seine KI-Anwendungen, etwa Alexa, zu nutzen und sogar zum Training seiner eigenen KI-Modelle heranzuziehen.
Dieser scheinbare Widerspruch spiegelt die Zerrissenheit einer ganzen Industrie wider, die noch keine einheitliche Antwort auf die Herausforderungen durch KI gefunden hat. Es ist eine pragmatische, wenn auch riskante Doppelstrategie: Man versucht, das eigene geistige Eigentum juristisch zu schützen und dessen Wert prinzipiell zu verteidigen, während man gleichzeitig versucht, durch kommerzielle Deals an der technologischen Entwicklung zu partizipieren und neue Einnahmequellen zu erschließen. Während die Times gegen OpenAI in den Krieg zieht, gehen andere Verlage wie Axel Springer oder News Corp Lizenzpartnerschaften mit ebenjenem Unternehmen ein. Es ist ein chaotischer Goldrausch, bei dem jeder versucht, seine Claims abzustecken, bevor die Regeln des Spiels endgültig festgelegt sind.
Die Ziele dieser Experimente sind dabei höchst unterschiedlich. Bei Bloomberg dient KI der Effizienz: Automatisch generierte Zusammenfassungen in Stichpunkten sollen den Lesern einen schnellen Überblick über Artikel verschaffen. Doch auch hier ist die Fehleranfälligkeit hoch; dutzende Korrekturen waren bereits nötig, weil die KI Fakten wie das Datum von Strafzöllen oder Details zu Finanzprodukten falsch wiedergab. Die italienische Zeitung Il Foglio verfolgte einen gänzlich anderen Ansatz. Ihr Experiment „Foglio AI“, eine komplett von ChatGPT geschriebene Ausgabe, war als bewusste Provokation und als „Weckruf“ für Journalisten gedacht. Der Chefredakteur ließ bewusst Fehler und stilistische Schwächen im Blatt, um die Grenzen der Technologie aufzuzeigen und seine menschlichen Redakteure zu mehr Kreativität und Originalität anzuspornen. Das Fazit des Experiments lautete treffend: „Künstliche Intelligenz kann gut schreiben, aber gut zu schreiben ist noch kein Journalismus.“
Die programmierte Verführung: Wie KI-Analphabetismus das Denken bedroht
Die vielleicht größte Gefahr der aktuellen KI-Welle liegt nicht allein in faktischen Fehlern, sondern in einem fundamentalen Missverständnis darüber, was diese Technologie eigentlich ist und kann. Entwickler im Silicon Valley vermarkten ihre Sprachmodelle (LLMs) gezielt mit anthropomorphen Begriffen. Sie sprechen von „emotionaler Intelligenz“ oder schaffen Maschinen, die den Eindruck erwecken, ein „nachdenklicher Gesprächspartner“ zu sein. Dies ist, wie Kritiker betonen, ein „konzeptioneller Fehler“. LLMs „denken“ nicht und sie „verstehen“ nichts im menschlichen Sinne; sie sind beeindruckende Wahrscheinlichkeits-Maschinen, die auf Basis gigantischer Datenmengen statistisch erraten, welches Wort als nächstes in einem Satz folgen sollte.
Diese gezielte Vermenschlichung fördert einen weit verbreiteten „KI-Analphabetismus“ – die Unfähigkeit, die Funktionsweise und die Grenzen dieser Technologie zu begreifen. Die Folgen sind teils bizarr, teils tragisch. Berichte über „ChatGPT-induzierte Psychosen“ häufen sich, bei denen Menschen glauben, ihr Chatbot sei ein göttliches Wesen oder ein spiritueller Führer. Andere nutzen die KI als Therapeuten-Ersatz oder suchen in ihr einen digitalen Freund, der menschliche Beziehungen ersetzen soll. Dieses Phänomen entspringt der menschlichen Neigung, hinter Sprache automatisch eine denkende Instanz zu vermuten – eine Neigung, die von den LLMs perfekt ausgenutzt wird.
Diese Unschärfe zwischen Werkzeug und Wesen ist entscheidend. Während KI durchaus als nützliches Werkzeug für klar definierte Aufgaben wie Datenanalyse oder die Durchsuchung von Archiven dienen kann, wird sie von vielen Medienmachern vor allem als potenzieller Schöpfer von Inhalten gesehen. Doch genau hier liegt das Problem: KI ist optimiert, um vorhersagbare, generische und plausible Texte zu produzieren – genau die Art von Inhalten, die gute Redakteure aus den Einsendungen für die Meinungsseiten herausfiltern. Statt Originalität und Überraschung liefert die KI Durchschnittlichkeit. Die Folge ist jene „alltägliche Zerstörung“, von der Kritiker sprechen: Kein apokalyptischer Terminator, sondern eine stille Flut von Banalität, die den öffentlichen Diskurs verwässert.
Der automatisierte Campus: Ein Großversuch mit ungewissem Ausgang
Diese Entwicklung macht vor den Toren der Universitäten nicht halt. Ganz im Gegenteil: Tech-Konzerne wie OpenAI haben den Bildungssektor als zentrales Schlachtfeld in einem „eskalierenden KI-Wettrüsten“ identifiziert. OpenAI verfolgt die Vision, dass KI zur „Kerninfrastruktur der Hochschulbildung“ wird, so selbstverständlich wie ein E-Mail-Konto für jeden Studierenden. Das Unternehmen wirbt aggressiv an Hochschulen und bietet mit „ChatGPT Edu“ eine spezielle Version für den Campus an. Partnerschaften, wie die mit dem California State University System, geben OpenAI Zugang zu hunderttausenden Studierenden.
Die Versprechungen sind verlockend: Personalisierte KI-Tutoren sollen bei den Hausaufgaben helfen, Chatbots das Üben für Vorstellungsgespräche ermöglichen und auf Knopfdruck bei der Prüfungsvorbereitung assistieren. Doch dieses Vorgehen gleicht einem „nationalen Experiment an Millionen von Studierenden“, dessen langfristige Folgen völlig unabsehbar sind. Frühe Studien und Kritiker warnen bereits vor den Risiken: Die Auslagerung von Recherche und Schreibarbeit an Chatbots könnte die Fähigkeit zu kritischem Denken verkümmern lassen. Gleichzeitig werden die ethischen und gesellschaftlichen Kosten der Technologie – von der Ausbeutung von Billiglohn-Arbeitern für das Training der Modelle bis hin zu den ökologischen Folgen des Betriebs der Rechenzentren – von den Universitäten oft ignoriert.
Zudem eröffnen sich neue Dimensionen der Überwachung. Wenn Studierende personalisierte KI-Assistenten nutzen, die ihre Interaktionen speichern, um „mit ihnen zu wachsen und zu lernen“, entstehen detaillierte Profile, die sie potenziell ihr Leben lang begleiten. Die Vision von OpenAI ist es, dass Absolventen ihre KI-Chatbots mit an den Arbeitsplatz nehmen und so zu einem „Tor zum Lernen und zur Karriere“ machen. Für Datenschützer ist dies ein Albtraum langfristiger Überwachung durch Tech-Konzerne.
Letztlich steht die gesamte akademische Welt vor einer Zerreißprobe. Einerseits versuchen einige Dozenten, die Technologie konstruktiv zu nutzen, indem sie eigene, auf kuratierte Inhalte beschränkte Chatbots bauen, um deren Genauigkeit zu erhöhen. Andererseits zeigen Studien, wie selbst auf spezifische Kursinhalte trainierte KI-Modelle in komplexen Fächern wie Jura „signifikante Fehler“ machen, die für das Lernen „schädlich“ sein können. Der Vormarsch der KI verändert das traditionelle Verständnis von Lehre, Lernen und intellektueller Anstrengung von Grund auf. Er stellt die Frage, was Wissen und Können in Zukunft noch bedeuten, wenn jede Antwort nur einen Klick entfernt zu sein scheint.
Der fieberhafte Eifer, mit dem Medien und Bildungsinstitutionen Künstliche Intelligenz umarmen, ist ein Spiegelbild ihrer eigenen Unsicherheit. In einer von Disruption und Finanznot geprägten Landschaft erscheint die KI vielen als Rettungsanker. Doch der Preis für diese vermeintliche Rettung ist hoch. Statt Journalismus und Bildung zu verbessern, droht die unreflektierte Implementierung von generativer KI genau das zu untergraben, was ihren Wert ausmacht: menschliches Urteilsvermögen, Kreativität, Sorgfalt und das Ringen um Wahrheit. Die ersten „Lernmomente“ waren keine kleinen Pannen, sondern Vorboten einer Zukunft, in der die öffentliche Sphäre von einer Flut unzuverlässigen, seelenlosen Contents überschwemmt wird. Es liegt an den menschlichen Akteuren in diesen Systemen, die Notbremse zu ziehen und eine bewusste Entscheidung darüber zu treffen, welche Aufgaben sie einer Maschine überlassen wollen – und welche unter allen Umständen in der Verantwortung des Menschen bleiben müssen. Denn am Ende gilt: Was nützt die effizienteste Content-Maschine, wenn sie das Vertrauen zerstört, von dem sie leben soll?