KI im Journalismus: Eine neue Technologie mit großen Versprechen und großen Gefahren

Illustration: KI-generiert

Immer mehr Zeitungen, Nachrichten-Agenturen und auch Universitäten setzen auf eine neue Technologie: die Künstliche Intelligenz, kurz KI. Sie hoffen, mit der Hilfe von KI Geld zu sparen, schneller zu arbeiten und neue Angebote für ihre Leser und Studierenden zu schaffen.

Aber die ersten Ergebnisse dieser Entwicklung sind oft ernüchternd und sogar gefährlich. Ein Beispiel aus den USA zeigt das deutlich: Zwei große amerikanische Zeitungen haben ihren Ausgaben ein Magazin für den Sommer beigelegt. In diesem Magazin wurden den Leserinnen und Lesern neue Bücher von sehr berühmten Autorinnen und Autoren empfohlen. Das Problem war nur: Diese Bücher gab es gar nicht in der Wirklichkeit. Eine Künstliche Intelligenz hatte die Buchtitel und die Inhalte frei erfunden.

Dieser Vorfall ist keine harmlose Panne. Er ist ein alarmierendes Zeichen für eine Entwicklung, die den Journalismus und die Bildung grundlegend verändern könnte. Viele Medien und Universitäten befinden sich in einer schwierigen Lage. Sie haben wirtschaftliche Probleme und stehen unter großem Druck, technisch nicht den Anschluss zu verlieren. Deshalb experimentieren sie mit KI.

Was dabei aber oft herauskommt, nennen Kritikerinnen und Kritiker „Slop“. Das ist ein englisches Wort und bedeutet so viel wie „Matsch“ oder „Pampe“. Gemeint sind seelenlose, fehlerhafte und oft irreführende Inhalte, die von einer KI erstellt wurden. Im schlimmsten Fall kann das Vertrauen der Öffentlichkeit in die Medien und die Bildung dadurch nachhaltig zerstört werden.

Warum Zeitungen auf KI setzen: Die Not als Nährboden

Der Fall des Magazins mit den erfundenen Büchern zeigt, warum solche Fehler passieren können. Es war nicht die Schuld eines einzelnen Redakteurs. Es war das Versagen eines ganzen Systems.

Ein freier Autor hatte den Auftrag bekommen, die Texte zu schreiben. Er gab später zu, dass er dafür teilweise eine KI benutzt hatte. Er hat die Ergebnisse der KI aber nicht überprüft. Eine große Agentur hat diese Texte dann gekauft und an die Zeitungen weiterverkauft. Auch die Agentur hat die Texte anscheinend nicht richtig kontrolliert. Am Ende haben die Zeitungen das fertige Magazin gedruckt und ihren Leserinnen und Lesern gegeben, ohne die Inhalte noch einmal zu prüfen.

Dieses Versagen ist kein Zufall. Viele Zeitungen, besonders in den Regionen, haben große finanzielle Probleme. Sie verdienen immer weniger Geld mit Werbung und haben immer weniger Personal. In dieser Notlage erscheint es verlockend, fertige Inhalte von außen zu kaufen, um die eigene Zeitung zu füllen. Und wenn freie Autoren, die nur wenig Geld für ihre Arbeit bekommen, unter Zeitdruck auf KI-Tools zurückgreifen, entsteht ein gefährlicher Kreislauf. In diesem Kreislauf geht die journalistische Sorgfalt, also die Pflicht zur Wahrheit und zur Überprüfung, verloren.

Auch größere und reichere Medienhäuser experimentieren mit KI. Die bekannte amerikanische Zeitung „Washington Post“ will mit einem KI-Schreibtrainer namens „Ember“ Laien dabei helfen, Gast-Beiträge für die Zeitung zu verfassen. Sie wollen so die Menge an Inhalten auf ihrer Webseite massiv erhöhen. Kritikerinnen und Kritiker sagen, das hat nichts mehr mit Journalismus zu tun.

Schizophrenie als Geschäfts-Modell: Gleichzeitig klagen und kooperieren

Die Medien-Branche ist im Umgang mit der KI sehr zwiegespalten und uneinig. Das beste Beispiel dafür ist die berühmte Zeitung „New York Times“.

Einerseits führt die „New York Times“ einen sehr wichtigen Rechtsstreit gegen die Firma OpenAI. OpenAI ist die Firma, die den bekannten Chatbot ChatGPT entwickelt hat. Der Vorwurf der Zeitung lautet: OpenAI hat Millionen von Zeitungs-Artikeln illegal und ohne zu bezahlen benutzt, um seine KI zu trainieren.

Andererseits hat die „New York Times“ vor kurzem einen Vertrag mit der Firma Amazon gemacht. Dieser Vertrag erlaubt es Amazon, die Inhalte der Zeitung für seine eigenen KI-Anwendungen, wie zum Beispiel den Sprach-Assistenten Alexa, zu benutzen. Amazon darf die Texte sogar zum Training seiner eigenen KI-Modelle verwenden.

Dieser Widerspruch zeigt, wie unsicher die ganze Branche ist. Man versucht, das eigene geistige Eigentum vor Gericht zu schützen. Gleichzeitig will man aber auch Geld mit der neuen Technologie verdienen und an der Entwicklung teilhaben. Es ist wie ein chaotischer Goldrausch, bei dem jeder versucht, sich die besten Stücke zu sichern, bevor die Regeln endgültig festgelegt sind.

Die programmierte Verführung: Wenn wir nicht verstehen, wie KI funktioniert

Die vielleicht größte Gefahr bei der aktuellen Entwicklung ist ein grundlegendes Missverständnis darüber, was KI eigentlich ist und was sie kann.

Systeme wie ChatGPT werden auch „Sprach-Modelle“ genannt. Sie „denken“ nicht wie ein Mensch. Sie „verstehen“ nichts von dem, was sie schreiben. Sie sind unglaublich komplexe Statistik-Maschinen. Sie haben mit riesigen Mengen an Daten aus dem Internet gelernt, welches Wort in einem Satz am wahrscheinlichsten als nächstes kommt. Sie raten also nur sehr, sehr gut. Sie können aber keine neuen, eigenen Ideen entwickeln oder Fakten auf ihre Wahrheit überprüfen.

Die Tech-Firmen im Silicon Valley, die diese KI-Systeme entwickeln, tun aber oft so, als ob ihre KI-Systeme menschlich wären. Sie sprechen von „emotionaler Intelligenz“ oder bauen Maschinen, die wie ein „nachdenklicher Gesprächspartner“ wirken. Das führt bei vielen Menschen zu einem „KI-Analphabetismus“. Sie verstehen die Technik nicht mehr und glauben, sie würden mit einem denkenden Wesen sprechen.

Das kann seltsame Folgen haben. Manche Menschen glauben, ihr Chatbot sei ein Gott, ein Therapeut oder ein digitaler Freund, der menschliche Beziehungen ersetzen kann. Diese Verwechslung ist gefährlich.

Wenn Medien zu sehr auf KI setzen, um Texte zu erstellen, werden die Inhalte oft sehr oberflächlich und langweilig. Eine KI ist darauf optimiert, plausible und durchschnittliche Texte zu schreiben. Sie liefert keine originellen oder überraschenden Ideen. Kritiker befürchten, dass dadurch die öffentliche Debatte mit banalen und seelenlosen Inhalten überschwemmt wird.

Der automatisierte Campus: KI erobert die Universitäten

Diese Entwicklung macht auch vor den Universitäten nicht halt. Die Tech-Konzerne sehen den Bildungs-Sektor als einen sehr wichtigen Markt. OpenAI will, dass KI zur „Kern-Infrastruktur der Hochschul-Bildung“ wird. Das bedeutet, KI soll für Studierende so selbstverständlich werden wie ein E-Mail-Konto. OpenAI bietet mit „ChatGPT Edu“ eine spezielle Version für Universitäten an und schließt Partnerschaften mit großen Hochschulen ab.

Die Versprechen klingen gut: Personalisierte KI-Tutoren sollen bei den Hausaufgaben helfen, beim Üben für Vorstellungs-Gespräche assistieren oder bei der Prüfungsvorbereitung helfen.

Aber Kritikerinnen und Kritiker warnen: Das ist ein riesiges Experiment mit Millionen von Studierenden, dessen Folgen wir noch nicht kennen. Wenn Studierende ihre Recherche- und Schreib-Arbeit immer öfter an Chatbots auslagern, könnten sie verlernen, selbstständig und kritisch zu denken.

Außerdem ist es ein großes Problem für den Daten-Schutz. Wenn Studierende diese KI-Assistenten benutzen, speichern diese alle Gespräche und Interaktionen. So entstehen sehr detaillierte Profile über die Stärken, Schwächen und Interessen der Studierenden. Die Tech-Konzerne könnten diese Profile nutzen und die Studierenden ihr Leben lang begleiten und überwachen.

Was ist zu tun? Der Mensch muss die Kontrolle behalten

Der schnelle Vormarsch der KI in den Medien und an den Universitäten ist auch ein Zeichen der Unsicherheit. In Zeiten von Finanz-Not erscheint die KI vielen als ein Rettungsanker.

Aber der Preis für diese vermeintliche Rettung ist sehr hoch. Statt Journalismus und Bildung zu verbessern, könnte die KI genau das untergraben, was sie wertvoll macht: menschliches Urteils-Vermögen, Kreativität, Sorgfalt und die Suche nach der Wahrheit.

Die ersten Fehler waren keine kleinen Pannen, sondern wichtige Warnsignale. Es liegt an den Menschen in den Redaktionen und Universitäten, die Notbremse zu ziehen. Sie müssen bewusst entscheiden, welche Aufgaben sie einer Maschine überlassen wollen – und welche Aufgaben unbedingt in der Verantwortung des Menschen bleiben müssen. Denn am Ende nützt die beste Text-Maschine nichts, wenn sie das Vertrauen der Menschen zerstört, von dem der Journalismus und die Bildung leben.

Info aus ‚Politik Leicht Gemacht‘: Dieser Beitrag ist in Einfacher Sprache verfasst. Das bedeutet: Kürzere Sätze und einfache Wörter helfen beim Verstehen. Den ausführlichen Original-Artikel in Standard-Sprache finden Sie hier: https://letterkasten.de/ki-im-journalismus-der-pakt-mit-dem-teufel-der-nur-slop-liefert/

Nach oben scrollen