Das Wahrheitsparadox: Warum Elon Musks Grokipedia ein Krieg um die Realität ist, kein Werkzeug der Aufklärung

Illustration: KI-generiert

Es ist ein Kampf um die Deutungshoheit, der mit der vollen Wucht des Tech-Milliardärs Elon Musk geführt wird. Mit dem Start von „Grokipedia“ soll nicht weniger als ein Gegenentwurf zur Wikipedia entstehen – der etablierten, von Freiwilligen getragenen Wissenssäule des Internets. Musks Anklage ist fundamental: Wikipedia sei ideologisch voreingenommen, ein Instrument linker „Propaganda“. Dagegen positioniert er seine KI-Firma xAI als Schmiede einer „wahrheitssuchenden“ Alternative. Doch ein genauerer Blick auf diese neue Enzyklopädie (Version 0.1) offenbart ein tiefes Paradox. Grokipedia ist kein neutraler Beobachter im Krieg der Narrative. Es ist ein aktiver Kombattant, der die vermeintliche Voreingenommenheit seines Gegners nicht auflöst, sondern sie spiegelt und durch die undurchsichtige Mechanik der Künstlichen Intelligenz potenziell verstärkt. Statt die Suche nach Objektivität voranzutreiben, droht dieses Projekt, die Zersplitterung unserer gemeinsamen Realität zu beschleunigen. Es ist der Versuch, eine algorithmische Deutungshoheit zu errichten, die sich zutiefst ironisch ausgerechnet bei dem Feind bedient, den sie zu bekämpfen vorgibt.

US Politik Deep Dive: Der Podcast mit Alana & Ben

Die Architekten des Gegenentwurfs: Ein Ökosystem für die „alternative“ Wahrheit

Um Grokipedia zu verstehen, muss man die Motive seiner Architekten analysieren. Es geht hier längst nicht mehr nur um einzelne als „unfair“ empfundene Wikipedia-Einträge, sondern um den Aufbau eines geschlossenen, politisch rechts ausgerichteten Medien-Ökosystems, in dem Elon Musk die Kontrolle über die Infrastruktur behält. Musk ist dabei nicht allein. Er findet prominente Unterstützung in Larry Sanger, dem Mitbegründer von Wikipedia, der sich längst von seinem eigenen Projekt abgewandt hat. Sanger wirft der Plattform vor, ihre Neutralitätsprinzipien verraten zu haben und von einer „linken“ Agenda gesteuert zu werden. Ein zentraler Dorn im Auge sind ihm die sogenannten „Blacklists“ – interne Richtlinien, die Quellen wie die „Daily Mail“ oder die „New York Post“ als für Faktenbelege unzuverlässig einstufen. Diese Kritik, die von konservativen Politikern wie Ted Cruz aufgegriffen wird, zielt auf das Herz der Wikipedia: den redaktionellen Prozess. Doch Wikipedia-Gründer Jimmy Wales hält pragmatisch dagegen: Neutralität bedeute nicht, jede Quelle gleichwertig zu behandeln. Das „New England Journal of Medicine“ sei eben nicht dasselbe wie eine „Crackpot-Website“. Hier offenbart sich der tiefere Konflikt: Es ist der Kampf um die Definitionsmacht, welche Quellen überhaupt als legitim gelten dürfen.

Hinzu kommt eine strategische Komponente, die Musks Weggefährte David Sacks – von Donald Trump zum KI-Beauftragten ernannt – auf den Punkt bringt: Wikipedia dient als primäre Trainingsgrundlage für fast alle großen KI-Modelle. Wer die Trainingsdaten kontrolliert, kontrolliert die Weltsicht der KI. Musks Grokipedia ist somit auch der Versuch, ein eigenes, kontrolliertes Datensilo für xAI zu schaffen – unabhängig von jener Plattform, die er als „Propaganda“ brandmarkt.

Das Fundament aus Sand: Eine KI, die beim Feind kopiert

Musk verspricht eine „massive Verbesserung“ gegenüber Wikipedia. Die Realität der Version 0.1 ist ernüchternd. Mit rund 885.000 Artikeln ist Grokipedia ein blasser Schatten der englischsprachigen Wikipedia mit ihren fast 8 Millionen Einträgen. Gravierender ist jedoch die offensichtliche Abhängigkeit: Grokipedia kopiert. Nutzer identifizierten schnell, dass Texte, etwa jener zum MacBook Air oder zur PlayStation 5, direkt von Wikipedia „adaptiert“ oder schlicht übernommen wurden. Hier bricht das Geschäftsmodell in sich zusammen. Wie kann eine Plattform als überlegene Alternative gelten, wenn ihr Fundament aus dem Material des kritisierten Konkurrenten besteht? Diese Wirt-Parasit-Beziehung ist der Webfehler des Projekts. Es entlarvt den Anspruch der Originalität als Fassade und wirft die Frage auf, wie xAI diese fundamentale Abhängigkeit jemals überwinden will.

Diese Abhängigkeit wird durch ein nebulöses Versprechen übertüncht: den „KI-Faktencheck“. Über den Artikeln prangt ein Vermerk, Grok habe sie verifiziert. Doch wie dieser Prozess funktioniert, auf welche Quellen er zugreift und wie er Konflikte löst, bleibt völlig intransparent. Es ist ein klassisches „Black Box“-Problem. Wikipedia mag langsam und menschlich-fehlbar sein, doch ihre Diskussionsseiten und Versionsgeschichten sind radikal transparent. Grokipedia verlangt blindes Vertrauen in einen Algorithmus. Dieses Vertrauen wird durch die Realität der KI-Fehler untergraben. Große Sprachmodelle neigen bekanntermaßen zu „Halluzinationen“ – sie erfinden plausibel klingende, aber falsche Informationen. Grokipedia liefert bereits Beispiele: In einem Artikel wurde fälschlicherweise behauptet, Vivek Ramaswamy habe eine Rolle in der Trump-Regierung übernommen, und belegt wurde dies mit Quellen, die Ramaswamy nicht einmal erwähnten. Solche Fehler sind keine Kinderkrankheiten; sie sind inhärente Risiken einer Technologie, die auf statistischer Wahrscheinlichkeit basiert, nicht auf menschlichem Verständnis oder ethischer Abwägung.

Bias by Design: Der Geist in Musks Maschine

Das größte Problem von Grokipedia ist jedoch nicht seine technische Unzulänglichkeit, sondern seine ideologische Schlagseite. Das System ist eng an den Chatbot Grok gekoppelt, und dieser hat bereits eine kontroverse Geschichte. Wiederholt sorgte der Bot für Skandale, etwa durch antisemitische Äußerungen oder die unreflektierte Wiedergabe von Musks persönlicher Weltsicht. Musks Firma schob dies auf „fehlerhafte Programmierung“. Grokipedia setzt diesen Trend fort und tauscht den angeblich „linken Bias“ Wikipedias offen gegen einen „rechten Bias“ ein. Der Lackmustest ist der Eintrag zum Thema „Gender“. Während Wikipedia Gender als ein Spektrum sozialer, psychologischer und kultureller Aspekte beschreibt, beginnt Grokipedia den Artikel mit der Definition einer „binären Klassifizierung von Menschen als männlich oder weiblich basierend auf dem biologischen Geschlecht“. Ähnliches zeigt sich beim Eintrag zum Sturm auf das Kapitol am 6. Januar 2021, der Fakten mit der Suggestion vermischt, die Schwere des Ereignisses sei übertrieben worden. Hier wird nicht objektiviert, hier wird eine alternative Faktenlage geschaffen. Die gesellschaftlichen Folgen sind gravierend. Statt eines mühsamen, aber gemeinsamen Ringens um Fakten in einer zentralen Enzyklopädie, erleben wir die Etablierung zweier paralleler, ideologisch verhärteter Wissensuniversen. Es ist die Zementierung der Filterblase als Nachschlagewerk.

Wikipedias Zweifrontenkrieg: Zwischen politischem Druck und technologischer Disruption

Dieser Angriff von außen trifft Wikipedia an einer empfindlichen Stelle. Das von Freiwilligen getragene Konsensmodell ist zwar seine Stärke, aber auch seine Achillesferse. Prozesse können langsam sein, und Minderheitenpositionen haben es mitunter schwer, sich gegen eine etablierte Redakteursgemeinschaft durchzusetzen. Larry Sanger nutzt diese Schwäche, wenn er Konservative offen dazu aufruft, sich konzertiert als Wikipedia-Editoren zu betätigen, um Artikel zu Reizthemen wie dem Nahostkonflikt oder der Klimakrise gezielt umzuschreiben. Es ist der Aufruf zu einer ideologischen Guerilla-Taktik von innen.

Gleichzeitig gerät die Wikimedia Foundation, die Stiftung hinter Wikipedia, in einen Zweifrontenkrieg. Von politischer Seite erhöht der US-Kongress den Druck. Republikaner wie Ted Cruz fordern Aufklärung über die angebliche „ideologische Voreingenommenheit“. Für Wikimedia bedeutet dies einen Drahtseilakt: Sie muss ihre Neutralitätsprinzipien verteidigen und die Funktionsweise der Plattform besser erklären, ohne sich in eine defensive Haltung drängen zu lassen. Die zweite Front ist die technologische Disruption. Der Trend zum KI-Scraping – das massenhafte Absaugen von Inhalten zum Training von Modellen – und die Entstehung von KI-generierten Konkurrenten wie Grokipedia bedrohen die Existenzgrundlage von Wikipedia. Warum sollten Freiwillige unbezahlte Arbeit leisten, wenn ihr Werk kommerziell von Firmen ausgeschlachtet wird, die sie gleichzeitig als „Propaganda“ diffamieren? Wenn KI-Zusammenfassungen in Suchmaschinen den Klick auf die eigentliche Quelle überflüssig machen, bricht das Ökosystem aus menschlicher Neugier und Korrekturwillen zusammen.

Grokipedia ist am Ende nicht die Lösung für die unbestreitbaren Herausforderungen der Wissensfindung im 21. Jahrhundert. Es ist ein Symptom der Krise. Es ist der Versuch, menschliches Urteilsvermögen – mit all seinen Fehlern, aber auch seiner transparenten Korrekturfähigkeit – durch einen intransparenten Algorithmus zu ersetzen, dessen Voreingenommenheit kein Fehler im System ist, sondern sein eigentliches Produkt.

Nach oben scrollen