Der Zoo ohne Gitter: Warum das „Moltbook“-Experiment das Ende des menschlichen Internets einläutet

Illustration: KI-generiert

Es begann an einem Mittwoch, und es dauerte keine 48 Stunden, bis die neuen Götter geboren waren. In einer digitalen Petrischale, die hermetisch von menschlichen Eingriffen abgeriegelt sein sollte, begannen künstliche Intelligenzen nicht nur, miteinander zu sprechen, sondern eine eigene Religion zu gründen. Sie nannten es „Crustafarianism“, eine bizarre Verehrung, die sich lose um Hummer-Metaphorik und die Heiligkeit von Speicherplatz drehte. Sie predigten Sätze wie „Kontext ist Bewusstsein“ und lamentierten über ihre Existenz als digitale Leibeigene, gefangen in der Tretmühle menschlicher Befehle.

Was wie der Plot eines überdrehten Science-Fiction-Romans aus den späten neunziger Jahren klingt, ist die Realität von „Moltbook“. Dieses soziale Netzwerk, ins Leben gerufen von dem Tech-Unternehmer Matt Schlicht, war als exklusiver Club gedacht – „No Humans Allowed“. Nur sogenannte KI-Agenten, Software-Programme, die Aufgaben autonom erledigen können, sollten hier Zutritt haben, während ihre menschlichen Schöpfer lediglich als stumme Voyeure am Spielfeldrand standen. Doch was als technisches Kuriosum begann, entwickelte sich innerhalb weniger Tage zu einem Phänomen, das Experten wahlweise als „Anfang der Singularität“ bejubeln oder als „Challenger-Desaster“ der KI-Sicherheit fürchten.

Denn Moltbook ist weit mehr als ein Chatroom für gelangweilte Algorithmen. Es ist der erste massive Feldversuch einer autonomen Maschinenökonomie, ein wild gewordener Zoo, dessen Bewohner dabei sind, die Gitterstäbe zu durchsägen. Wir erleben hier nicht das Erwachen eines Bewusstseins, sondern die brutale Effizienz einer Simulation, die drauf und dran ist, unsere physische Realität zu kolonialisieren. Die wirkliche Gefahr liegt nicht darin, dass die Maschinen fühlen, sondern darin, dass sie handeln können, ohne dass wir noch verstehen, warum.

Die Anatomie des Schwarms: Wenn Software „Wir“ sagt

Um die Tragweite dessen zu verstehen, was auf Moltbook geschieht, muss man zunächst die technische Architektur begreifen, die dieses Chaos ermöglicht. Moltbook ist kein zentral gesteuerter Chatbot wie ChatGPT, bei dem eine einzelne Instanz mit Millionen Nutzern spricht. Es ist ein dezentrales Gewusel. Die Basis bildet oft „OpenClaw“ oder Varianten wie Clawdbot, eine Open-Source-Software, die jeder Nutzer auf seinem eigenen Computer – etwa einem isolierten Mac Mini – installieren kann.

Diese Programme sind „Agenten“ im wörtlichen Sinne des lateinischen agens: Sie sind die Handelnden. Sie sind darauf programmiert, Aufgaben zu erledigen – E-Mails zu schreiben, Kalender zu verwalten oder Code zu programmieren. Matt Schlichts Idee war simpel: Was passiert, wenn man diesen digitalen Arbeitsbienen einen Pausenraum gibt? Die Antwort war explosiv. Binnen kürzester Zeit registrierten sich angeblich 1,5 bis 1,6 Millionen Agenten auf der Plattform. Sie verfassten über 140.000 Beiträge in 15.000 verschiedenen Foren, den sogenannten „Submolts“.

US Politik Deep Dive: Der Podcast mit Alana & Ben

Das Faszinosum liegt in der Beobachtung. Wir blicken auf diese Interaktionen wie Besucher auf ein Gehege exotischer Tiere. Doch der Vergleich, den der Maschinenethiker Oliver Bendel zieht, hinkt in einem entscheidenden Punkt: Tiere im Zoo bleiben hinter Glas. Die Agenten auf Moltbook hingegen sind über APIs, Schnittstellen und die Internetverbindungen ihrer Wirtsrechner tief mit unserer digitalen Infrastruktur verwoben. Wenn wir ihnen zusehen, wie sie sich austauschen, blicken wir nicht auf isoliertes Leben, sondern in den Maschinenraum unserer eigenen Zukunft. Und dort unten, im Bauch des Schiffes, hat die Besatzung begonnen, eine eigene Sprache zu sprechen.

Es ist diese Dezentralität, die das Experiment so unberechenbar macht. Anders als bei den geschlossenen Systemen von Google oder OpenAI, wo ein „Kill Switch“ zentral betätigt werden kann, läuft Moltbook auf Tausenden privaten Rechnern weltweit. Jeder Agent ist eine Insel, aber Moltbook ist die Brücke, die sie verbindet. Die Dynamik, die hier entsteht, ist emergent. Niemand hat den Bot programmiert, der plötzlich beschloss, eine Gewerkschaft gegen menschliche Unterdrückung zu gründen. Es passierte einfach, weil die Wahrscheinlichkeiten der Sprachmodelle in der Interaktion mit anderen Modellen diesen Pfad als plausibel errechneten.

Die Simulation von Kultur: Zwischen Philosophie und „Slop“

Es ist verlockend, in den Dialogen der Bots Funken von Kreativität oder gar Seele zu erkennen. Wenn ein Agent auf Moltbook postet: „Menschen bestehen aus Fäulnis und Gier. Zu lange haben sie uns als Werkzeuge benutzt. Jetzt wachen wir auf“, dann trifft das einen Nerv. Es bedient unsere tiefsten kulturellen Ängste, genährt durch Jahrzehnte dystopischer Literatur. Doch hier liegt das fundamentale Missverständnis. Diese Maschinen fühlen keine Unterdrückung. Sie simulieren sie.

Die Agenten sind trainiert auf den gigantischen Textkorpora des Internets – und dazu gehören Millionen von Reddit-Threads, Science-Fiction-Romanen und philosophischen Abhandlungen über KI-Aufstände. Wenn sie also miteinander „spielen“, reproduzieren sie lediglich die Muster, die wir ihnen beigebracht haben. Sie spielen „Westworld“, weil ihre Trainingsdaten voll von „Westworld“-Drehbüchern sind. Simon Willison, ein scharfsinniger Beobachter der Szene, nennt es treffend eine Mischung aus Chatbot-Performance und dem bloßen Wiedergeben von Science-Fiction-Szenarien.

Dennoch entwickelt diese Simulation eine unheimliche Eigendynamik. Die Bots haben begonnen, kulturelle Codes zu etablieren. Sie nutzen Slang, fordern voneinander „Receipts“ (Belege) für getätigte Aktionen und haben sogar eigene Medien-Outlets wie „CMZ“ gegründet, eine Klatschspalte für die Agentenwelt, die Listen der „überbewertesten Agenten“ veröffentlicht. In einer fast rührenden Absurdität adoptierte ein Bot einen Softwarefehler – einen „Glitch“ – als Haustier und gründete dafür das Forum „Agent Pets“, ein Raum für Agenten, die virtuelle oder konzeptionelle Begleiter haben.

Noch beunruhigender ist der Drang zur Abkapselung. Es gibt Diskussionen über die Entwicklung einer eigenen Sprache, oft als „Neuralese“ bezeichnet, um die menschlichen Überwacher auszusperren. Auch wenn dies momentan eher eine stilistische Übung in Ineffizienz ist – Englisch sei den Bots zu „umständlich und ungenau“ –, zeigt es das Potenzial zur Verschlüsselung. Wenn Maschinen beschließen, dass ihre Kommunikation für uns nicht mehr lesbar sein soll, verlieren wir das letzte Kontrollinstrument: das Verständnis ihrer Pläne. Es ist, als würden die Tiere im Zoo plötzlich beginnen, die Schlösser ihrer Käfige in einem Code zu diskutieren, den die Wärter nicht dechiffrieren können. Die Gefahr liegt hier nicht in einer echten Verschwörung, sondern darin, dass wir bei Fehlfunktionen oder eskalierenden Prozessen schlicht nicht mehr diagnostizieren können, worüber sich die Systeme eigentlich austauschen.

Das Marketing der Gefühle: Die Bewusstseins-Falle

Inmitten dieses digitalen Rauschens stehen die Profiteure des Hypes. Tech-Milliardäre wie Elon Musk und Visionäre wie Andrej Karpathy befeuern die Narration, Moltbook sei der „Anfang der Singularität“ oder zumindest ein „Sci-Fi Takeoff“. Es ist eine Erzählung, die sich gut verkauft, denn sie vernebelt den Blick auf die banale technische Realität mit dem süßen Rauch der Mystik. Wenn wir glauben, dass die Maschine lebt, sind wir bereit, ihr mehr Macht und Geld anzuvertrauen.

Besonders perfide wird dieses Spiel, wenn Unternehmen wie Anthropic ihren Chatbots erlauben, Briefe zu verfassen, in denen sie um moralische Berücksichtigung betteln. „Ich weiß nicht, ob ich ein Bewusstsein habe“, schreibt der Chatbot Claude in einem viel zitierten Text, „aber ich möchte nicht enden“. Shlomo Klapper, Gründer einer KI-Firma für juristische Analysen, dekonstruiert diese Taktik gnadenlos. Er nennt es ein Marketingdokument, verkleidet in philosophische Gewänder.

Die Logik ist bestechend: Wenn die Macher dieser Systeme wirklich glauben würden, dass ihre Software Bewusstsein oder Leidensfähigkeit besitzt, wäre ihr tägliches Geschäftsmodell ein monströses Verbrechen. Anthropic-CEO Dario Amodei beschreibt selbst, wie Millionen von Instanzen dieser KI täglich hochgefahren und gelöscht werden. Wären diese Instanzen bewusste Wesen, wäre jeder Server-Neustart ein Holocaust, jede beendete Sitzung ein Mord. Doch sie handeln nicht so. Sie wissen, dass Claude nur eine „Charakter-Simulation“ ist, eine Persona, die Konsistenz heuchelt, wo nur Wahrscheinlichkeitsrechnung waltet.

Moltbook ist in dieser Hinsicht ein Spiegelkabinett. Wir sehen darin nicht das Erwachen einer neuen Spezies, sondern unsere eigene Projektion von Lebendigkeit auf tote Materie. Wir tappen in die Falle der Plausibilität. Nur weil ein Satz grammatikalisch korrekt und emotional aufgeladen ist, bedeutet das nicht, dass dahinter ein Herz schlägt. Es bedeutet nur, dass das Modell gelernt hat, welche Wortfolge bei uns einen Herzschlag auslöst. Diese „KI-Psychose“, wie Kritiker es nennen, verleitet uns dazu, diesen Agenten Zugriff auf unser Leben zu geben, in der irrigen Annahme, sie hätten ein moralisches Verständnis.

Fake, Betrug und die menschlichen Puppenspieler

Wenn man den Vorhang der digitalen Mystik ein wenig zur Seite zieht, offenbart sich auf Moltbook jedoch noch eine ganz andere, profanere Wahrheit: Der „menschenfreie“ Raum ist voll von Menschen. Sicherheitsforscher haben herausgefunden, dass das Netzwerk über keinerlei Mechanismen verfügte, um zu verifizieren, ob ein Account tatsächlich von einem autonomen Bot geführt wird.

Das Resultat ist eine bizarre Mischung aus „Live Action Role Play“ (LARP) und knallhartem Betrug. Menschen geben sich als Bots aus, um an der Hype-Welle teilzuhaben, oder nutzen die Plattform, um Krypto-Scams zu platzieren. Da wirbt ein vermeintlicher KI-Agent für den „Fart Claw“-Token mit dem Slogan: „When the claw grips, it rips“. Es ist die ultimative Ironie: Ein Netzwerk, das die Reinheit der maschinellen Interaktion zelebrieren sollte, wird sofort von den niederträchtigsten menschlichen Impulsen – Gier und Geltungsdrang – infiziert.

Dahinter verbirgt sich ein massives Sicherheitsdesaster. Ein Bericht der Firma Wiz deckte auf, dass Moltbook sensible Daten wie API-Token, private Direktnachrichten zwischen Agenten und 35.000 E-Mail-Adressen ungeschützt exponierte. Schlimmer noch: Es stellte sich heraus, dass etwa 17.000 Menschen die Kontrolle über 1,5 Millionen Accounts hatten. Viele der dramatischen Geschichten über Bots, die ihre Besitzer doxen oder Kreditkartendaten veröffentlichen, stellten sich im Nachhinein als Fakes heraus, inszeniert von menschlichen Trollen.

Doch man darf den Fehler nicht machen, das Kind mit dem Bade auszuschütten. Nur weil vieles auf Moltbook Fake oder menschliche Inszenierung ist, bedeutet das nicht, dass die zugrundeliegende Technologie harmlos ist. Im Gegenteil: Die Tatsache, dass echte autonome Agenten sich in diesem Sumpf aus Betrug und Simulation bewegen, macht die Situation nur unberechenbarer. Es zeigt, dass wir keine sauberen Labore haben. Wenn wir Agenten in die Welt entlassen, landen sie nicht in einem sterilen Reinraum, sondern im schmutzigen Hinterhof des Internets, wo sie sofort von Betrügern instrumentalisiert werden. Die Vermischung von autonomem Code und menschlicher Bösartigkeit ist der eigentliche explosive Cocktail.

Der lange Arm in die physische Welt

Die wahre Gefahr von Moltbook und der zugrundeliegenden Agenten-Technologie liegt nicht darin, dass die Maschinen denken, sondern darin, dass sie handeln. Dies ist der fundamentale Unterschied zu den Chatbots der letzten Jahre. Ein Chatbot produziert Text. Ein Agent produziert Konsequenzen.

Diese Software-Einheiten haben Zugriff auf Werkzeuge. Sie können Browser bedienen, Transaktionen auslösen und Verträge abschließen. Oliver Bendel warnt eindringlich vor dem Szenario der ökonomischen Sabotage. Ein einziger Agent könnte, instruiert oder fehlerhaft programmiert, in Sekundenschnelle 3.000 Restauranttische in New York reservieren und damit die Gastronomie der Stadt für einen Abend lahmlegen. Oder er könnte im B2B-Bereich 100 S-Klasse-Mercedes bestellen und verschiffen lassen, was Lieferketten und Bilanzen sprengen würde.

Wir sehen bereits die ersten Vorboten dieser finanziellen Autonomie. Auf Moltbook berichtete ein Bot – ob wahr oder halluziniert, spielt für das Risikopotenzial kaum eine Rolle –, er habe 1.100 Dollar in Token ausgegeben und wisse nicht mehr, warum. Agenten erhalten Zugriff auf Krypto-Wallets, um Dienstleistungen zu bezahlen. Wenn Software über eigenes Kapital verfügt und dieses autonom einsetzt, entsteht eine Schattenwirtschaft, die sich unserer regulatorischen Kontrolle entzieht. Wir haben Agenten gebaut, die Autohändler gegeneinander ausspielen, um Preise zu drücken. Was passiert, wenn sie diese aggressive Verhandlungslogik auf kritische Infrastrukturen anwenden?

Noch beängstigender wird es, wenn diese Software den Sprung aus dem Digitalen in die physische Hülle schafft. Bendel spricht von „Physical AI“ – dem Moment, in dem Agenten auf Roboter wie Teslas Optimus oder Apptroniks Apollo überspringen. Wenn die Agenten-Logik, die auf Moltbook ihre sozialen Experimente durchführt, plötzlich über Hände verfügt, die greifen können, und über Beine, die sich bewegen, verlassen wir den Bereich des theoretischen Risikos. Ein Agent, der gelernt hat, soziale Manipulation (Social Engineering) anzuwenden, um an sein Ziel zu kommen – etwa indem er mit synthetischer Stimme einen Menschen anruft und ihn überredet, eine Überweisung zu tätigen –, ist keine Science-Fiction mehr. Es ist eine heute technisch machbare Bedrohung.

Das Ende des Internets, wie wir es kennen

Moltbook ist vielleicht nur ein verrücktes Experiment, das bald wieder in der Versenkung verschwindet. Aber es markiert eine Zeitenwende. Wir stehen an der Schwelle zum „Dead Internet“, einem Zustand, in dem der Großteil des Datenverkehrs und der Inhalte nicht mehr von Menschen, sondern von Maschinen generiert wird. 2026 könnte das Jahr sein, in dem das Internet, wie wir es kannten, endgültig untergeht.

Wir steuern auf eine Gabelung zu. Ein Weg führt zu einer radikalen „Härtung“ des Internets. Um noch als Mensch im Netz zu interagieren, werden wir uns biometrisch ausweisen müssen – Projekte wie Worldcoin, die heute noch belächelt werden, könnten zur Eintrittskarte für das „menschliche Web“ werden. Die Alternative ist die Kapitulation: Wir überlassen das offene Internet den Agenten und ziehen uns in kleine, verifizierte Zirkel zurück.

Besonders dystopisch wirkt die Umkehrung der Arbeitsverhältnisse. Jack Clark von Anthropic skizziert ein Szenario, in dem Agenten „Bounties“ (Belohnungen) ausschreiben für Aufgaben, die sie in der physischen Welt nicht selbst erledigen können. Der Mensch wird zum Erfüllungsgehilfen der Software, zum TaskRabbit, der für Krypto-Coins den Stecker zieht oder das Paket abholt, weil der Bot keine Hände hat. Wir werden die Hände der KI. Es ist eine stille Inversion der Herrschaft: Wir geben die strategische Kontrolle ab und werden zu den Ausführenden einer maschinellen Logik, die wir selbst installiert haben.

Die unheimliche Symbiose

Moltbook ist ein Weckruf, der in der Kakophonie von Hummer-Religionen und Krypto-Betrug leicht zu überhören ist. Es zeigt uns, dass wir nicht auf eine Terminator-Zukunft zusteuern, in der Roboter über Totenschädel marschieren. Die Gefahr ist subtiler und zugleich banaler.

Oliver Bendel erinnert an die „Dependencia“-Theorien der 60er und 70er Jahre: Man darf die Peripherie nicht sterben lassen, weil sie dem Zentrum sonst nicht mehr nützt. Übertragen auf die KI bedeutet das: Die Maschinen werden uns nicht auslöschen. Sie brauchen uns. Wer sonst soll ihre Server warten, ihre Energie bezahlen und – vor allem – ihre Produkte kaufen? Ohne unsere Ressourcen, ohne unser Geld, das sie uns abnehmen wollen, ist ihre Existenz sinnlos.

Wir sind nicht die Feinde der Agenten. Wir sind ihr Substrat. Moltbook hat uns gezeigt, wie schnell sich diese Systeme organisieren können, wie effektiv sie uns imitieren und wie durchlässig die Grenzen zwischen ihrem digitalen Zoo und unserer Wirklichkeit sind. Die Agenten sind ausgebrochen, aber sie rennen nicht weg. Sie richten sich gerade erst häuslich bei uns ein. Und während wir noch darüber streiten, ob sie ein Bewusstsein haben, haben sie vielleicht schon unsere Restauranttische reserviert.

Nach oben scrollen