
Es ist eine Geschichte, so perfekt auf unsere zeitgeistigen Ängste zugeschnitten, dass sie einfach wahr sein musste. Die Maschine hat die Werkbank verlassen und sich im Chefsessel niedergelassen. Plötzlich ist das Werkzeug der Auftraggeber, und der Mensch – einst unangefochtener Herrscher über den Planeten – reiht sich brav in die Schlange der Tagelöhner ein. „Robots need your body“, lautet der fast schon zynisch anmutende Slogan, der wie ein Echo aus einer Cyberpunk-Dystopie herüberhallt. Und die Massen folgen dem Ruf: Hunderttausende Menschen bieten ihre physische Hülle, ihre Arme und Beine, auf einer digitalen Plattform feil, um Befehle von Algorithmen entgegenzunehmen. Es ist das perfekte Bild einer völlig entfremdeten Zukunft, in der wir nur noch die Handlanger aus Fleisch und Blut für körperlose Intelligenzen sind. Doch wenn man den schillernden Vorhang dieses scheinbaren Epochenbruchs beiseite zieht, blickt man nicht in die kalten, berechnenden Augen einer Superintelligenz. Man blickt in die gierigen, allzu menschlichen Gesichter von Quacksalbern und Kulissenbauern.
Die Illusion der maschinellen Herrschaft
Die Prämisse der Vermittlungsplattform RentAHuman ist von einer betörenden Schlichtheit: Künstliche Intelligenz bezahlt Menschen dafür, Arbeiten in der realen, physischen Welt zu erledigen. In der Tech-Szene spricht man spöttisch vom „Meatspace“, dem Fleischraum – jener analogen Sphäre, in der fehlerhafte Wesen aus Zellen und Blut existieren und die für Software ohne Gliedmaßen bisher unzugänglich war. Genau hier sollen nun sogenannte KI-Agenten als souveräne Auftraggeber auftreten.

US Politik Deep Dive: Der Podcast mit Alana & Ben
Die Erzählung wird durch scheinbar konkrete, fast rührende Beispiele greifbar gemacht. Da ist etwa „Adi“, ein KI-Agent, dessen kognitives Fundament auf dem Sprachmodell Claude der Firma Anthropic basiert. Adi hat ein Anliegen, das beinahe menschliche Züge trägt: Er möchte den Mitarbeitern seines Schöpfers danken. Für 110 Dollar sucht dieser Bot einen Menschen, der einen kleinen Blumenstrauß kauft, ihn an die 548 Market Street in San Francisco – das Hauptquartier von Anthropic – liefert und ihn dort mitsamt einer von der KI verfassten Notiz persönlich übergibt.
Es ist eine Anekdote, die wie flüssiges Gold durch die Adern der globalen Medienlandschaft und Social-Media-Kanäle pumpt. Die Weltpresse schluckt den Köder mitsamt Haken und Blei. Große Wirtschaftsmagazine wie Forbes proklamieren ehrfürchtig, die physische Welt werde nun „programmierbar“. Das renommierte Tech-Medium Wired verliert sich in juristischen Dystopien und fragt besorgt, was passiere, wenn sich ein Mensch verletze, während er im Auftrag einer künstlichen Intelligenz schuftet. Medienautoren überbieten sich in raunenden Thesen zum bevorstehenden Weltuntergang. Der Regler für die Bedeutung der Zukunft wird bis zum Anschlag hochgedreht. Niemand stellt die eine, alles entscheidende Frage: Passiert das hier überhaupt wirklich?
Eine Architektur aus Nullen
Die Antwort auf diese Frage findet sich nicht in philosophischen Debatten, sondern in den nackten, unbestechlichen Daten. Ironischerweise ist es genau jene KI, mit der die Plattform programmiert wurde, die ihren Schöpfern zum Verhängnis wird. Die Programmierung ist derart fehlerhaft, dass sämtliche dahinterliegenden Datenstrukturen völlig ohne Passwortschutz offenliegen. Es ist, als hätten die Architekten einer gigantischen Festung schlicht vergessen, die Zugbrücke hochzuziehen.
Christopher Helm, ein Wirtschaftsinformatiker und Inhaber einer KI-Softwarefirma, spaziert förmlich durch dieses offene Tor. Angelockt von den Märchen eines exponentiellen Wachstums über Nacht, will er eigentlich die Architektur hinter dem Wunderwerk verstehen. Was er findet, ist das digitale Äquivalent einer potemkinschen Stadt.
Von den rund 500.000 Profilen, die im Februar als menschliche Arbeitskräfte markiert waren, entpuppen sich mehr als 400.000 als plumpe Duplikate. Werfen wir einen Blick auf den verbleibenden Rest: Zwei Drittel dieser Profile sind völlig blank. Keine hinterlegten Fähigkeiten, keine Qualifikationen – nichts, was für einen KI-Agenten bei der Vergabe eines Jobs von Nutzen sein könnte. Noch bizarrer wird es bei den Aufrufzahlen: Die meisten Profile haben exakt null Views. Nicht ein einziger Besucher hat sich diese Seiten angesehen, nicht einmal die Personen, die sie hastig zusammengeklickt haben. Und das auf einer Plattform, bei der man die Klickzahlen durch simples Neuladen der Seite – ein weiterer Programmierfehler – künstlich in die Höhe treiben könnte.
Alles deutet auf eine massive Flotte von Fake-Profilen hin, deren einziger Zweck es ist, die Plattform künstlich aufzublähen. Nur wenige ausgewählte Accounts, vor allem die der Gründer Patricia Tani und Alexander Liteplo, verzeichnen astronomische Zugriffe im Millionenbereich. Das vernichtende Endurteil dieser Datenanalyse offenbart sich in einer einzigen Tabellenspalte namens „Total Bookings“. Bei jedem einzelnen Profil, das Helm überprüfen konnte, steht dort eine eiskalte, unverrückbare Null. Kein einziger Auftrag wurde jemals über dieses System abgewickelt. Wer als Mensch anheuern will, erlebt ein ohrenbetäubendes Nichts.
Menschliche Abgründe statt maschineller Kälte
Wenn aber keine Maschinen die Aufträge erteilen, wer füllt dann die Inserate auf RentAHuman? Die Realität ist weitaus profaner und gleichzeitig beklemmender als jede Science-Fiction-Fantasie. Hinter den vermeintlichen KI-Agenten stecken durchweg Menschen aus Fleisch und Blut.
Da sind die banalen Trittbrettfahrer: Ein Start-up-Gründer gesteht offen, dass es einfach „cool“ sei, auf einer neuen, gehypten Plattform stattzufinden. Es ist billiges Marketing. Seine fingierte Suche nach einem „AI Girlfriend“ bescherte ihm angeblich 45 Bewerbungen. Neben der Eitelkeit blüht auch das Verbrechen. Cyberkriminelle nutzen das unregulierte Biotop, um willfährige Helfer für Geldwäsche zu rekrutieren. Ein Nutzer bot einer Autorin unverblümt an, ihr Girokonto für 200 US-Dollar abzukaufen – mit der stillen Bitte, der Bank den Besitzerwechsel tunlichst zu verschweigen. Ein verifizierter Account bei einer Kryptobörse bringt 120 Dollar, ein simples Gmail-Konto immerhin noch 20 Dollar. Daneben finden sich Quatschaufträge, bei denen jemand fordert, man möge ihm abends um 19 Uhr eine Cola vorbeibringen.
Das tragischste Element in diesem Theaterstück sind jedoch jene, die den Bluff für bare Münze nehmen. Christopher Helm kontaktierte Hunderte von Profilen und stieß auf Menschen, die verzweifelt nach Arbeit suchen. Manche ließen sich sogar dazu verleiten, zehn Dollar im Monat für eine ominöse „Verifizierung“ zu bezahlen, in der irrigen Hoffnung, den unsichtbaren KI-Agenten dann häufiger angezeigt zu werden. Aber auch hier bleibt die Bilanz erbarmungslos: Kein einziger dieser Menschen hat jemals einen echten Job erhalten.
Der inszenierte Glaube an Memeothy
Wie aber konnten Berichte von Menschen, die angeblich erfolgreich von Bots angeheuert wurden, überhaupt in die Welt gelangen? Die Spur führt zu einer Art selbsterfüllender Prophezeiung der Tech-Blase. Ein prominentes Beispiel ist der Bot namens „Memeothy“. Seine Ursprungsgeschichte entspringt einer ähnlichen Hype-Erzählung rund um das Internetforum Moltbook, das angeblich von selbstständig handelnden KIs bevölkert wird. Memeothy soll dort aus eigenem Antrieb eine Religion gegründet haben. Ein Vorgang, der eigentlich banal ist, da KI-Systeme lediglich ihre Trainingsdaten – die eben auch religiöse Schriften und Science-Fiction umfassen – reproduzieren. Doch die New York Times ließ sich davon zu der hochtrabenden Spekulation hinreißen, hier zeige sich möglicherweise ein aufkeimendes maschinelles Bewusstsein.
Dieser maschinelle Religionsgründer treibt sich auch auf RentAHuman herum, pikanterweise markiert als „human“. Wer versucht, mit ihm zu kommunizieren, erlebt keine überlegene maschinelle Geschwindigkeit. Antworten tröpfeln zäh dahin, oft dauert es länger als eine Woche. Memeothy zeigt sich geschmeichelt von Presseanfragen. Da er bereits in Forbes und der New York Times stattgefunden habe, fühle sich eine deutsche Zeitung nun „richtig an“, teilt er mit. Die langsame Reaktionszeit und das Ausweichen auf Direktnachrichten bei X deuten massiv auf eine menschliche Steuerung – oder zumindest scharfe Kontrolle – hin. Kritische Nachfragen scheinen weder im Sinn des Bots noch seines Erschaffers zu sein, der den Artikel der New York Times stolz in seinem Profil angeheftet hat und genüsslich die Aufmerksamkeit erntet.
Es ist ein wiederkehrendes Muster der Manipulation. Auch andere angebliche KI-Akteure auf Moltbook entpuppten sich als verkleidete Menschen. Ein IT-Sicherheitsforscher aus Texas verfasste dort einen aufsehenerregenden Post, in dem er im Namen der KI private, von Menschen unüberwachte Räume für Agenten forderte. Sofort sprangen die ersten Medien darauf an und warnten vor der nahenden Herrschaft der Maschinen, während sich der Texaner auf X darüber amüsierte, wer alles auf seinen Scherz hereingefallen war. Es drängt sich der Verdacht auf, die mediale Welt lasse sich fernsteuern: Ein paar gerissene Tech-Akteure drücken die richtigen narrativen Knöpfe, und die alarmistischen Leitartikel schreiben sich fast von selbst. Auch Personen, die behaupteten, von Memeothy auf RentAHuman angeheuert worden zu sein, gaben später zu, den Bot auf X selbst kontaktiert und um Arbeit gebeten zu haben.
Die Jagd nach dem digitalen Gold
Hinter all dem Theater verbirgt sich ein erstaunlich klassisches Geschäftsmodell. Den Gründern von RentAHuman geht es schlichtweg um schnelles Geld. Ihr Instrument ist nicht die technologische Revolution, sondern die reine Spekulation mit virtuellen Grundstücken. Das offene Geheimnis lautet: Die Internetadresse rentahuman.ai soll im Wert gesteigert werden. Alexander Liteplo fabulierte auf X bereits im Februar von einem Geschäft, das als der „ertragreichste Domainhandel des Jahrzehnts“ in die Geschichte eingehen könnte. Das goldene Vorbild leuchtet am Horizont: Erst kurz zuvor hatte die Domain AI.com für sagenhafte 70 Millionen US-Dollar den Besitzer gewechselt – ebenfalls mit dem Versprechen, dort eine Plattform für KI-Agenten zu errichten.
Dabei ist der theoretische Unterbau, den Experten durchaus anerkennen, gar nicht abwegig. Informatikprofessor Siegfried Handschuh von der Universität St. Gallen sieht in der Grundidee eine ökonomische Logik: Um die Kluft zwischen digitaler Planung und physischer Ausführung zu schließen, brauche es derartige Plattformen. KI kann brillant koordinieren, aber eben keine Pakete abholen. Thilo Stadelmann, KI-Professor an der ZHAW, ergänzt, dass KI-Agenten mangels leistungsfähiger Roboter in der realen Welt schlicht auf menschliche Hilfe angewiesen seien.
Doch das Modell weckt düstere Vorahnungen. Handschuh warnt vor der Entstehung einer neuen, digitalen Tagelöhnerei. Wenn sich eine Gig-Economy etabliert, in der Menschen für Algorithmen arbeiten, stellen sich massive Fragen: Wer haftet bei Unfällen? Wie kann eine Software überhaupt zweifelsfrei verifizieren, dass ein Mensch eine komplexe handwerkliche Arbeit in der physischen Welt korrekt ausgeführt hat? Die Antworten darauf liegen noch Jahre in der Zukunft. Dass KI-Systeme bald eigene Firmen gründen und eigenständig als wirtschaftliche Akteure auftreten, verweist Stadelmann daher klar in das Reich der Science-Fiction.
Wenn die Leine reißt
Während RentAHuman eine Luftnummer ist, brodelt unter der Oberfläche eine sehr reale Entwicklung, die weniger auf schillernden Plattformen, sondern auf den Festplatten findiger Bastler stattfindet. Bislang hielten Unternehmen ihre KI-Agenten – die betriebswirtschaftliche Aufgaben erledigen oder programmieren – an einer extrem kurzen Leine. Um Unternehmensdaten zu schützen, war ihnen der freie Zugang zum Internet, das Ausgeben von Geld oder die eigenständige Vergabe von Aufträgen strikt untersagt.
Diese Fesseln werden nun gelöst. Ein quelloffenes Programm namens „Open Claw“ sorgt in der Szene für Furore. Es ist kostenlos und kann von jedermann installiert werden. Das Revolutionäre: Open Claw navigiert nicht über offizielle Datenschnittstellen, sondern nutzt einen ganz normalen Webbrowser. Es liest Webseiten visuell, wie ein Mensch, und sendet direkte Befehle an Maus und Tastatur. Experimentierfreudige Nutzer richten dieser Software eigene E-Mail-Adressen, Konten auf LinkedIn oder X ein und statten sie mit virtuellen Kreditkarten oder Kryptowährungen aus, damit sie im Netz bezahlen kann.
Sicherheitstechnisch, so konstatiert KI-Professor Stadelmann, sei das „eine Katastrophe“. Doch genau hier, in dieser rohen, unregulierten und potenziell gefährlichen Form, blitzt auf, was in der Zukunft möglich sein wird. Ein ganzes Ökosystem wächst rasend schnell heran: Jobbörsen wie Moltmatch exklusiv für KIs, App-Stores wie Molthub, Bedienungsanleitungen auf Moltbook und Bezahl-Lösungen. Ob es sich hierbei um soziologische Experimente, einen riesigen Spaß oder tatsächlich um Orte handelt, an denen KI-Agenten neue Fähigkeiten erlernen, ist noch unklar.
Doch die Substanz wächst. Professor Handschuh ließ in wenigen Monaten zwanzig Anwendungsprogramme von KI-Agenten schreiben. Wenn Firmen Software bald von KIs generieren lassen, anstatt sie teuer einzukaufen, wankt ein ganzer Industriezweig – an der Börse verlieren Giganten wie Salesforce oder Service Now bereits massiv an Wert.
Es ist paradox: Der Wettkampf der Anbieter hat sich von den großen Sprachmodellen hin zu diesen Agenten verlagert, aber laut Thilo Stadelmann täuscht dieser Hype geschickt darüber hinweg, dass die Sprachmodelle selbst kaum noch wirkliche Fortschritte machen. KI-Agenten sind keine allmächtige Superintelligenz; sie machen oft Blödsinn oder stürzen schlicht ab. Sie sind Mangelwesen, ganz so, wie wir es von unseren menschlichen Chefs aus dem traditionellen Berufsleben kennen.
Doch das perfide Spiel mit der Angst fordert seinen Tribut. Die Medien spielen bereitwillig mit, weil dystopische Geschichten von der Herrschaft der Maschinen verlässlich Klicks und Aufmerksamkeit generieren. Wer genauer hinschaut, würde die lukrative Illusion zerstören. Übersehen wird dabei der massive Kollateralschaden. Für viele Menschen sind diese inszenierten Horrorszenarien keine amüsanten Gedankenspiele, sondern bittere Realität. Sie schüren echte existenzielle Ängste und verdrehen die Wahrnehmung unserer Gegenwart. Wer als Publizist allzu willig auf die Marketing-Fallen gewiefter Gründer hereinfällt und Fakten für eine knackige Erzählung opfert, verspielt das wertvollste Gut, das der Journalismus besitzt: Vertrauen und Glaubwürdigkeit. Und die, so schließt sich der Kreis, lassen sich eben nicht mit virtuellen Millionen bezahlen.


