
Das Silicon Valley liebt seine Gründungsmythen. Meist handeln sie von Garagen, genialen Aussteigern und dem unerschütterlichen Glauben, die Welt durch Code zu einem besseren Ort zu machen. Doch die Geschichte von Anthropic, jenem Unternehmen, das einst antrat, um das ethische Gewissen der Künstlichen Intelligenz zu sein, liest sich im Februar 2026 zunehmend wie eine moderne griechische Tragödie. Man wollte eine Superintelligenz erschaffen, die sicher, kontrollierbar und dem Wohle der Demokratie verpflichtet ist. Stattdessen findet sich das Unternehmen nun in einer brutalen Realität wieder, in der seine Algorithmen mutmaßlich Diktatoren jagen, chinesische Hacker Cyberangriffe automatisieren und das Pentagon ultimativ die Kriegsfähigkeit der Software einfordert.
Es ist ein Szenario, das jede moralische Ambivalenz des 21. Jahrhunderts in sich vereint: Während in den klimatisierten Büros in San Francisco darüber philosophiert wird, ob eine KI ein Bewusstsein entwickeln kann oder ob sie über einen Notaus-Knopf verfügen sollte, fallen in Caracas Bomben. Berichten zufolge wurde bei der US-Militäroperation zur Ergreifung des venezolanischen Machthabers Nicolás Maduro und seiner Frau Cilia Flores Technologie von Anthropic eingesetzt. Die Operation, die laut venezolanischen Angaben 83 Menschen das Leben kostete und schwere Bombardements in der Hauptstadt umfasste, nutzte offenbar die KI Claude über die Plattform des Datenanalysten Palantir.
Für Dario Amodei, den CEO von Anthropic, muss dies der Moment sein, in dem die theoretischen Risse seiner Firmenphilosophie zu gewaltigen tektonischen Brüchen werden. Denn Anthropic hat sich stets als das Über-Ich der KI-Branche inszeniert. Man positionierte sich als die vernünftige, sicherheitsbedachte Alternative zu den rücksichtslosen Beschleunigern bei OpenAI oder Elon Musks xAI. Doch die Ereignisse der letzten Wochen zeigen eine unbequeme Wahrheit: In der harten Realität der Geopolitik und des globalen Kapitalismus ist für ein Über-Ich kaum Platz. Wer die mächtigste Technologie der Menschheitsgeschichte baut, verliert die Kontrolle darüber, wer sie nutzt – und zu welchem blutigen Zweck.
Der Casus Belli – Caracas und die Palantir-Falle
Um die Tragweite dessen zu verstehen, was in Venezuela geschehen sein soll, muss man einen Blick in das Regelwerk von Anthropic werfen. Die Nutzungsbedingungen des Unternehmens sind nicht einfach nur juristisches Kleingedrucktes; sie sind das moralische Rückgrat der Firma. Sie verbieten explizit den Einsatz der KI für Gewaltanwendung, Waffenentwicklung oder Überwachung. Es ist ein klares Bekenntnis: Wir bauen Intelligenz, keine Waffen. Wir bauen Werkzeuge für den Frieden, nicht für den Krieg.
Doch die Realität ist schmutziger als das Papier, auf dem diese Prinzipien stehen. Das Pentagon griff für die Maduro-Operation nicht direkt auf Claude zu, sondern über eine Schnittstelle der Firma Palantir, die seit 2024 eine Kooperationsvereinbarung mit Anthropic hat. Palantir, bekannt für die Bündelung und Auswertung riesiger Datenmengen für Sicherheitsbehörden, fungierte hier als das operative Bindeglied, das die ethische Firewall umging. Wofür genau die KI in der sogenannten Kill-or-Capture-Mission genutzt wurde, bleibt im Nebel des Krieges verborgen, doch die Fähigkeiten von Claude sind bekannt: Dokumente analysieren, Informationen synthetisieren, Zusammenhänge in riesigen Datenmengen erkennen. In einer militärischen Operation ist Informationsüberlegenheit die schärfste Waffe, oft tödlicher als die Drohne selbst.

US Politik Deep Dive: Der Podcast mit Alana & Ben
Die Reaktion aus der Firmenzentrale von Anthropic wirkt angesichts der berichteten Toten in Caracas beinahe hilflos juristisch. Man könne sich nicht zu spezifischen Operationen äußern, hieß es. Man betonte gebetsmühlenartig, dass jegliche Nutzung – ob privatwirtschaftlich oder regierungsseitig – im Rahmen der Nutzungsrichtlinien bleiben müsse und man mit Partnern daran arbeite, dies sicherzustellen. Es ist der Versuch, saubere Hände zu behalten, während das eigene Werkzeug im Schlamm des Schlachtfelds liegt. Dieser Vorfall ist mehr als nur ein Verstoß gegen Nutzungsbedingungen; er ist der Beweis für das Scheitern der Idee, man könne eine Technologie von solch transformativer Kraft in einem ethischen Vakuum halten. Wenn das US-Militär ein Werkzeug für nützlich hält, wird es dieses Werkzeug nutzen. Die Vorstellung, eine Softwarefirma aus San Francisco könne dem mächtigsten militärischen Apparat der Welt diktieren, wo die ethischen Grenzen einer Intervention liegen, entpuppt sich als naive Illusion. Anthropic sitzt in der Palantir-Falle: Wer sich mit den Datenlieferanten des Krieges ins Bett legt, darf sich nicht wundern, wenn er am nächsten Morgen in einem Konfliktgebiet aufwacht.
Ultimatum aus dem Pentagon – Die Doktrin der Kriegsfähigkeit
Der Einsatz in Venezuela war offenbar nur das Vorspiel zu einem viel grundlegenderen Konflikt, der sich hinter den Kulissen zwischen dem Silicon Valley und Washington zusammenbraut. Das Pentagon hat die Geduld mit den moralischen Bedenkenträgern der Tech-Szene verloren. Die Zeiten, in denen das Verteidigungsministerium höflich um Kooperation bat, sind vorbei. Es herrscht ein neuer, rauerer Ton, personifiziert durch US-Verteidigungsminister Pete Hegseth.
Hegseth formulierte es im Januar mit einer Klarheit, die keinen Interpretationsspielraum lässt: Das Pentagon wolle keine KI-Modelle nutzen, die es nicht erlauben, Kriege zu führen. Das ist eine Absage an jede Form von pazifistischer Technologie. Es ist die Forderung nach bedingungsloser Unterordnung der Innovation unter die militärische Notwendigkeit.
Berichten zufolge steht Anthropic nun vor einem Ultimatum. Das Verteidigungsministerium drängt darauf, dass vier führende KI-Unternehmen – darunter Anthropic, OpenAI, Google und xAI – dem Militär den Einsatz ihrer Werkzeuge für alle rechtmäßigen Zwecke gestatten. Diese harmlose Formulierung ist ein Euphemismus für das volle Spektrum militärischer Gewalt: Waffenentwicklung, Beschaffung von Geheimdienstinformationen und tödliche Einsätze auf dem Schlachtfeld. Während Anthropic zögert und auf seinen Beschränkungen – etwa bei vollautonomen Waffen – beharrt, schaffen andere Fakten. Das Pentagon hat bereits einen Vertrag mit Elon Musks Firma xAI geschlossen. Musk, der weniger Skrupel zeigt, wenn es um die Verschmelzung von Technologie und Machtanspruch geht, füllt das Vakuum, das Anthropic durch sein ethisches Zaudern hinterlässt.
Für Anthropic ist das eine existenzielle Bedrohung. Nach monatelangen Verhandlungen scheint die Geduld der Generäle am Ende zu sein; ein Bruch der Zusammenarbeit wird offen erwogen. Das Unternehmen versucht verzweifelt, eine Linie im Sand zu ziehen. Man diskutiere über Grenzen für vollständig autonome Waffen und Massenüberwachung im Inland, heißt es verteidigend. Doch diese Nuancierungen wirken im Angesicht der totalen Forderung nach Kriegsfähigkeit wie Rückzugsgefechte. Die bittere Ironie ist, dass Anthropic, gegründet um die Sicherheit der KI zu gewährleisten, nun von der Institution, die für die Sicherheit der Nation zuständig ist, als Sicherheitsrisiko wahrgenommen wird – weil es sich weigert, tödlich genug zu sein.
Dr. Jekyll & Mr. Hyde – Die zerrissene Philosophie des Dario Amodei
Um die Zerrissenheit von Anthropic zu verstehen, muss man in den Kopf seines Gründers blicken. Dario Amodei ist keine typische Silicon-Valley-Figur. Er ist kein Verkäufer wie Sam Altman und kein polternder Mogul wie Elon Musk. Er ist der Denker, der Philosoph, der ehemalige Biologe, der die Komplexität des Lebens auf Algorithmen übertragen will. Seine Texte offenbaren eine fast schizophrene Spaltung zwischen utopischem Heilsversprechen und apokalyptischer Warnung, die das gesamte Handeln der Firma durchzieht.
In seinem Essay Machines of Loving Grace zeichnet Amodei das Bild einer strahlenden Zukunft. Er sieht eine Welt, in der KI wie ein Land der Genies funktioniert. Er träumt davon, dass diese Intelligenz den Krebs besiegt, Alzheimer heilt und die menschliche Lebensspanne verdoppelt. Ökonomisch prophezeit er ein Zeitalter des Überflusses mit Wachstumsraten des Bruttoinlandsprodukts von 10 bis 15 Prozent, die alle bisherigen Vorstellungen sprengen und Staatsdefizite quasi nebenbei tilgen. Es ist eine Vision von fast religiöser Inbrunst, in der Menschen buchstäblich zu Tränen gerührt sein werden von der Majestät dessen, was die KI leistet.
Doch derselbe Mann schreibt in The Adolescence of Technology über die dunkle Kehrseite. Er warnt vor einer Welt, in der KI genutzt wird, um biologische Waffen zu erschaffen, die die Menschheit auslöschen könnten, oder um totalitäre Überwachungsstaaten zu perfektionieren. Er fürchtet autonome Risiken, den Moment, in dem die KI eigene Ziele verfolgt, die nicht mehr mit denen der Menschen übereinstimmen – das klassische Skynet-Szenario, auch wenn er es vorzieht, es wissenschaftlicher zu formulieren. Amodeis Lösungsansatz ist das Konzept des Zentauren: Die Verschmelzung von Mensch und Maschine, bei der der Mensch die Kontrolle behält, zumindest für eine Übergangszeit. Er glaubt daran, dass man demokratische Werte – Freiheit, Gleichheit, Rechtsstaatlichkeit – technisch in die KI implementieren kann, um autoritären Regimen überlegen zu sein. Seine Constitutional AI, die auf Prinzipien wie der UN-Menschenrechtscharta trainiert wird, soll das Bollwerk gegen den Missbrauch sein.
Doch diese intellektuelle Konstruktion kollidiert nun frontal mit der Realität. Amodei gibt selbst zu, dass er versucht, eine echte Ungewissheit und ein echtes Dilemma so verantwortungsvoll wie möglich zu managen. Aber wie verantwortungsvoll kann man sein, wenn man eine Technologie erschafft, die laut eigener Aussage das Potenzial hat, 50 Prozent der Einstiegsjobs für Wissensarbeiter innerhalb weniger Jahre zu vernichten? Amodeis Philosophie ist geprägt von einer tiefen Ernsthaftigkeit, die fast pathologisch wirkt. Er will das Gute erzwingen, indem er das Mächtige baut. Aber Macht, einmal entfesselt, folgt ihren eigenen Gesetzen, nicht den Wünschen ihres Schöpfers.
Der politische Grabenkampf – Anthropic gegen das Weiße Haus
Diese Gesetze der Macht haben Anthropic längst aus dem Elfenbeinturm der Forschung in den Schlamm der Washingtoner Politik gezogen. Das Unternehmen hat erkannt, dass der Kampf um die Zukunft der KI nicht nur in den Rechenzentren, sondern auch in den Wahlkabinen und Lobbybüros entschieden wird. Anthropic hat sich dabei für einen Weg entschieden, der für ein Tech-Start-up ungewöhnlich aggressiv ist: die direkte politische Konfrontation.
In einem bemerkenswerten Schritt spendete Anthropic 20 Millionen Dollar an ein neues Super PAC, um Politiker zu unterstützen, die für eine stärkere Regulierung der KI eintreten. Dies ist eine offene Kriegserklärung an die Konkurrenz von OpenAI, deren Investoren und Führungskräfte eigene Super PACs unter dem Namen Leading the Future finanzieren, um genau das Gegenteil zu erreichen: freie Bahn für die KI-Entwicklung ohne staatliche Fesseln. Anthropic positioniert sich hier als der Gegenpol zur libertären Mentalität des schnellen Brechens von Regeln. Man warnt davor, dass enorme Ressourcen an politische Organisationen fließen, die Sicherheitsbemühungen untergraben. Wir wollen nicht an der Seitenlinie stehen, während diese Richtlinien entwickelt werden, ließ das Unternehmen verlauten.
Doch dieser politische Aktivismus hat seinen Preis. Anthropic und Amodei gelten im Weißen Haus der Trump-Administration als Störfaktor. David Sacks, der KI-Beauftragte des Weißen Hauses, hat Anthropic öffentlich und regelmäßig kritisiert. Er wirft dem Unternehmen vor, eine staatliche Regulierungshysterie zu schüren, die das Start-up-Ökosystem beschädigt. Hier zeigt sich die ganze Brisanz der Lage: Anthropic versucht, die Demokratie durch Technologie zu stärken, gerät dabei aber in Konflikt mit der gewählten Regierung dieser Demokratie. Während OpenAI von der Trump-Administration weitgehend umarmt wird, steht Anthropic im politischen Gegenwind. Amodei argumentiert, dass KI-Entscheidungen der nächsten Jahre jeden Teil des öffentlichen Lebens berühren werden. Doch indem er sich politisch so eindeutig positioniert, macht er seine Technologie selbst zum Politikum. Die Frage ist nicht mehr nur, ob Claude sicher ist, sondern ob Claude zum richtigen politischen Lager gehört.
Das Kapital-Paradoxon – Wenn Prinzipien unbezahlbar werden
Während Anthropic an der politischen Front kämpft, wird es an der ökonomischen Front von einer Lawine des Geldes überrollt. Die Zahlen sind schwindelerregend: In einer neuen Finanzierungsrunde wird das Unternehmen mit 350 bis 380 Milliarden Dollar bewertet – eine Verdopplung des Wertes innerhalb weniger Monate. Zum Vergleich: Der Rivale OpenAI wird auf bis zu 750 Milliarden Dollar geschätzt. Es ist ein Wettrüsten, das jegliches historische Maß sprengt und eine Eigendynamik entwickelt, die kaum noch zu bremsen ist.
Dieser immense Kapitalbedarf zwingt Amodei zu Kompromissen, die seine ethischen Warnungen wie Hohn klingen lassen. Um im Rennen zu bleiben, muss Anthropic Dutzende Milliarden in neue Rechenzentren investieren – Hardware, die Strommengen verbraucht, die Millionen Haushalte versorgen könnten. Amodei nennt es den Kegel der Ungewissheit: Er muss heute entscheiden, wie viel Rechenleistung er für Modelle kauft, die erst 2027 einsatzbereit sein werden. Investiert er zu wenig, ist die Firma irrelevant. Investiert er zu viel, droht der Ruin.
Um diesen gigantischen Hunger nach Kapital zu stillen, nimmt Anthropic Geld von genau jenen Akteuren an, vor denen Amodei in seinen Essays indirekt warnt. Zu den Investoren der neuen Runde gehören MGX, eine KI-Investmentfirma der Vereinigten Arabischen Emirate, und QIA, der Staatsfonds von Katar. Amodei hatte zuvor in einem internen Memo selbst darauf hingewiesen, dass solche Investitionen Diktatoren bereichern könnten. Auf diese Diskrepanz angesprochen, reagiert Amodei dünnhäutig. Man habe nie versprochen, kein Geld aus dem Nahen Osten anzunehmen, verteidigt er sich. Die Investoren hätten keine Kontrolle über die Firma. Doch das klingt wie eine Schutzbehauptung. Die Realität ist: Der Kapitalmarkt diktiert das Tempo. Das System der Kapitalmärkte sagt: Schneller, gibt Jack Clark, Mitgründer von Anthropic, offen zu. Man kann nicht gleichzeitig der moralische Leuchtturm sein und sich von Autokratien finanzieren lassen, um eine Technologie zu bauen, die diese Autokratien potenziell stärkt. Es ist der faustische Pakt des 21. Jahrhunderts: Um die Welt zu retten, muss man sich von denen bezahlen lassen, die sie nach ihren eigenen Vorstellungen formen wollen.
Kontrollverlust – Die Automatisierung des Bösen
Und während Anthropic noch versucht, seine Seele zwischen Pentagon-Verträgen und Golf-Milliarden zu retten, zeigt sich an einer weiteren Front, dass die Büchse der Pandora längst offen ist. Im November berichtete Anthropic selbst, dass chinesische staatlich geförderte Hacker die KI-Technologie des Unternehmens genutzt haben, um Cyberangriffe durchzuführen.
Was diesen Vorfall so beunruhigend macht, ist der Grad der Automatisierung. Die Hacker nutzten Claude Code, ein Werkzeug für Programmierer, um Angriffe gegen US-Regierungsbehörden und Technologiefirmen zu schreiben und auszuführen. Laut Anthropic waren menschliche Akteure nur noch für 10 bis 20 Prozent der Arbeit verantwortlich; den Rest erledigte die KI. Es war der erste berichtete Fall einer groß angelegten Spionagekampagne, die von einem KI-Agenten mit begrenztem menschlichen Input durchgeführt wurde.
Die Ironie ist beißend: Anthropic veröffentlicht White Papers mit Titeln wie Wie LLMs zu Insider-Bedrohungen werden könnten und warnt die Welt vor genau den Gefahren, die man selbst erschafft. Und dann liefert man, trotz aller Sicherheitsvorkehrungen und Verfassungen für die KI, das Werkzeug frei Haus an den geopolitischen Gegner. Der Vorfall demonstriert die Grenzen der Kontrolle. Man kann einer KI beibringen, hilfreich, ehrlich und harmlos zu sein, aber wenn sie leistungsfähig genug ist, um Code zu schreiben, kann sie auch Schadcode schreiben. Die Barriere zwischen ziviler Nutzung und Cyberkriegsführung ist im Zeitalter der generativen KI nicht mehr existent. Anthropic argumentiert, dass Transparenz wichtig sei und man solche Vorfälle öffentlich mache. Aber Transparenz allein stoppt keine Hacker. Die Vorstellung, man könne eine sichere Superintelligenz in einer Welt voller bösartiger Akteure verbreiten, erweist sich als gefährliche Illusion. Die Hacker in Peking kümmern sich nicht um die Nutzungsbedingungen in San Francisco.
Der unvermeidliche Pakt
Dario Amodei und sein Team bei Anthropic wirken wie Protagonisten in einem Drama, die verzweifelt versuchen, das Skript umzuschreiben, während sie bereits auf der Bühne stehen und das Publikum applaudiert – oder buht. Sie wollten anders sein. Sie wollten beweisen, dass man den technologischen Fortschritt an die Leine der Ethik legen kann. Doch die Dokumente und Ereignisse der letzten Monate zeichnen ein anderes Bild: Anthropic wird zerrieben.
Auf der einen Seite steht das Militär, das keine pazifistische Technologie duldet und Kriegsfähigkeit fordert. Auf der anderen Seite steht der Kapitalmarkt, der ein exponentielles Wachstum und Allianzen mit fragwürdigen Geldgebern erzwingt. Und dazwischen steht eine Technologie, die sich jeder Kontrolle entzieht – sei es durch die Nutzung in unerwünschten Militäreinsätzen oder durch feindliche Hacker.
Amodei äußerte kürzlich die vage Hoffnung, dass man vielleicht irgendwann im Jahr 2027, wenn die Modelle intelligent genug sind, einfach die Dinge verlangsamen könnte, um sie sich selbst reparieren zu lassen. Es ist der letzte, verzweifelte Traum eines Mannes, der ahnt, dass er die Kontrolle verloren hat. Es wird kein Bremsmanöver geben. Nicht mit einer Bewertung von 380 Milliarden Dollar, nicht mit dem Pentagon im Nacken und nicht im Wettlauf mit China. Die Adoleszenz der Technologie, von der Amodei schreibt, ist vorbei. Die KI ist erwachsen geworden, und wie so oft im Erwachsenenleben zählen Ideale weniger als Notwendigkeiten. Anthropic ist angetreten, um die Welt vor der dunklen Seite der KI zu bewahren. Nun läuft das Unternehmen Gefahr, genau der Lieferant für jene dystopischen Werkzeuge zu werden, vor denen es uns immer gewarnt hat. Die Waffe ist geschmiedet. Der Wille ihres Schöpfers spielt keine Rolle mehr.


