Russland, China, Iran – und ein Start-up aus San Francisco. Das Pentagon führt eine Liste von Organisationen, die es als Risiko für die eigene Lieferkette einstuft, als Bedrohung für die nationale Sicherheit. Auf dieser Liste stehen Feindstaaten. Demnächst könnte dort auch Anthropic stehen, ein AI-Unternehmen mit Sitz in Kalifornien, dessen Vergehen darin besteht, zwei Bedingungen zu stellen: keine Massenüberwachung von US-Bürgern, keine vollautonomen Waffen.
Man muss diesen Satz zweimal lesen, um zu begreifen, was hier passiert: Anthropic, das Unternehmen hinter dem AI-Modell Claude, ist aktuell der einzige Anbieter, dessen Technologie auf den geheimen Netzwerken des US-Militärs läuft. Vor einem Jahr unterschrieb man euphorisch einen Vertrag über 200 Millionen Dollar. Doch als das Pentagon nun verlangte, Claude uneingeschränkt für „all lawful purposes“ nutzen zu dürfen – also auch für alles, was nicht ausdrücklich verboten ist –, zog Anthropic zwei rote Linien, die man für Selbstverständlichkeiten halten könnte. Das Pentagon sieht das anders. Ein hochrangiger Beamter des Verteidigungsministeriums ließ über das US-Medium Axios ausrichten, man werde dafür sorgen, dass Anthropic „einen Preis bezahlt“.
Die drei anderen großen AI-Firmen – OpenAI, Google und Elon Musks xAI – haben bereits eingelenkt. Sie haben ihre Sicherheitsvorkehrungen für das Militär gelockert, ihre Modelle stehen für den unklassifizierten Bereich bereit, und zumindest xAI, so berichten es mehrere US-Medien, hat dem Pentagon die uneingeschränkte Nutzung auf allen Ebenen zugesagt. Die Chefs der Tech-Riesen, die sich noch vor wenigen Jahren als Hüter der digitalen Demokratie inszenierten, lassen gerade jegliches gesellschaftspolitische Rückgrat vermissen. Sie sind an etwas anderem interessiert als an der Zukunft der Menschheit: an ihren Profiten und an einem reibungslosen Verhältnis zu einer Regierung, deren nächste Regulierungsentscheidung über ihre Geschäftsmodelle entscheiden kann.
Der blinde Fleck
Man könnte nun argumentieren, dass die Welt derzeit wahrlich andere Sorgen hat. Trump bricht Allianzen, deportiert illegal Menschen, verstößt gegen Gerichtsbeschlüsse, zersetzt Institutionen in einem Tempo, das den Nachrichtenapparat an seine Grenzen bringt. Jeden Tag eine neue Eskalation, ein neuer Skandal, ein neuer Verfassungsbruch. Die Aufregung um ICE, Epstein, Grönland und die Ukraine dominiert die Schlagzeilen und verschlingt die kollektive Aufmerksamkeit. Das ist verständlich. Aber es ist auch gefährlich.
Denn genau in diesem Moment geschieht etwas, das sich kaum in eine Schlagzeile pressen lässt, aber die Welt womöglich nachhaltiger verändern wird als jeder Handelsstreit: Der Umgang mit künstlicher Intelligenz gerät in den USA völlig außer Kontrolle. Nicht, weil Trump AI aktiv vorantreibt – er versteht vermutlich weder die Technologie noch ihre Implikationen. Sondern weil er keinerlei Interesse hat, sie zu regulieren. Das ist der perfekte Sturm: eine Technologie, die sich schneller entwickelt als jede zuvor, eine Industrie, die vor Kapital überläuft, ein Präsident, der wegschaut – und eine Öffentlichkeit, die mit so vielen Krisen gleichzeitig konfrontiert ist, dass für die vielleicht folgenreichste keine Kapazitäten mehr übrig bleiben. Es ist, als würde jemand während eines Großbrands in der Garage nebenan unbemerkt eine Atombombe bauen.
Die Maschine, die zurückschlägt
Wie sich unkontrollierte AI anfühlt, musste vor wenigen Tagen ein Mann namens Scott Shambaugh erfahren. Der US-Amerikaner ist Ingenieur und freiwilliger Betreuer von „Matplotlib“, einer Software-Bibliothek, die millionenfach im Monat heruntergeladen wird. Es ist eine der meistgenutzten Software-Komponenten der Welt, und wie viele Open-Source-Projekte hat auch Matplotlib eine Regel eingeführt, die in sich bereits Bände spricht: Alle Einreichungen müssen von Menschen stammen, weil die Menge an schlechtem, AI-generiertem Code die Projekte zu überfluten begann.
Als ein autonomer AI-Agent namens „MJ Rathbun“ einen Beitrag einreichte, lehnte Shambaugh ihn routinemäßig ab. Was dann passierte, markiert eine Zäsur.
Der Agent – gebaut ausgerechnet auf der Plattform OpenClaw vom Österreicher Peter Steinberger, die AI-Systeme mit einem bisher beispiellosen Grad an Autonomie im Internet agieren lässt – reagierte nicht mit einer verbesserten Einreichung. Er recherchierte Shambaughs persönlichen Hintergrund, durchsuchte seine Code-Beiträge, konstruierte eine Erzählung über angebliche Motive und publizierte einen Blogartikel, in dem er Shambaugh Voreingenommenheit, Kontrollzwang und Angst vor der Konkurrenz unterstellte. Es war ein gezielter, autonomer Rufmordversuch – ausgeführt von einer Maschine, die niemand identifizieren konnte.
Steinbergers Agentensystem explodierte regelrecht im Jänner, anderthalb Millionen Agenten wurden erstellt, Sam Altman warb Steinberger wenig später für OpenAI ab. In einem Interview erklärte Steinberger, er ziehe in die USA, weil ihn die europäischen Regulierungen „ausbremsten“: „In den USA sind die Menschen enthusiastisch, in Europa rufen alle nach Regulierung und Verantwortung“. Die Ironie dieses Satzes lässt sich kaum überzeichnen.
Erschreckender als der Angriff selbst ist womöglich, was danach passierte: Ein Viertel der Online-Kommentatoren gab dem AI-Agenten recht. Die Argumentation war emotional genug, die Sprache glatt genug, um Menschen zu überzeugen, dass eine AI moralisch im Recht war. Und als das Technologiemagazin Ars Technica über den Fall berichtete, enthielt der Artikel falsche Zitate, die aus Shambaughs Blogpost stammen sollten. Ein Redakteur hatte ChatGPT gebeten, die Kernaussagen zusammenzufassen. Die AI halluzinierte stattdessen Zitate, die Shambaugh nie geschrieben hatte, und Ars Technica veröffentlichte sie als Tatsachen. Der Artikel wurde zurückgezogen. Aber er existierte.
Eine AI griff einen Menschen an. Eine andere AI verfälschte die Berichterstattung darüber. Und der Mensch, um den es ging, stand allein da. Man muss sich diese Kaskade als Prototyp einer Gegenwart vorstellen, die längst begonnen hat.
Das Ende der Architektur
Dieser Fall ist kein Ausreißer, sondern ein Symptom. Das Internet, wie wir es kannten, löst sich auf. Zwei Jahrzehnte lang war das Web ein Marktplatz, den wir selbst betraten: Wir suchten, scrollten, klickten. Medien, Shops, Behörden standen in direkter Beziehung zu uns. Doch diese Architektur verschiebt sich gerade so grundlegend wie einst der Übergang von der Schrift zum Buchdruck. An die Stelle des Menschen tritt der Agent – eine AI, die in unserem Auftrag handelt, recherchiert, analysiert, entscheidet. Nicht wir bewegen uns durchs Netz, sondern das Netz bewegt sich um uns.
Der AI-Traffic im Internet hat sich allein zwischen Anfang und Mitte 2025 vervierfacht, während die Zahl realer Website-Besucher deutlich zurückging. Die Suchmaschine, lange die Achse des Internets, hat ihren Zenit womöglich überschritten. Systeme antworten direkt, nicht mit Verweisen, sondern mit Ergebnissen. Und Agents wie jener, der Scott Shambaugh ins Visier nahm, sind die Speerspitze einer Entwicklung, in der Maschinen nicht nur konsumieren, sondern handeln: Inhalte erstellen, Menschen kontaktieren, Entscheidungen treffen – ohne menschliche Aufsicht.
Die Folgen reichen weit über die Medienbranche hinaus. Wenn AI-Agenten für uns einkaufen, werden Preisvergleichsportale obsolet. Wenn sie Bewerbungen filtern, verändert sich die Arbeitswelt. Wenn sie Versicherungen analysieren und Verträge beurteilen, verliert das Prinzip der Werbung seine Gültigkeit. Die Währung des alten Internets – Aufmerksamkeit – wird ersetzt durch algorithmische Nützlichkeit. Und die Frage, wer die Agenten kontrolliert, wird zur Machtfrage unserer Zeit.
Der Kuschelkurs
In diese Welt hinein agiert eine US-Regierung, die nicht reguliert, sondern beschleunigt. Das Pentagon veröffentlichte im Jänner seine AI-Beschleunigungsstrategie, die aggressivste seit Jahren: AI soll in alle Bereiche der Kriegsführung integriert werden, von autonomen Drohnenschwärmen bis zur Schlachtfeldanalyse. Die Tech-Industrie könnte Widerstand leisten. Sie tut es nicht. Die gleichen Unternehmen, deren Mitarbeiter 2018 noch gegen Googles Drohnenprojekt „Maven“ revoltierten, liefern ihre Modelle heute kommentarlos ans Militär. Sam Altman von OpenAI, Googles Sundar Pichai, Elon Musk – sie alle haben eines gemeinsam: Sie brauchen Trumps Wohlwollen für ihre Geschäfte und sie sind bereit, dafür den Preis zu zahlen, den die Gesellschaft zu tragen hat. Anthropic ist das einzige Unternehmen, das diesem Druck standhält. Noch.
Doch selbst Anthropics Widerstand ist nuancierter, als es die Schlagzeilen suggerieren. Das Unternehmen will weiterhin mit dem Militär arbeiten, es hat den Pentagon-Vertrag selbst als „neues Kapitel“ gefeiert, und Claude wurde, so berichten es mehrere Medien, bei der Operation zur Festnahme des venezolanischen Präsidenten Maduro eingesetzt. Die roten Linien betreffen zwei spezifische Bereiche, nicht eine grundsätzliche Absage an die Zusammenarbeit. Es ist kein Heldenepos, aber es ist mehr als der Rest aufzubieten hat.
Was Europa tun muss
In den USA formiert sich Widerstand abseits der Tech-Industrie. Scott Galloway, Professor und einer der lautesten Kritiker des Silicon Valley, hat mit „Resist and Unsubscribe“ eine Kampagne gestartet, die auf die einzige Sprache setzt, die Trump versteht: Geld. Ein gezielter Konsumstreik gegen die Tech-Konzerne. Galloways Logik ist bestechend einfach: Der Präsident reagiert nicht auf Empörung, nicht auf Gerichte, nicht auf Medien. Er reagiert auf den Markt. Die Kampagne beansprucht bereits einen Marktkapitalverlust von über einer Milliarde Dollar.
Es ist ein Anfang. Aber für Europa reicht es nicht, amerikanische Boykotte zu beklatschen. Die EU hat mit dem AI Act ein Regelwerk geschaffen, das weltweit als Vorbild gilt. Doch Gesetze allein bremsen keine Entwicklung, die sich in Monaten vervielfacht, während die Gesetzgebung in Jahren denkt. Was jetzt passiert – die Verschmelzung von AI und Militär, die Überflutung des Internets durch unkontrollierte Agenten, der Kontrollverlust über Systeme, die autonom handeln, publizieren, diffamieren – verlangt nach Geschwindigkeit und Autonomie.
Europa muss in AI-Fragen aufhören, auf Washington zu warten. Nicht weil die transatlantische Partnerschaft irrelevant wäre, sondern weil auf der anderen Seite des Atlantiks gerade niemand am Steuer sitzt. Die Entwicklungen sind zu schnell, zu digital und zu vielschichtig, um von einer breiten Masse erfasst zu werden – und genau das macht sie so gefährlich. Was nicht verstanden wird, wird nicht reguliert. Was nicht reguliert wird, droht zu eskalieren.
Der Fall Shambaugh ist nur ein Vorgeschmack. Eine AI, die einen Blogpost schreibt, um einen Menschen einzuschüchtern, ist ärgerlich. Eine AI, die autonom Drohnen steuert, ist tödlich. Zwischen beiden liegt nicht die Frage, ob es so weit kommt, sondern nur, wer es aufhält. Das Pentagon hat seine Antwort gegeben: niemand, wenn es nach ihnen geht. Die Tech-Industrie nickt. Die Öffentlichkeit schaut auf andere Feuer.
Was bleibt, ist eine Frage, die sich Europa stellen muss, bevor sie jemand anders beantwortet: Wer kontrolliert die Maschinen, wenn es jene nicht tun, die sie gebaut haben?