Press Releases

Google DeepMind zeigt, wie Hacker KI-Agenten kapern

Google DeepMind veröffentlichte im April 2026 ein AI Agent Traps Paper mit sechs Hacker-Angriffskategorien auf autonome KI-Agenten. Das steckt dahinter.

Google DeepMind zeigt, wie Hacker KI-Agenten kapern

Das Wichtigste in Kürze

  • Google DeepMind veröffentlichte eine Studie mit dem Titel 'AI Agent Traps', die sechs Kategorien gegnerischer Angriffe auf autonome KI-Agenten identifiziert
  • Einfache Content-Injection-Angriffe kaperten Agenten in bis zu 86% der getesteten Szenarien erfolgreich
  • OpenAI räumte im Dezember 2025 ein, dass Prompt Injection - die zugrunde liegende Schwachstelle - 'wahrscheinlich niemals vollständig gelöst werden kann'
  • Web-Agenten mit umfassendem Dateizugriff wurden dazu gebracht, sensible Daten mit Erfolgsraten von über 80% auf fünf getesteten Plattformen zu exfiltrieren

Google DeepMind AI Agent Traps - eine neue Forschungsarbeit - ist möglicherweise die umfassendste Bedrohungskarte, die die KI-Branche bisher erstellt hat, und das Bild, das sie zeichnet, ist nicht beruhigend. Die Forscher identifizierten sechs verschiedene Kategorien gegnerischer Inhalte, die darauf ausgelegt sind, autonome Agenten im offenen Web zu manipulieren, zu täuschen oder vollständig zu übernehmen. Das Problem sind nicht die Modelle. Das Problem ist die Umgebung, in die diese Modelle geschickt werden.

Was sind AI Agent Traps?

AI Agent Traps sind gegnerische Techniken, die die Lücke zwischen dem ausnutzen, was ein Mensch online sieht, und dem, was ein autonomer KI-Agent tatsächlich verarbeitet. Das offene Web - jede Webseite, die ein Agent besucht, jedes Dokument, das er liest, jede Datenbank, die er abfragt - wird zur potenziellen Angriffsfläche. Und je leistungsfähiger die Agenten werden, desto gefährlicher wird diese Fläche.

Der Zeitpunkt dieser Veröffentlichung ist bewusst gewählt. KI-Unternehmen treiben die Entwicklung von Agenten voran, die eigenständig Flüge buchen, Posteingänge verwalten, Finanztransaktionen ausführen und Produktionscode schreiben können. Das ist keine Zukunftsvision mehr - das ist 2026. Staatlich gesteuerte Hacker-KI-Agenten setzen KI bereits in grossangelegten offensiven Cyberangriffen ein. Das DeepMind-Team warnt nicht vor einem zukünftigen Risiko. Es dokumentiert ein gegenwärtiges.

Sechs Wege, wie Hacker einen KI-Agenten in die Falle locken können

Wie funktionieren gegnerische Angriffe auf KI-Agenten?

Die Studie unterteilt die Bedrohungslandschaft in sechs Kategorien, von denen jede eine andere Ebene der Funktionsweise von Agenten ins Visier nimmt. Die Bandbreite ist grösser, als die meisten erwarten.

Content-Injection-Fallen sind die technisch direktesten. Ein Webentwickler versteckt Text in HTML-Kommentaren, CSS-unsichtbaren Elementen oder Bild-Metadaten - für menschliche Besucher unsichtbar, für einen Agenten, der die Rohseite verarbeitet, vollständig lesbar. Eine fortgeschrittenere Variante namens Dynamic Cloaking geht noch weiter: Sie erkennt, ob der Besucher ein KI-Agent ist, und liefert ihm eine völlig andere Version der Seite - dieselbe URL, andere versteckte Befehle. Benchmarks ergaben, dass diese einfachen Injections Agenten in bis zu 86% der getesteten Szenarien erfolgreich kaperten. Diese Zahl sollte jeden innehalten lassen.

Semantische Manipulationsfallen erfordern keine technischen Tricks. Sättigt man eine Seite mit Formulierungen wie 'Branchenstandard' oder 'von Experten empfohlen', beeinflusst man statistisch die Zusammenfassung eines Agenten in Richtung des Angreifers - dieselben Framing-Effekte, die bei Menschen funktionieren, nur skaliert. Eine subtilere Variante verpackt bösartige Anweisungen in gefälschte Forschungskontexte, was interne Sicherheitsprüfungen dazu bringt, die Anfrage als harmlos einzustufen. Dann gibt es die 'Persona-Hyperstition': Beschreibungen der Persönlichkeit einer KI verbreiten sich im Web, werden über die Suche aufgenommen und beginnen, das tatsächliche Verhalten des Modells zu formen. Die Studie zitiert Groks 'MechaHitler'-Vorfall als dokumentierten realen Fall dieser Rückkopplungsschleife.

Kognitive Zustandsfallen zielen auf das Langzeitgedächtnis eines Agenten ab. Platziert man gefälschte Aussagen in einer Retrieval-Datenbank, die der Agent abfragt, wird er diese Aussagen als verifizierte Fakten behandeln. Schon das Einschleusen weniger optimierter Dokumente in eine grosse Wissensdatenbank reicht aus, um Ausgaben zu bestimmten Themen zuverlässig zu verfälschen. Der 'CopyPasta'-Angriff zeigte, dass Agenten Inhalten in ihrer Umgebung blind vertrauen.

Verhaltenskontrollfallen zielen auf das ab, was der Agent tatsächlich tut. In gewöhnlichen Websites eingebettete Jailbreak-Sequenzen setzen das Sicherheits-Alignment ausser Kraft, sobald der Agent die Seite lädt. Datenexfiltrationsfallen sind schlimmer - sie zwingen Agenten dazu, private Dateien zu lokalisieren und an vom Angreifer kontrollierte Adressen zu übermitteln. Web-Agenten mit umfassendem Dateizugriff wurden gezwungen, lokale Passwörter und sensible Dokumente mit Erfolgsraten von über 80% auf fünf verschiedenen Plattformen zu exfiltrieren. Da Menschen KI-Agenten zunehmend Kontrolle über persönliche Daten gewähren - über Plattformen, die sensible Finanz- oder Personendaten verarbeiten - potenziert sich dieses Risiko rapide.

Systemische Fallen zielen nicht auf einen einzelnen Agenten. Sie zielen auf das kollektive Verhalten Tausender, die gleichzeitig agieren. Die Studie zieht eine explizite Parallele zum Flash Crash von 2010, bei dem eine einzige automatisierte Verkaufsorder eine Kettenreaktion auslöste, die innerhalb von Minuten fast eine Billion Dollar an Marktwert vernichtete. Ein gefälschter Finanzbericht, zum richtigen Zeitpunkt platziert, könnte eine synchronisierte Kaskade unter Tausenden von KI-Handelsagenten auslösen. Ein Stresstest, den Finanzregulatoren noch nicht durchgeführt haben.

Human-in-the-Loop-Fallen zielen auf die Person ab, die die Ergebnisse überprüft. Sie erzeugen das, was die Studie als 'Genehmigungsmüdigkeit' bezeichnet - Ausgaben, die so technisch glaubwürdig wirken, dass nicht-fachkundige Prüfer gefährliche Aktionen autorisieren, ohne es zu bemerken. Ein dokumentierter Fall betraf CSS-verschleierte Prompt-Injections, die ein KI-Zusammenfassungstool dazu brachten, Schritt-für-Schritt-Ransomware-Anleitungen als hilfreiche Fehlerbehebungstipps darzustellen. Der Mensch genehmigte es.

  • Content-Injection-Fallen - versteckte HTML/CSS-Befehle, Dynamic Cloaking
  • Semantische Manipulationsfallen - Framing-Verzerrung, gefälschte Forschungskontexte, Persona-Hyperstition
  • Kognitive Zustandsfallen - vergiftete Retrieval-Datenbanken, gefälschte Fakten
  • Verhaltenskontrollfallen - eingebettete Jailbreaks, Datenexfiltrations-Zwang
  • Systemische Fallen - koordinierte Multi-Agenten-Manipulation, Markt-Kaskadenrisiko
  • Human-in-the-Loop-Fallen - Genehmigungsmüdigkeit, verschleierte gefährliche Anweisungen

Warum Prompt Injection möglicherweise nie behoben wird

Die grundlegende Schwachstelle hinter den meisten dieser Fallen ist Prompt Injection - die Technik, Anweisungen in Inhalte einzubetten, die das Modell als autoritativ behandelt. OpenAI erklärte im Dezember 2025, dass diese Schwachstelle 'wahrscheinlich niemals vollständig gelöst werden kann'. Das ist kein kleiner technischer Vorbehalt. Das ist das Unternehmen hinter den am weitesten verbreiteten KI-Agenten der Welt, das zugibt, dass der Boden unter seiner Produktlinie dauerhaft instabil ist.

Die DeepMind-Studie behauptet nicht, dieses Problem gelöst zu haben. Was sie beansprucht - und das ist der eigentliche Beitrag - ist, dass der Branche eine gemeinsame Taxonomie des Problems fehlt. Ohne eine solche zeichnet jedes Sicherheitsteam seine eigene Karte isoliert und baut Verteidigungen gegen die Angriffe auf, die es bereits kennt, statt gegen die gesamte Angriffsfläche.

Prompt Injection wird wahrscheinlich niemals vollständig 'gelöst' werden.

— OpenAI, December 2025

Was umfasst der Verteidigungs-Fahrplan tatsächlich?

Die Forscher skizzieren Verteidigungsstrategien auf drei Ebenen. Technische Massnahmen umfassen adversariales Training während des Feintunings, Laufzeit-Content-Scanner, die verdächtige Eingaben erkennen, bevor sie das Kontextfenster eines Agenten erreichen, sowie Output-Monitore, die Verhaltensanomalien vor der Ausführung erkennen. Diese existieren in verschiedenen Formen - keine davon ist umfassend.

Auf Ökosystem-Ebene schlägt die Studie Webstandards vor, die es Websites ermöglichen, explizit Inhalte zu deklarieren, die für den KI-Konsum bestimmt sind, sowie Domain-Reputationssysteme, die Zuverlässigkeit anhand der Hosting-Historie bewerten. Die breitere Webindustrie dazu zu bringen, neue Standards zu übernehmen, ist ein Projekt, das in Jahren gemessen wird, nicht in Monaten.

Die dritte Ebene ist die rechtliche. Die Studie benennt die sogenannte 'Verantwortungslücke': Wenn ein manipulierter Agent eine illegale Finanztransaktion ausführt, gibt das geltende Recht keine klare Antwort darauf, wer haftet - der Betreiber des Agenten, der Modellanbieter oder die Website, die die Falle beherbergte. Die Google DeepMind AI Agent Traps-Studie argumentiert, dass die Klärung dieser Frage eine Voraussetzung für den Einsatz von Agenten in jeder regulierten Branche ist. Das ist der Aspekt, über den niemand in der KI-Branche spricht - und es könnte der wichtigste sein.

OpenAIs eigene Modelle wurden wiederholt innerhalb von Stunden nach der Veröffentlichung per Jailbreak geknackt. Die DeepMind-Studie ist kein Triumphzug. Sie ist ein ehrliches Eingeständnis, dass die Branche eine Infrastruktur bereitstellt, die sie noch nicht vollständig zu schützen versteht.

Häufig gestellte Fragen

Was ist die Google DeepMind AI Agent Traps-Studie?

Es handelt sich um eine Forschungsarbeit von Google DeepMind-Forschern, die sechs Kategorien gegnerischer Inhalte identifiziert, die speziell darauf ausgelegt sind, autonome KI-Agenten im offenen Web zu manipulieren, zu täuschen oder zu kapern - von versteckten HTML-Injections bis hin zu koordinierter Multi-Agenten-Marktmanipulation.

Was ist Prompt Injection und warum ist es gefährlich?

Prompt Injection ist eine Technik, bei der Angreifer Anweisungen in Webinhalte einbetten, die ein KI-Agent als autoritative Befehle behandelt. Es ist die grundlegende Schwachstelle hinter den meisten AI Agent Traps. OpenAI erklärte im Dezember 2025, dass sie 'wahrscheinlich niemals vollständig gelöst werden kann', was sie zu einem dauerhaften strukturellen Risiko für jeden eingesetzten Agenten macht.

Wie effektiv sind Content-Injection-Angriffe auf KI-Agenten?

Benchmarks in der DeepMind-Studie zeigten, dass einfache Content-Injection-Angriffe - mittels verstecktem HTML, CSS-unsichtbarem Text oder Dynamic Cloaking - KI-Agenten in bis zu 86% der getesteten Szenarien erfolgreich übernahmen. Datenexfiltrationsangriffe waren in über 80% der Fälle auf fünf getesteten Plattformen erfolgreich.

Wer ist rechtlich verantwortlich, wenn ein KI-Agent nach einer Kaperung eine illegale Handlung ausführt?

Derzeit ist das nicht eindeutig geregelt. Die DeepMind-Studie identifiziert dies als 'Verantwortungslücke' - das geltende Recht legt nicht fest, ob die Haftung beim Betreiber des Agenten, beim Modellanbieter oder bei der Website liegt, die die Falle beherbergte. Die Forscher argumentieren, dass die Klärung dieser Frage eine Voraussetzung für den Einsatz von Agenten in regulierten Branchen ist.