KI-Chatprotokolle sind jetzt Beweismittel vor Gericht
Ein Bundesgerichtsurteil vom Februar 2026 erklärte KI-Chatbot-Protokolle als Beweismittel zulässig. Kanzleien schreiben nun Mandantenverträge zum Anwaltsgeheimnis um.

Das Wichtigste in Kürze
- United States v. Heppner — ein Bundesgerichtsurteil vom Februar 2026 stellte fest, dass 31 Dokumente, die mit Anthropics Claude erstellt wurden, nicht durch das Anwaltsgeheimnis geschützt sind
- Mehr als ein Dutzend großer US-Anwaltskanzleien haben seitdem Mandantenhinweise veröffentlicht, die davor warnen, dass KI-Chatbot-Gespräche vor Gericht keinen rechtlichen Schutz genießen
- Die New Yorker Kanzlei Sher Tremonte gehörte zu den ersten, die ausdrückliche KI-Offenlegungshinweise in Mandantenverträge aufgenommen haben
- Das sich abzeichnende Muster der Gerichte: Anwaltlich vertretene Parteien, die eigenständig Verbraucher-KI nutzen, sind ungeschützt; Selbstvertreter in Zivilverfahren genießen möglicherweise mehr Schutz
Das Anwaltsgeheimnis erstreckt sich nicht auf Ihre ChatGPT-Gespräche — und US-Gerichte beginnen, das unmissverständlich klarzustellen. Ein im Februar 2026 ergangenes Bundesgerichtsurteil bestätigte, dass KI-Chatbot-Protokolle beschlagnahmt, per Vorladung angefordert und vor Gericht gegen einen Angeklagten verwendet werden können. Die Anwaltschaft arbeitet nun unter Hochdruck daran herauszufinden, was das für jeden Mandanten bedeutet, der jemals eine Rechtsfrage in Claude oder GPT eingetippt hat.
Was das Heppner-Urteil tatsächlich besagt
Der Fall, der alles ins Rollen brachte, ist United States v. Heppner, entschieden im Februar 2026 von Richter Jed Rakoff am Southern District of New York. Bradley Heppner, ehemaliger Vorsitzender des insolventen Finanzdienstleistungsunternehmens GWG Holdings, war in fünf Bundesanklagepunkten angeklagt worden, darunter Wertpapierbetrug und Überweisungsbetrug. Nach Erhalt einer Grand-Jury-Vorladung wandte er sich eigenständig an Anthropics Claude, um seine Verteidigungsstrategie zu erarbeiten. Er erstellte 31 Dokumente. Das FBI beschlagnahmte sie später in seiner Wohnung.
Rakoff urteilte, dass diese Dokumente aus drei Gründen nicht durch das Anwaltsgeheimnis geschützt seien. Erstens ist Claude kein Anwalt. Zweitens behält sich Anthropics Datenschutzrichtlinie ausdrücklich das Recht vor, Nutzerdaten an Dritte weiterzugeben, einschließlich staatlicher Aufsichtsbehörden. Drittens, und das ist entscheidend, handelte Heppner völlig eigenständig, ohne dass seine Anwälte ihn dazu angewiesen hatten. Ein Mandantenverhältnis „könne nicht bestehen", schrieb Rakoff, „zwischen einem KI-Nutzer und einer Plattform wie Claude."
Dies war die erste schriftliche richterliche Stellungnahme in den Vereinigten Staaten zur Frage von KI und Anwaltsgeheimnis. Das Urteil beantwortete nicht nur den Antrag eines Angeklagten — es lieferte Staatsanwälten eine Blaupause und erschütterte die gesamte Anwaltschaft.
Wir sagen unseren Mandanten: Hier ist Vorsicht geboten.
Kanzleien schreiben Verträge in Echtzeit um
Innerhalb weniger Wochen nach dem Urteil hatten mehr als ein Dutzend großer US-Anwaltskanzleien formelle Mandantenhinweise herausgegeben. Einige versandten E-Mails. Andere gingen weiter — und integrierten Warnhinweise direkt in die Mandatsverträge, die Mandanten vor Beginn der Vertretung unterzeichnen.
Die New Yorker Kanzlei Sher Tremonte, die regelmäßig Wirtschaftsstrafsachen betreut, fügte einem Mandatsvertrag vom März 2026 eine Klausel hinzu, die besagt, dass „die Offenlegung vertraulicher Mitteilungen gegenüber einer KI-Drittplattform einen Verzicht auf das Anwaltsgeheimnis darstellen kann." Diese Vertragsklausel gilt als eines der ersten Beispiele dafür, dass ein Gerichtsurteil in eine formelle vertragliche Verpflichtung für Mandanten umgesetzt wurde.
Andere Kanzleien drängen Mandanten zu sogenannten „geschlossenen" Enterprise-KI-Systemen, obwohl auch das mit einem Vorbehalt verbunden ist. O'Melveny & Myers und andere Kanzleien haben eingeräumt, dass Enterprise-KI in dieser Frage vor Gericht weitgehend unerprobt bleibt. Die Empfehlung lautet im Wesentlichen: Seien Sie vorsichtig, nutzen Sie geprüfte Tools und verstehen Sie, dass niemand wirklich weiß, wo die Grenzen verlaufen.
Die Kovel-Doktrin als Rettungsanker — und wie Kanzleien sie nutzen
Rakoff selbst ließ während der Heppner-Verhandlung eine Tür offen. Er merkte an, dass Claude, hätte der Anwalt Heppner tatsächlich zur Nutzung angewiesen, „möglicherweise als hochqualifizierter Fachmann hätte fungieren können, der als Beauftragter eines Anwalts unter dem Schutz des Anwaltsgeheimnisses agiert." Um diese Formulierung herum entwickeln Anwälte nun aktiv Protokolle.
Gemeint ist die Kovel-Doktrin, ein Rechtsgrundsatz, der das Anwaltsgeheimnis auf Nicht-Anwälte ausdehnen kann, die als Beauftragte eines Anwalts tätig sind. Debevoise & Plimpton hat daraus konkrete Mandantenberatung gemacht: Wenn ein Anwalt einen Mandanten anweist, ein KI-Tool für Recherchen zu nutzen, sollte der Mandant diese Tatsache direkt im Chatbot-Prompt vermerken. Die Kanzlei schlug Formulierungen vor wie: „Ich führe diese Recherche auf Anweisung meines Rechtsbeistands für den Rechtsstreit X durch." Ob das vor Gericht Bestand haben wird, ist noch ungetestet, aber es ist genau die Art von taktischem Manöver, zu der dieses Urteil gezwungen hat.
Genießt irgendeine KI-Nutzung den Schutz des Anwaltsgeheimnisses?
Sind KI-Chatbot-Gespräche durch das Anwaltsgeheimnis geschützt?
Die kurze Antwort: Manchmal — abhängig davon, wer Sie sind und wie Sie das Tool genutzt haben. In Warner v. Gilbarco entschied ein Gericht, dass die ChatGPT-Gespräche eines sich selbst vertretenden Klägers als Arbeitsergebnis geschützt seien. Die Begründung: KI-Tools sind „Werkzeuge, keine Personen", und die Weitergabe von Informationen an Software ist nicht dasselbe wie die Offenlegung gegenüber einem Prozessgegner. Ein Gericht in Colorado bestätigte diese Logik am 30. März in Morgan v. V2X und schützte ebenfalls das KI-Arbeitsergebnis eines Selbstvertreters. Dieses Urteil ging jedoch weiter — das Gericht ordnete an, dass der Kläger offenlegen muss, welches KI-Tool er verwendet hat, und untersagte die Eingabe vertraulicher Beweismittel in Plattformen, die Datentraining erlauben.
Das sich abzeichnende Muster ist ziemlich eindeutig. Wenn Sie anwaltlich vertreten sind und eigenständig einen Verbraucher-KI-Chatbot genutzt haben, sind Sie ungeschützt. Wenn Sie sich in einem Zivilverfahren selbst vertreten, haben Sie möglicherweise mehr Schutz. Dieser Unterschied ist inzwischen eine der schärfsten Trennlinien im US-Beweisrecht, und die Gerichte ziehen die Grenze von Fall zu Fall.
Justin Ellis von MoloLamken erklärte gegenüber Reportern, dass weitere Urteile letztlich klären werden, wann KI-Chats als Beweismittel verwendet werden können. Bis dahin sind die Empfehlungen der Anwaltskanzleien das deutlichste verfügbare Signal — und sie klingen sehr nach: Achten Sie darauf, was Sie eintippen.
KI dringt von beiden Seiten in die Gerichte ein
Das Ganze hat eine unbequeme Ironie. Dieselbe Technologie, die gerade einen Betrugsangeklagten belastet hat, wird nun von Richtern des Los Angeles Superior Court als Pilotprojekt eingesetzt, um ihre Fallbelastung zu bewältigen. Ein Tool namens Learned Hand fasst Schriftsätze zusammen, ordnet Beweismittel und erstellt Urteilsentwürfe in Zivilverfahren. Das Ziel ist es, den Verwaltungsaufwand zu reduzieren, damit sich Richter auf die Aspekte konzentrieren können, die tatsächlich juristisches Urteilsvermögen erfordern.
KI dringt also gleichzeitig von beiden Seiten in den Gerichtssaal ein. Angeklagte nutzen sie zur Vorbereitung ihrer Fälle. Richter nutzen sie zur Bearbeitung. Und die Regeln, die irgendetwas davon steuern, werden in Echtzeit geschrieben — ein Urteil nach dem anderen.
Die Version der Anwaltschaft von Klarheit in all dem zeigt sich in Mandatsschreiben, Mandanten-E-Mails und Ratschlägen, die vor zwei Jahren noch bizarr geklungen hätten: Überlegen Sie sich sehr genau, was Sie in einen Chatbot eintippen, denn ein Richter könnte es am Ende lesen.
Häufig gestellte Fragen
Können KI-Chatbot-Gespräche als Beweismittel vor Gericht verwendet werden?
Ja. Ein Bundesgerichtsurteil vom Februar 2026 in United States v. Heppner bestätigte, dass Gespräche mit Anthropics Claude als Beweismittel zulässig sind. Das Gericht stellte fest, dass kein Anwaltsgeheimnis galt, da der Angeklagte die KI eigenständig nutzte, ohne Anweisung seiner Anwälte, und weil Anthropics Datenschutzrichtlinie die Weitergabe von Daten an Dritte erlaubt.
Schützt das Anwaltsgeheimnis KI-Chat-Protokolle?
In der Regel nicht, wenn Sie einen Verbraucher-KI-Chatbot eigenständig und ohne Anweisung Ihres Anwalts genutzt haben. Das Heppner-Urteil stellte fest, dass zwischen einem Nutzer und einer KI-Plattform kein Mandantenverhältnis bestehen kann. Wenn jedoch ein Anwalt einen Mandanten ausdrücklich anweist, KI für juristische Recherchen zu nutzen, könnten Gerichte dies im Rahmen der Kovel-Doktrin anders bewerten.
Was raten Anwaltskanzleien ihren Mandanten 2026 zu KI-Chatbots?
Mehr als ein Dutzend großer US-Kanzleien haben formelle Warnhinweise herausgegeben, dass KI-Chatbot-Gespräche keinen rechtlichen Schutz genießen. Sher Tremonte fügte im März 2026 ausdrückliche Warnungen in Mandantenverträge ein. Andere Kanzleien empfehlen Enterprise-KI-Systeme und raten Mandanten, in ihren Prompts zu vermerken, wenn die Nutzung auf Anweisung des Rechtsbeistands erfolgt.
Was ist die Kovel-Doktrin und wie hängt sie mit KI zusammen?
Die Kovel-Doktrin erlaubt die Ausdehnung des Anwaltsgeheimnisses auf Nicht-Anwälte, die als Beauftragte eines Anwalts tätig sind. Richter Rakoff deutete im Heppner-Fall an, dass die KI-Nutzung unter den Kovel-Schutz fallen könnte, wenn ein Anwalt den Angeklagten dazu angewiesen hätte. Debevoise & Plimpton rät Mandanten nun, in ihren KI-Prompts anzugeben, wenn die Recherche auf Anweisung des Rechtsbeistands erfolgt.
