AG Köln: Berufsrechtliche Bewertung eines KI-generierten Schriftsatzes

KI-geschriebener Schriftsatz vor Gericht: Berufsrechtliche Bewertung und Praxistipps

Ungeprüfte KI-Outputs können Anwältinnen und Anwälte in unangenehme Situationen bringen.

Die Nutzung von Künstlicher Intelligenz (KI) in der Anwaltsarbeit kann Fluch und Segen zugleich sein. Das Amtsgericht Köln hat in einem aktuellen Beschluss (02.07.2025, Az. 312 F 130/25) die Problematik deutlich vor Augen geführt: Ein Rechtsanwalt reichte einen Schriftsatz ein, der offenbar von einer KI verfasst worden war – mit zahlreichen halluzinierten Quellenangaben und Rechtsausführungen. Das Gericht deckte auf, dass mehrere angeführte Urteile, Aufsätze und Kommentarstellen gar nicht existierten oder inhaltlich völlig falsch wiedergegeben wurden. Dieser Vorfall wirft dringende Fragen nach den berufsrechtlichen Pflichten beim KI-Einsatz und nach möglichen Konsequenzen bis hin zu Strafbarkeitsüberlegungen auf.

Der Fall: KI-Schriftsatz mit erfundenen Zitaten entlarvt

Bis zur achten Seite las sich der Beschluss des AG Köln wie ein gewöhnlicher familienrechtlicher Fall (Sorgerecht im Wechselmodell). Doch dann folgte die Überraschung: Das Gericht stellte fest, dass „die weiteren […] genannten Voraussetzungen […] offenbar mittels künstlicher Intelligenz generiert und frei erfunden“ seien. Auch die zitierten Fundstellen – etwa eine Monografie „Brons, Kindeswohl und Elternverantwortung, 2013“ oder ein Aufsatz in der FamRZwaren frei erfunden bzw. passten inhaltlich überhaupt nicht zum behaupteten Zitat. Beispielsweise wurde ein Autor fälschlich einem Münchener Kommentar zum BGB zugeschrieben (tatsächlich schrieb er einen juris-Praxiskommentar) und sogar Randziffern angegeben, die es nicht gab. Kurz gesagt: Der Schriftsatz war unbrauchbar und irreführend.

Der Anwalt hatte den KI-Text offenbar ungeprüft übernommen. Auffällig war sogar das Format: Die Ausführungen bestanden aus einer Auflistung von Spiegelstrichen statt Fließtext – ein Indiz dafür, dass hier ein KI-Tool mit unzureichendem Prompt am Werk war. Rechtsanwalt Frank Siegburg, dessen Kanzlei in dem Verfahren die Gegenseite vertrat, berichtet auf LinkedIn, er habe seine hauseigene KI den Schriftsatz analysieren lassen. Das Ergebnis: „mit über 90% Wahrscheinlichkeit mit KI erstellt […] Die Fundstellen wurden zu 100% halluziniert.“.

Das Phänomen solcher KI-Halluzinationen – also frei erfundener „Fakten“ – ist nicht neu. International sind in den letzten Monaten mehrere Fälle bekannt geworden. So geriet etwa in den USA ein Anwalt in die Schlagzeilen, weil er von ChatGPT erfundene Urteile in seinem Schriftsatz zitierte. Eine Stanford-Studie von 2024 bestätigte, dass gängige juristische KI-Tools damals noch unzuverlässig arbeiteten. Die Modelle gaben häufig falsche Auskünfte aus und begründeten sie teils mit nicht existenten Quellen – ein Kernproblem großer Sprachmodelle. In Reaktion darauf hat die American Bar Association (ABA) Leitlinien zum KI-Einsatz erstellt, die ausdrücklich eine Wahrheits- und Sorgfaltspflicht der Anwälte beim Umgang mit KI betonen.

Gerichtliche Reaktion: Berufsrechtliche Grenzen aufgezeigt

Der Kölner Familienrichter zeigte sich sichtbar verärgert über die „schlampigen und unwahren“ Eingaben. In seinem Beschluss rügte er den Vorfall mit ungewöhnlich deutlichen Worten: „Der Verfahrensbevollmächtigte hat derartige Ausführungen für die Zukunft zu unterlassen, da sie die Rechtsfindung erschweren, den unkundigen Leser in die Irre führen und das Ansehen des Rechtsstaates und insbesondere der Anwaltschaft empfindlich schädigen.“. Außerdem wies das Gericht darauf hin, dass ein solcher KI-Schriftsatz berufsrechtliche Konsequenzen haben könne: Sollte ein Rechtsanwalt bewusst Unwahrheiten verbreiten, verletze er das Sachlichkeitsgebot gemäß § 43a Abs. 3 BRAO. Diese Norm untersagt unsachliches Verhalten; „unsachlich ist insbesondere ein Verhalten, bei dem es sich um die bewusste Verbreitung von Unwahrheiten […] handelt“.

War hier ein Berufsrechtsverstoß gegeben? Die Antwort ist nicht trivial und wird unter Juristen diskutiert. Einige sehen in § 43a Abs. 3 BRAO eine anwaltliche Wahrheitspflicht, andere wollen die Grenze der Unsachlichkeit erst bei gröbsten Verstößen (etwa Beleidigungen nach § 185 StGB) ziehen. Klar ist: Diese Diskussion drehte sich bisher vor allem um falsche Tatsachenbehauptungen. Reine Rechtsansichten können naturgemäß nicht „wahr“ oder „unwahr“ sein – das Gericht kennt das Recht (iura novit curia). Evident falsche Zitate von Urteilen oder Literatur liegen irgendwo dazwischen und wurden in der Rechtsprechung bisher kaum eingeordnet.

Strittig ist vor allem das Merkmal „bewusst“. Musste der Anwalt hier vorsätzlich handeln, um gegen § 43a Abs. 3 BRAO zu verstoßen? Nach überwiegender Ansicht ja – gefordert wird direkter Vorsatz bei der Verbreitung von Unwahrheiten. Fahrlässigkeit reicht also nicht: Ein Anwalt, der eine Behauptung aufstellt, die er für möglicherweise falsch hält (und es billigend in Kauf nimmt), erfüllt noch nicht den Tatbestand des Sachlichkeitsverstoßes. Im vorliegenden Fall spricht viel dafür, dass der Kollege vor allem schlampig war. Ungeprüfte Zitate und „Blindflug“ in Schriftsätzen gab es schließlich auch schon vor der KI-Ära – allerdings begibt man sich mit KI-Unterstützung nun schneller in gefährliche Nähe zur bewussten Unwahrheit, wenn man Ausgaben nicht verifiziert.

Interessant ist der Hinweis von RA Tom Braegelmann in der RDi (Zeitschrift für das Recht der Digitalisierung) auf den Grundsatz iura novit curia: Die Wahrheitspflicht nach § 138 ZPO bezieht sich nur auf Tatsachen, nicht auf juristische Ausführungen. Die rechtliche Würdigung ist Aufgabe des Gerichts; Anwältinnen und Anwälte sollen zwar mit ihren Rechtsansichten überzeugen, aber sie belehren das Gericht nicht verbindlich. Insofern könne eine falsche Darstellung der Rechtslage oder ein falsches Zitat aus Urteilen das Gericht objektiv gesehen gar nicht „täuschen“ – es muss ohnehin selbst prüfen. Diesem Ansatz nach wäre ein Verstoß gegen § 43a Abs. 3 BRAO nur schwer zu begründen, solange keine bewusste Täuschungsabsicht vorliegt.

Strafrechtliche Dimension: Prozessbetrug durch KI-Fundstellen?

Unter Juristinnen und Juristen wurde in sozialen Medien sogar diskutiert, ob ein ungeprüft eingereichter KI-Schriftsatz als (versuchter) Prozessbetrug (§ 263 StGB) gewertet werden könnte. Dazu müsste der Anwalt zumindest mit bedingtem Vorsatz gehandelt haben, also es zumindest für möglich halten und in Kauf nehmen, dass die erfundenen Zitate das Gericht täuschen. In der Tat könnte man argumentieren, der Anwalt wollte das Gericht zum Vorteil seines Mandanten mit falschen Quellen beeinflussen.

Allerdings überwiegt auch hier die Ansicht, dass kein Betrugstatbestand vorliegt. Braegelmann verweist auf eine Entscheidung des OLG Koblenz aus 2001: Damals hatte ein Anwalt wahrheitswidrig behauptet, seine Rechtsmeinung werde von diversen Gerichten geteilt. Ein Strafverfahren wegen versuchten Prozessbetrugs endete jedoch mit Freispruch. Das Gericht meinte, eine falsche Behauptung über Rechtsansichten sei objektiv nicht geeignet, den Richter zu täuschen, da dieser die Rechtslage selbst prüft. Selbst wenn der Anwalt in betrügerischer Absicht handelte, fehle es am Täterwillen, da er einem „umgekehrten Subsumtionsirrtum“ unterliege – sprich: Er glaubte irrigerweise, ein strafloses Verhalten (Lügen über Rechtsmeinungen) sei strafbar. Mit anderen Worten: Eine erfundene Rechtsquelle schädigt niemandes Vermögen und kann folglich den Betrugstatbestand nicht erfüllen.

Unabhängig von der Strafbarkeit bleibt aber ein wichtiger praktischer Punkt: Solche falschen Zitate schaden in jedem Fall der eigenen Sache vor Gericht. Wenn das Gericht – wie im Fall Köln – die Ungereimtheiten bemerkt, leidet die Glaubwürdigkeit des Anwalts enorm. Schlimmstenfalls übersieht man als Anwalt auch selbst, dass eine KI-Quelle falsch ist, und stützt seine Argumentation ins Leere. Wie häufig KI-Halluzinationen unentdeckt bleiben, ist ungewiss. Manche vermuten bereits eine hohe Dunkelziffer, da nicht jedes Gericht jedes Zitat akribisch nachprüft. International wird bereits begonnen, solche Fälle zu sammeln (ein britischer Barrister erstellt etwa eine Liste von KI-Fehlern in Gerichtsdokumenten weltweit). Sicher ist: Das Kölner Urteil hat die Sensibilität für dieses Thema auch in Deutschland stark erhöht.

Praxistipps: Verantwortungsvoller KI-Einsatz in der Kanzlei

Wie lässt sich die Effizienz von KI-Tools nutzen, ohne die eigenen Pflichten zu verletzen oder sich vor Gericht zu blamieren? Die folgenden Empfehlungen sollen helfen, KI im anwaltlichen Alltag berufsrechtskonform einzusetzen:

  • KI nur als Hilfsmittel, nicht als Ersatz einsetzen: KI-Tools können Arbeitsschritte erleichtern, dürfen die Anwältin oder den Anwalt aber nicht ersetzen. Die Bundesrechtsanwaltskammer betont, dass alle KI-Ergebnisse eigenverantwortlich geprüft und endkontrolliert werden müssen. Die gewissenhafte Berufsausübung (§ 43 BRAO) erfordert, dass letztlich der Mensch die Entscheidung trifft und den Schriftsatz verantwortet. Nutzen Sie KI also zur Unterstützung (z.B. Entwürfe, Ideen), aber nicht für den finalen Inhalt ohne Überprüfung.
  • KI-Ausgaben stets verifizieren: Verlassen Sie sich nicht blind auf KI-generierte Informationen. Jedes von der KI präsentierte „Faktum“ – seien es Zitate, Gerichtsentscheidungen oder Gesetzesauszüge – muss an Originalquellen gegen­geprüft werden, bevor es in einen Schriftsatz übernommen wird. KI-Modelle haben die Tendenz, sehr überzeugend klingende Falschinformationen auszuspucken. Anwälte sind jedoch verpflichtet sicherzustellen, dass keine falschen Angaben gegenüber Gericht oder Gegner gemacht werden. Es gehört zur anwaltlichen Sorgfalt, alle Fundstellen selbst nachzuschlagen und auf Korrektheit zu überprüfen, um peinliche oder irreführende Fehler zu vermeiden.
  • Quellen und Zitate nur nach eigener Prüfung verwenden: Übernehmen Sie keine Zitate ungeprüft aus einem KI-Text. Im besprochenen Fall waren praktisch alle Fußnoten und Randzitate falsch – ein extremes Beispiel, das aber zeigt: Fiktive Fundstellen können sich in KI-Antworten verstecken. Selbst wenn die eigentliche Rechtsausführung plausibel klingt, könnte die genannte Quelle gar nicht existieren oder etwas ganz anderes aussagen. Daher: Immer im Original nachlesen, ob ein Urteil oder Aufsatz tatsächlich existiert und die zitierte Aussage stützt. Sollte die KI ein Werk nennen, das Sie selbst nicht finden können, ist höchste Vorsicht geboten – wahrscheinlich ist es „halluziniert“.
  • Vertraulichkeit wahren – keine sensiblen Daten eingeben: Denken Sie daran, dass § 43a Abs. 2 BRAO (Verschwiegenheit) uneingeschränkt gilt, auch bei KI-Tools. Geben Sie keinesfalls vertrauliche Mandanteninformationen ungeschützt in öffentliche KI-Dienste ein. Die BRAK-Leitlinien empfehlen, höchstens abstrakte Prompts zu verwenden, die keine Rückschlüsse auf konkrete Mandate zulassen. Wenn beispielsweise Schriftsatzpassagen von einer KI formuliert werden sollen, formulieren Sie die Anfrage so allgemein wie möglich. Dokumente mit echten Mandatsdaten sollten vor einem KI-Upload anonymisiert werden (Namen, Aktenzeichen, individuelle Details entfernen). Bedenken Sie auch datenschutzrechtliche Vorgaben und die Regelungen zu IT-Dienstleistern (§ 43e BRAO) – insbesondere Cloud-Anbieter aus dem Nicht-EU-Ausland können problematisch sein, wenn sie Zugriff auf personenbezogene Daten erhalten.
  • Geeignete KI-Tools auswählen: Nicht jede KI ist für juristische Zwecke gleich gut geeignet. Bevorzugen Sie spezialisierte Lösungen, die Zugang zu juristischen Fachdatenbanken haben oder mit Retrieval-Augmented Generation (RAG) arbeiten. Erste Studien zeigen, dass etwa KI-Systeme von juristischen Datenbankanbietern weniger Fehler produzieren als frei verfügbare Chatbots. Aber Vorsicht: Auch diese sind nicht fehlerfrei – in Tests lieferten selbst renommierte Tools (z.B. von Westlaw oder Lexis) noch in bis zu 34% der Fälle falsche oder irreführende Antworten. Nutzen Sie also möglichst Tools, die Quellen angeben oder Belege mitliefern, und überprüfen Sie auch dort kritisch die Ergebnisse. Achten Sie außerdem auf die Aktualität: Modelle wie ChatGPT basieren ggf. auf veraltetem Trainingsstand und kennen neue Gesetze oder Urteile nicht.
  • Schulung und interne Richtlinien in der Kanzlei: Stellen Sie sicher, dass alle Mitglieder Ihrer Kanzlei im sicheren Umgang mit KI geschult sind. Wenn Mitarbeiter (z.B. Referendare oder wissenschaftliche Mitarbeiter) KI-Tools einsetzen, müssen klare Regeln gelten. Kanzleien sollten interne Leitlinien zum KI-Einsatz entwickeln und für die Einhaltung sorgen. Dazu gehört, festzulegen, welche Tools genutzt werden dürfen, wie Ergebnisse zu verifizieren sind und wie mit sensiblen Daten umzugehen ist. Eine solche Policy – kombiniert mit regelmäßiger Schulung – schützt nicht nur vor Fehlern, sondern kann im Zweifel auch zeigen, dass man seiner Aufsichtspflicht nachgekommen ist, falls doch einmal ein Problem auftritt.
  • Fortbildung und Entwicklungen im Blick behalten: Die Technologie und ihre rechtlichen Rahmenbedingungen entwickeln sich rasant. Bleiben Sie informiert über neue KI-Tools, Updates, Studien und berufsrechtliche Vorgaben. Die BRAK hat Ende 2024 einen Leitfaden zum KI-Einsatz veröffentlicht; solche Orientierungshilfen werden sicherlich fortgeschrieben. Auch auf Gesetzesebene (Stichwort EU-KI-Verordnung) tut sich einiges. Es wird ausdrücklich empfohlen, die weitere Entwicklung aufmerksam zu verfolgen und sich regelmäßig fortzubilden. § 43a Abs. 6 BRAO verpflichtet Anwälte zur Fortbildung – das schließt auch technische Kompetenzen ein. Wer die Chancen und Risiken neuer Werkzeuge kennt, kann sie souveräner und verantwortungsbewusster einsetzen.

Der Beschluss des AG Köln führt eindrücklich vor Augen, dass KI-generierte Schriftsätze ohne sorgfältige Kontrolle ein erhebliches Risiko darstellen. Anwältinnen und Anwälte sollten KI als hilfreiches Werkzeug betrachten – aber die Ergebnisse kritisch hinterfragen und eigenhändig validieren, bevor sie den Weg in gerichtliche Schriftsätze finden. Die bestehenden berufsrechtlichen Pflichten (Wahrheit, Sorgfalt, Verschwiegenheit etc.) gelten uneingeschränkt weiter, auch wenn neue Technologien genutzt werden. Bei verantwortungsvollem Einsatz kann KI die anwaltliche Arbeit effizienter machen; bei unbedachtem Einsatz dagegen drohen beruflicher Imageverlust, Vertrauensschäden oder sogar formelle Sanktionen. Es liegt an uns Anwälten, die richtigen Lehren aus Fällen wie diesem zu ziehen – zum Schutz der Mandanten, der Gerichte und des Ansehens unseres Berufsstands.