Erfundene Zitate aus einem KI-Tool in einem anwaltlichen Schriftsatz – was zunächst wie eine skurrile Anekdote klingt, ist am Landgericht Frankfurt am Main Realität geworden. In einem aktuellen Beschluss vom 25.09.2025 (Az. 2-13 S 56/24) deckte das Gericht auf, dass ein Rechtsanwalt zur Streitwertberechnung frei erfundene Zitate eines höchstrichterlichen Urteils vorgelegt hatte. Offenbar stammten diese „kompletten Fälschungen“ – so die deutlichen Worte der Richter – aus einer halluzinierenden Künstlichen Intelligenz. Das Gericht zeigte sich darüber „enttäuscht“ und reagierte mit klaren Mahnungen an den Anwalt. Der Fall verdeutlicht exemplarisch, welche Risiken der unkritische Einsatz von KI-Tools im Rechtsalltag birgt und welche juristischen Konsequenzen drohen können. Im Folgenden erläutern wir den Kontext des Falls, die Argumentation und Reaktion des Gerichts sowie die praktischen Folgen für die Anwaltschaft – und geben konkrete Rechtstipps für den verantwortungsvollen Umgang mit KI im Kanzleialltag.
Der Fall: KI liefert falsche Zitate im gerichtlichen Verfahren
Der Hintergrund des Beschlusses am LG Frankfurt a.M. ist ein Zivilverfahren aus dem Wohnungseigentumsrecht. Nachdem die Gegenseite ihre Berufung gegen ein Urteil zurückgenommen hatte, stritten die Parteien nur noch über die Höhe des Streitwerts (der für die Gerichts- und Anwaltskosten maßgebliche Wert des Verfahrens). Der Klägervertreter – ein erfahrener Anwalt – wollte einen höheren Streitwert durchsetzen und untermauerte seine Argumentation mit einem angeblichen wörtlichen Zitat aus zwei Entscheidungen des Bundesgerichtshofs (BGH). Doch dieses Zitat war vollständig aus der Luft gegriffen: Weder Fundstelle, Datum noch Aktenzeichen der behaupteten BGH-Entscheidungen existierten tatsächlich. Mit anderen Worten, die vom Anwalt präsentierten Aussagen des BGH waren frei erfunden, vermutlich generiert von einer KI (umgangssprachlich: die KI hat „halluziniert“).
Das Gericht kam dem Schwindel auf die Spur und sprach von einer „kompletten Fälschung„. Besonders brisant: Der Anwalt hatte die falschen Zitate in Anführungszeichen gesetzt, als handle es sich um wortgetreue Auszüge höchstrichterlicher Urteile. Offenkundig hatte er sich hierbei auf ein KI-basiertes Tool verlassen, das ihm bei der Recherche helfen sollte – doch anstatt echter Rechtsquellen lieferte das Tool wohl erfundene Ergebnisse. Später behauptete der Anwalt, er habe lediglich die höchstrichterliche Rechtsprechung in eigenen Worten wiedergeben und „versehentlich“ Anführungszeichen gesetzt. Die Richter der 13. Zivilkammer fanden diese Erklärung allerdings „unverständlich“.
Reaktion des Gerichts: Deutliche Worte zur KI-Nutzung
Die Reaktion des LG Frankfurt auf den Vorfall fiel eindeutig aus. Wo andere Gerichte in ähnlichen Fällen bereits berufsrechtliche Konsequenzen androhen, entschied sich die 13. Zivilkammer dafür, den Anwalt gewissermaßen vorzuführen. In der Beschlussbegründung machten die Richter ihrem Missfallen Luft und stellten klar, dass der Klägervertreter hier gleich zwei Fehler beging: Zum einen habe er die KI-Ergebnisse ungeprüft übernommen, und zum anderen zeuge der Vorfall von mangelnder Kompetenz im Umgang mit dem Werkzeug.
Um die Sache noch deutlicher zu machen, unternahm das Gericht einen ungewöhnlichen Schritt: Die Kammer befragte kurzerhand selbst mehrere KI-Chatbots zu der streitigen Rechtsfrage. Das Ergebnis war pikant: Die Chatbots konnten – anders als der Anwalt – korrekte und existierende Quellen liefern und sogar die richtige Rechtsauffassung wiedergeben. Für die spezielle (fehlerhafte) Argumentation des Anwalts fand die KI hingegen keinerlei Bestätigung. Mit anderen Worten: Hätte der Anwalt die KI richtig genutzt und die Antworten verifiziert, wären ihm die Fehler vermutlich erspart geblieben. Im zugrundeliegenden WEG-Verfahren (es ging um die Beseitigung baulicher Veränderungen) richtete sich der Streitwert nämlich – wie in der Rechtsprechung üblich – nach dem Wertverlust und nicht nach den Beseitigungskosten. Genau diese korrekte Rechtslage hätten KI-Tools bei richtiger Abfrage geliefert. Der Anwalt hingegen vertrat fälschlich die gegenteilige Auffassung – ohne echte Belege in der Rechtsprechung und offenbar gestützt auf ein halluziniertes KI-Zitat.
Die kritischen Worte des LG Frankfurt ließen keinen Zweifel am Fehlverhalten. In dem Beschluss wird betont, dass es zu den Grundpflichten anwaltlicher Tätigkeit gehört, keine Fundstellen zu erfinden und von KI generierte Quellen vorab inhaltlich zu überprüfen. Einem Anwalt müsse bekannt sein, dass die juristischen Auskünfte derartiger KI-Systeme unzuverlässig sind. Es genüge nicht, sich auf die scheinbare Autorität eines computergenerierten Zitats zu verlassen. Das Gericht stellte klar: Sollte ein Gericht einem Anwalt nicht mehr vertrauen können, weil dieser unwahre Zitate präsentiere, wäre das schadenshaft für die Rechtspflege. Schließlich bauen Gerichtsverfahren darauf auf, dass Anwältinnen und Anwälte sorgfältig recherchieren und korrekte Angaben machen.
Im konkreten Fall zog das LG Frankfurt die notwendigen Konsequenzen: Die falschen BGH-Zitate wurden ignoriert, die richtige Berechnung des Streitwerts angewandt, und dieser wurde schließlich auf 3.000 Euro festgesetzt. Der Anwalt hatte somit nicht nur sein Ziel (einen höheren Streitwert) verfehlt, sondern sich auch eine eindringliche Rüge des Gerichts eingehandelt.
Juristische Bewertung: Verletzung der Anwaltspflichten durch KI-Pannen?
Der Fall wirft die Frage auf, inwiefern das Vorgehen des Anwalts einen Verstoß gegen Berufspflichten darstellt. Klar ist: Auch wenn eine Künstliche Intelligenz im Spiel war, bleibt der Mensch – also der Anwalt – verantwortlich für den Inhalt seines Schriftsatzes. Ein Irrtum oder gar bewusstes Fehlverhalten lässt sich nicht auf die Maschine abwälzen.
Nach deutschem Recht sind Anwältinnen und Anwälte verpflichtet, wahrheitsgemäße und sorgfältig geprüfte Angaben zu machen. So untersagt etwa § 43a Abs. 3 der Bundesrechtsanwaltsordnung (BRAO) ausdrücklich die bewusste Verbreitung von Unwahrheiten. Darunter fällt selbstverständlich auch, wissentlich falsche Behauptungen über den Inhalt von Gesetzen oder Urteilen aufzustellen. Im Kölner Fall vom Juli 2025 (AG Köln, Beschluss v. 02.07.2025 – 312 F 130/25) hatte ein Familienrichter genau darauf hingewiesen: Ein aus KI-Quellen gespickter Schriftsatz voller erfundener Fundstellen „erschwert die Rechtsfindung, führt den unkundigen Leser in die Irre und schädigt das Ansehen des Rechtsstaates und insbesondere der Anwaltschaft empfindlich“. Solch unsachgemäßes Verhalten könne berufsrechtliche Folgen haben. Zwar handelte es sich dabei um einen Hinweis im Beschluss und keine förmliche Sanktion, doch die Stoßrichtung ist klar: Die Verwendung von KI entbindet nicht von der anwaltlichen Sorgfalts- und Wahrheitspflicht.
Im Frankfurter Beschluss klingt ein ähnlicher Vorwurf an: Die Richter monierten, der Anwalt habe elementare Sorgfaltspflichten missachtet und grundlegende anwaltliche Sorgfalt außer Acht gelassen. Interessant ist, dass das LG Frankfurt – anders als das AG Köln – keine direkte Anordnung im Tenor traf, künftig solche KI-Missgriffe zu unterlassen. Dies hat einen rechtlichen Grund: Ein Gericht kann einen Anwalt nicht ohne weiteres per Beschluss zu korrektem Verhalten „befehlen“, da der Anwalt nicht selbst Partei des Rechtsstreits ist. Vielmehr sind Verstöße gegen Berufspflichten gegebenenfalls von den Anwaltskammern zu prüfen und zu sanktionieren. Allerdings können Gerichte sehr wohl Hinweise erteilen und im Protokoll oder in den Entscheidungsgründen Missstände festhalten – was im Ernstfall eine Meldung an die Rechtsanwaltskammer nach sich ziehen kann. Für den betreffenden Anwalt sind solche Ausführungen im Beschluss jedenfalls äußerst peinlich und potenziell karrieregefährdend. Im schlimmsten Fall drohen berufsrechtliche Verfahren (bis hin zu Verweisen oder Geldbußen durch die Anwaltskammer) oder zumindest ein erheblicher Imageschaden bei Gericht und Kollegen.
Darüber hinaus steht die Vertrauensbasis im Prozess auf dem Spiel. Anwältinnen und Anwälte genießen vor Gericht einen Vertrauensvorschuss – Richter verlassen sich in gewissem Maße darauf, dass Zitate und Quellen in Schriftsätzen stimmen. Wird dieses Vertrauen durch falsche KI-Zitate erschüttert, könnten Gerichte künftig misstrauischer sein. Es wäre keine überraschende Entwicklung, wenn Richter zunehmend Nachweise für angeführte Quellen verlangen oder ungewöhnlich klingende Zitate eigenhändig nachprüfen. Das kostet Zeit und kann die Verfahren verzögern. Gerichtsverfahren werden also indirekt aufwendiger, wenn solche Fälle Überhand nehmen, da zusätzliche Prüfschritte nötig werden.
Nicht zuletzt könnte eine Partei, die auf falsche Zitate hereinfällt oder dadurch Zeit verliert, versuchen, daraus prozessuale Vorteile abzuleiten – etwa indem sie die Gegenseite mit den zusätzlichen Kosten belastet. Im deutschen Zivilprozess ist jede Partei zwar für ihren Vortrag verantwortlich, aber grob unwahre Behauptungen können als Verstoß gegen die prozessuale Wahrheitspflicht (§ 138 ZPO) gewertet werden. Zwar bezieht sich § 138 ZPO hauptsächlich auf Tatsachenvortrag, doch das bewusste Zitieren nichtexistenter Rechtsprechung käme einem Täuschungsversuch gleich und könnte im Extremfall als Verfahrensmissbrauch angesehen werden. Bisher ist kein Fall bekannt, in dem ein Gericht explizit deswegen eine Kosten- oder Ordnungsmaßnahme ergriffen hat. Jedoch zeigt der vergleichbare US-Fall, wie ernst die Sache genommen wird: In New York wurden im Jahr 2023 zwei Anwälte von einem Bundesrichter sanktioniert, weil sie von ChatGPT erfundene Urteile in einem Schriftsatz zitiert hatten. Die Anwälte mussten Strafen zahlen und das Fehlverhalten öffentlich eingestehen. Die Thematik ist also international präsent, und die Anwaltschaft weltweit sucht nach dem richtigen Umgang mit KI in der juristischen Arbeit.
Praktische Folgen: Was bedeutet das für Anwältinnen, Anwälte und Gerichte?
Die beschriebenen Vorfälle – sei es in Frankfurt, Köln oder in den USA – machen deutlich, dass KI-gestützte Arbeit im juristischen Bereich mit Vorsicht zu genießen ist. Für Anwältinnen und Anwälte ergeben sich daraus mehrere wichtige Konsequenzen:
- Verantwortung bleibt beim Anwalt: Auch wenn ein KI-Tool Texte formuliert oder Quellen vorschlägt, haftet am Ende der Mensch dafür. Das Argument „Die KI war’s“ wird vor Gericht nicht zählen. Im Frankfurter Fall hoffte das Gericht zwar, dass die Fehler von einem Chatbot und nicht vom Anwalt bewusst selbst stammen – doch entschuldigt ist der Anwalt damit keineswegs. Er hat die KI-Ergebnisse ungeprüft übernommen und muss sich dieses Fehlverhalten zurechnen lassen.
- Vertrauensverlust bei Gerichten: Jeder bekannt gewordene Vorfall von KI-Fehlzitaten schürt bei Richterinnen und Richtern Misstrauen. Wenn Anwälte Schriftsätze einreichen, die ersichtlich von KI stammen oder ungewöhnliche Zitate enthalten, könnten Gerichte künftig skeptischer reagieren. Im Kölner Fall fiel z.B. auf, dass der Schriftsatz stilistisch auffällig war (Stichpunkte, unzusammenhängende Sätze), was den Verdacht aufkommen ließ, er stamme von einer KI. Solche Indizien beachten Gerichte inzwischen. Anwälte müssen damit rechnen, dass Gerichte bei jedem Zitat fragen: „Stimmt das wirklich?„. Diese Entwicklung kann den Arbeitsaufwand erhöhen – sowohl für Anwälte (die mehr nachweisen müssen) als auch für Gerichte (die mehr nachkontrollieren).
- Diskussion über Regelungen und Richtlinien: Die Anwaltsorganisationen beschäftigen sich bereits mit dem Thema. In den USA hat die American Bar Association kürzlich Leitlinien für den KI-Einsatz in der Anwaltschaft herausgegeben, die insbesondere eine Wahrheits- und Sorgfaltspflicht beim Einsatz von KI betonen. Auch hierzulande ist denkbar, dass Rechtsanwaltskammern oder der Gesetzgeber Klarstellungen treffen werden. Derzeit gelten aber schon die allgemeinen Berufspflichten: Ein Anwalt, der KI nutzt, muss die gleichen Sorgfaltsmaßstäbe anlegen, als hätte er einen menschlichen Mitarbeiter beauftragt. Fehler der KI sind im Ergebnis Fehler des Anwalts.
- Fortbildung und Technikkompetenz: Für viele Juristen ist KI noch Neuland. Doch die geschilderten Fälle zeigen, dass ein gewisses technisches Verständnis heute zum Berufsbild gehört. Wer KI-Tools einsetzen will, sollte sich mit deren Funktionsweise und typischen Schwächen vertraut machen. Begriffe wie „Halluzination“ (gemeint ist das selbstsichere Ausspucken falscher Informationen) sollten kein Fremdwort mehr sein. Im Frankfurter Beschluss wurde dem Anwalt explizit mangelnde Kompetenz im Umgang mit dem Tool vorgeworfen. Künftig könnte also auch die Technikkompetenz Teil der Erwartungen an einen Anwalt sein – vergleichbar mit der Fähigkeit, juristische Datenbanken zu bedienen oder elektronische Postfächer (beA) zu nutzen.
- Änderungen im Kanzleialltag: Schließlich werden Kanzleien ihre internen Abläufe anpassen müssen, wenn sie KI sinnvoll nutzen möchten. Denkbar sind interne Richtlinien, die vorschreiben, wofür KI genutzt werden darf (z.B. Entwurf von Schreiben, Ideensammlung) und wofür nicht (z.B. Generierung von Zitaten oder Vertragsklauseln ohne Prüfung). Möglicherweise werden größere Einheiten spezielle juristische KI-Lösungen mit Zugang zu verlässlichen Rechtsdatenbanken einsetzen, anstatt auf frei verfügbare Chatbots zurückzugreifen. Wichtig ist: Jeder Output, den die KI liefert, muss von einem menschlichen Juristen geprüft, verifiziert und an den konkreten Fall angepasst werden, bevor er das Haus verlässt.
Empfehlungen für den anwaltlichen Umgang mit KI
Angesichts der Erfahrungen aus der Praxis hier einige konkrete Tipps, wie Anwältinnen und Anwälte KI-Tools verantwortungsvoll einsetzen können:
- Zitate und Quellen immer verifizieren: Übernehmen Sie keine Gerichtsentscheidungen, Gesetzeszitate oder Literaturnachweise ungeprüft aus einem KI-Text. Jede von der KI genannte Quelle muss im Original nachgelesen oder zumindest in vertrauenswürdigen Datenbanken gefunden werden. Wenn eine KI beispielsweise behauptet, ein BGH-Urteil X vom Datum Y würde eine bestimmte Aussage enthalten, suchen Sie dieses Urteil in juris, beck-online, bei dejure.org oder in der amtlichen Sammlung und prüfen Sie, ob das stimmt. Erst dann darf die Fundstelle in den Schriftsatz. Nicht auffindbare Zitate sollten Sie ersatzlos streichen.
- Keine erfundenen Fakten übernehmen: Ähnlich wie bei Zitaten gilt dies für alle Tatsachenangaben. KI-Modelle neigen dazu, fehlende Details plausibel zu ergänzen. Das kann dazu führen, dass z.B. aus einem 2018er Aufsatz plötzlich ein „Aktualisiert in 2. Auflage 2023-Aufsatz“ wird – obwohl es gar keine zweite Auflage gibt. Oder es werden Gesetze mit falschen Paragraphen zitiert. Solche Halluzinationen müssen Sie erkennen und korrigieren. Nutzen Sie KI daher eher, um bekannten Input zusammenzufassen, nicht um unbekannte Fakten oder Daten zu generieren.
- KI als Hilfsmittel, nicht als Ersatz: Machen Sie sich bewusst, dass KI-Anwendungen derzeit vor allem ein Sprachmodell sind – sie erzeugen sprachlich flüssige Texte, haben aber kein echtes Rechtsverständnis. Verwenden Sie KI für Routineaufgaben wie die Sprachüberarbeitung, die Strukturierung eines Schreibens oder als Ideengeber, aber überlassen Sie einer KI niemals die juristische Bewertung oder Recherche vollständig. Gerade bei komplexen Rechtsfragen bleibt die eigene Recherche in Kommentaren und Urteilsdatenbanken unerlässlich.
- Prompts sorgfältig formulieren: Die Qualität der KI-Antwort hängt stark von Ihrer Eingabe (Prompt) ab. Wenn Sie eine präzise Antwort wollen, stellen Sie präzise Fragen. Ein unspezifischer Befehl wie „Gib mir alle wichtigen BGH-Urteile zum Streitwert“ könnte die KI verleiten, etwas zu erfinden, wenn sie es nicht genau weiß. Besser wäre: „Das Streitwertrecht im Wohnungseigentumsverfahren: Kennst du Urteile, die sagen, ob die Beseitigungskosten oder der Wertverlust maßgeblich sind?„. Dennoch gilt: Auch bei gutem Prompt muss die Antwort geprüft werden. Im Zweifel fragen Sie lieber einen Kollegen oder recherchieren klassisch, wenn Ihnen die KI-Auskunft spanisch vorkommt.
- Kenntnis der Grenzen der KI: Machen Sie sich die Grenzen der KI-Modelle bewusst. Viele Modelle (etwa ChatGPT in der freien Version) basieren auf Daten, die nur bis 2021 oder 2022 reichen. Neuere Gesetze oder Urteile kennt die KI unter Umständen gar nicht. Zudem fehlen ihr oft die Inhalte aus Fach-Datenbanken, da diese hinter Paywalls liegen. Eine KI kann also bestenfalls auf öffentlich zugängliche Informationen zurückgreifen – und selbst die nicht immer korrekt interpretieren. Erwarten Sie also von einem allgemeinen KI-Chatbot keine verlässliche Rechtsberatung. Treaten Sie ihn eher wie einen etwas zerstreuten juristischen Praktikanten: hilfsbereit, aber mit Vorsicht zu genießen.
- Datenschutz und Verschwiegenheit beachten: Wenn Sie KI-Tools verwenden, denken Sie an die anwaltliche Schweigepflicht und den Datenschutz. Vertrauliche Mandantendaten oder ganze Schriftsätze sollten nicht unbedacht in externe KI-Systeme eingegeben werden. Viele KI-Anbieter speichern Eingaben zur Verbesserung ihrer Modelle. Nutzen Sie für sensible Texte möglichst lokale oder sichere KI-Lösungen oder abstrahieren/anonymisieren Sie die Eingaben so, dass keine Rückschlüsse auf konkrete Personen oder Fälle möglich sind. Mandanten würden es Ihnen nicht verzeihen, wenn ihre Daten unkontrolliert in einer KI-Datenbank landen.
- Fortbildung und Updates: Halten Sie sich über die Weiterentwicklung von KI in der Juristerei auf dem Laufenden. Die Technik verbessert sich rasant – möglicherweise werden künftige spezialisierte Juristen-KIs weniger fehleranfällig sein, weil sie z.B. mit den Originaltexten von Gesetzen und Urteilen trainiert sind. Ebenso entstehen nach und nach Ethik-Richtlinien und Best Practices. Nutzen Sie Angebote Ihrer Kammer oder von Fortbildungsinstituten, um den sinnvollen Einsatz von Legal Tech zu erlernen. So machen Sie aus der KI einen nützlichen Assistenten statt einer riskanten Blackbox.
Der Beschluss des LG Frankfurt vom 25.09.2025 ist ein Weckruf: Die Nutzung von Chatbots und KI in juristischen Arbeitsprozessen erfordert äußerste Sorgfalt und Verantwortungsbewusstsein. Weder Gerichte noch Mandanten werden es akzeptieren, wenn Anwältinnen und Anwälte ungeprüft halluzinierte Inhalte aus KI-Systemen übernehmen. KI kann den Kanzleialltag erleichtern, aber sie entbindet nicht von den Kernpflichten des Anwaltsberufs: Gewissenhafte Recherche, Wahrhaftigkeit und fachliche Kontrolle. Wer diese Grundsätze missachtet, riskiert nicht nur peinliche Situationen wie in Frankfurt oder Köln, sondern möglicherweise auch berufsrechtliche Sanktionen und nachhaltigen Vertrauensverlust. Die gute Nachricht ist: Bei umsichtigem Einsatz lässt sich das Potenzial von KI durchaus nutzen – etwa zur Effizienzsteigerung – ohne die Qualität der anwaltlichen Arbeit zu gefährden. Entscheidend ist, dass man die Technik als Werkzeug begreift, das vom Menschen geführt werden muss. So bleibt am Ende die KI im Dienst des Anwalts und nicht umgekehrt. In diesem Sinne: Nutzen Sie neue Technologien, aber tun Sie es mit juristischem Augenmaß und Verantwortung – dann profitieren Kanzlei und Mandant.