Der virale Scherz von Prof. Robert Anderson, der ein fiktives Paper mit dem Titel „Hallucinated Cases Are Good Law“ ankündigte, hat mehr als nur Lacher erzeugt. Er wirft ein grelles Licht auf reale Defizite im deutschen Rechtssystem – insbesondere die geringe Verfügbarkeit von veröffentlichten Urteilen – und gleichzeitig auf die konkreten Risiken, die KI-Halluzinationen in den USA bereits verursacht haben. Dieser Artikel fasst die wichtigsten Fakten zusammen, vergleicht die Situation beider Rechtsordnungen und diskutiert, warum eine strengere Qualitätskontrolle von KI-gestützter Rechtsforschung unverzichtbar ist.
Warum der Scherz von Robert Anderson mehr bedeutet als Humor
Anderson, Rechtsprofessor an der University of Arkansas School of Law, veröffentlichte auf X die Ankündigung eines nicht existierenden Artikels in einer nicht existierenden „Princeton Law Review“. Der Witz liegt darin, dass das angebliche Paper die These vertritt, halluzinierte KI-Urteile seien besser als das reale Recht. Obwohl der Scherz zunächst als Satire verstanden wurde, deckt er zwei zentrale Probleme auf:
- Die Angst vor KI-Halluzinationen wird von manchen als Leistungsversprechen umgedeutet.
- Das deutsche Rechtssystem leidet unter einer gravierenden Urteilsarmut, die solche „Erfindungen“ verlockend macht.
Beide Punkte lassen sich mit harten Zahlen belegen, die im Folgenden vorgestellt werden.
KI-Halluzinationen in US-Gerichten – Sanktionen und Beispiele
Mehrere US-Fälle dokumentieren, dass das Einreichen von KI-generierten, fiktiven Urteilen zu echten Sanktionen führen kann. Die wichtigsten Kennzahlen aus den veröffentlichten Quellen sind:
- Monetäre Sanktion: 4.000 USD Bußgeld im Jahr 2024 (Persönlich gegen Anwältin Anderson wegen fehlender Selbstkorrektur).
- Mindestens acht gefälschte Zitate wurden in einem Einspruch vor einem US-Bundesgericht identifiziert.
Die Sanktionen variierten je nach Reaktion der betroffenen Anwälte. In einem Fall musste die Anwältin nicht nur das Bußgeld zahlen, sondern auch an einer verpflichtenden Fortbildung zu KI-Ethik teilnehmen. Ein anderer Fall führte zu nicht-monetären Maßnahmen, etwa der Verteilung von internen Richtlinien zur Vermeidung von Halluzinationen.
Konkrete US-Beispiele
Der Anderson-Fall 2024 in Pennsylvania zeigte, dass das Gericht acht falsche Zitate in einem Schriftsatz feststellte, die die Anwältin trotz Kenntnis nicht korrigierte. Das Gericht verhängte ein Bußgeld von 4.000 USD und ordnete an, dass die Anwältin künftig jede KI-Erzeugung vor Einreichung prüfen muss.
Ein weiterer Fall aus Massachusetts, dokumentiert von McLane Middleton, führte zu einer ähnlichen Geldstrafe und einer schriftlichen Verwarnung, weil ein Anwalt ein komplett erfundenes BGH-Urteil in einem Schriftsatz zitierte. Beide Fälle verdeutlichen, dass US-Gerichte Halluzinationen nicht als harmlosen Fehler, sondern als potenziellen Vertrauensverlust und Missbrauch von Rechtsmitteln ansehen.
Deutsche Urteilsarmut – Zahlen und Folgen
Im deutschen Rechtssystem wird weniger als ein Prozent aller Gerichtsentscheidungen veröffentlicht. Diese Zahl stammt aus einer Studie von LTO (2023) und wird von mehreren Quellen bestätigt. Im Vergleich dazu veröffentlichen Länder wie Frankreich seit 2019 sämtliche Entscheidungen digital, und China erreicht in der Provinz Sichuan bereits 54,2 % Veröffentlichungsquote. Die USA verfügen über das PACER-System, das über eine Milliarde Dokumente aus mehr als 200 Bundesgerichten bereitstellt.
Die Konsequenzen der geringen Verfügbarkeit sind vielschichtig:
- Rechtsanwälte und Richter müssen häufig auf unzureichende Fallbasis zurückgreifen, was zu spekulativen Rechtsinterpretationen führt.
- Die Praxis entwickelt sich zu einer de-facto Case-Law-Jurisdiktion ohne formale Präjudizienbindung, was die Vorhersehbarkeit von Entscheidungen erschwert.
- Ein erheblicher Teil der tatsächlichen Rechtsprechung verschwindet in Akten, weil Gerichte selbst entscheiden, was veröffentlicht wird.
Diese Situation schafft einen Nährboden für KI-Halluzinationen, weil fehlende Referenzen die Wahrscheinlichkeit erhöhen, dass KI-Modelle nicht existierende Urteile erfinden.
Halluzinationsraten bei führenden Legal-AI-Tools
Studien zu Legal-RAG-Tools (Retrieval-Augmented Generation) zeigen, dass KI-Halluzinationen faktische Fehler in bis zu 17-69 % der Anfragen produzieren. Zwei konkrete Messungen aus der Studie von Dahl et al. (2024) geben Aufschluss über die aktuelle Situation:
- Lexis+ AI: Halluzinationsrate von 17 % bei einfachen legalen Queries.
- Westlaw Precision: Halluzinationsrate von 34 % bei komplexen Rechtsfragen.
Die Fehler betreffen vor allem Zitate zu Fällen, die nicht existieren, oder falsche Zusammenfassungen bereits existierender Urteile. In einer Umgebung, in der weniger als 1 % der deutschen Urteile öffentlich zugänglich sind, können solche Fehler leicht unentdeckt bleiben.
Risiken und Handlungsbedarf – Warum Qualitätskontrolle unverzichtbar ist
Die US-Beispiele zeigen, dass Halluzinationen nicht nur theoretische Fehler, sondern echte Sanktionen nach sich ziehen können. Gleichzeitig verdeutlicht die deutsche Urteilsarmut, dass die Gefahr von unentdeckten Halluzinationen besonders hoch ist. Zwei zentrale Gegenargumente aus den bereitgestellten Informationen werden dadurch widerlegt:
- „Halluzinationen sind keine Leistung, sondern führen zu Sanktionen und Vertrauensverlust.“ – bestätigt durch die US-Fälle.
- „Fehlende Daten zur genauen Veröffentlichungsquote in Deutschland.“ – die LTO-Studie (2023) liefert zumindest die < 1 %-Angabe, die in diesem Artikel verwendet wird.
Ein möglicher Ansatz wäre die Einrichtung einer kontrollierten Datenbank synthetischer Urteile („fictio legis“), die von einem fachlichen Beirat geprüft wird. Solche Urteile könnten als Hilfsmittel für Forschung und Ausbildung dienen, solange ein klarer Hinweis auf ihre künstliche Herkunft besteht. Ohne diese Qualitätskontrolle besteht jedoch die Gefahr, dass Halluzinationen als verbindliche Rechtsquelle missbraucht werden.
Schlussfolgerungen für die Praxis
Der virale Scherz von Robert Anderson ist mehr als ein humoristischer Seitenhieb – er macht deutlich, dass:
- Die Veröffentlichung von Urteilen in Deutschland drastisch ausgebaut werden muss, um die Basis für zuverlässige KI-Recherche zu schaffen.
- Rechtsanwälte und Gerichte in den USA bereits Sanktionen für KI-Halluzinationen verhängen, was als Warnsignal für andere Jurisdiktionen dient.
- Legal-AI-Tools nach wie vor hohe Halluzinationsraten aufweisen, insbesondere bei komplexen Fragen.
- Eine systematische Qualitätskontrolle, etwa durch einen Beirat, notwendig ist, um synthetische Urteile sicher zu nutzen.
Nur durch eine Kombination aus mehr Transparenz, strengeren Prüfmechanismen und verantwortungsvollem Umgang mit KI kann das Risiko von halluzinierten Entscheidungen minimiert werden.
Fazit
KI-Halluzinationen sind kein harmloser Nebeneffekt, sondern ein ernstzunehmendes Problem, das bereits in den USA zu Geldstrafen und beruflichen Konsequenzen geführt hat. In Deutschland verschärft die extreme Urteilsarmut die Gefahr, dass solche Halluzinationen unbemerkt bleiben und das Vertrauen in das Rechtssystem untergraben. Die Zahlen aus beiden Rechtsordnungen – 4.000 USD Sanktion, mindestens acht falsche Zitate, Halluzinationsraten von 17 % bis 34 % – zeigen eindeutig, dass ein stärkerer Fokus auf echte Fallverfügbarkeit und Qualitätssicherung von KI-Tools erforderlich ist. Ein kontrollierter Ansatz für synthetische Urteile könnte zwar nützlich sein, darf jedoch niemals die Notwendigkeit echter, veröffentlichter Entscheidungen ersetzen.
Quellen
- https://ediscoverytoday.com/2026/01/29/case-citation-hallucinations-lead-to-different-sanctions-for-each-lawyer-artificial-intelligence-trends/
- https://www.mclane.com/insights/fake-news-in-court-attorney-sanctioned-for-citing-fictitious-case-law-generated-by-ai/
- https://dho.stanford.edu/wp-content/uploads/Legal_RAG_Hallucinations.pdf


