Eine Einordnung aktueller Ergebnisse: Wie gefährlich ist KI bei Gericht?

Lesezeit: 3 Minuten


Wie oft reichen AnwältInnen bei Gericht falsche KI-generierte Schriftsätze ein?

Eine Einordnung von Sophie Martinetz

Raten Sie mal- wie viele Fälle wurden schon dokumentiert bei denen halluzinierte KI-generierte Schriftsätze dokumentiert wurden? 2, 20, 2.000, 20.000?

Im Beitrag „Wenn Gerichte halluzinieren“ von Dr. Sebastian Dötterl ist es dokumentiert. Und er legt nahe, dass mit dem Einsatz von Künstlicher Intelligenz in der Justiz etwas grundlegend schiefläuft. Schaut man genauer hin, ist das Bild deutlich nüchterner – und gerade deshalb spannend. Die Antwort ist übrigens 10 Fälle sind aktuell dokumentiert (das sind natürlich 10 Fälle zu viel und die nicht erkannte Dunkelziffer wollen wir nicht diskutieren). Diese Fälle aus der ganzen Welt kann man direkt nachlesen – Link finden Sie weiter unten. Lassen Sie uns das einordnen:

Ja, es ist problematisch, wenn KI-Fehler ihren Weg in gerichtliche Entscheidungen finden. Noch problematischer als fehlerhafte Schriftsätze von Anwältinnen und Anwälten sind Urteile, die sich auf nicht existente Fundstellen oder erfundene Zitate stützen. Aber: Weltweit sind bislang eben nur rund zehn dokumentierte Fälle bekannt, in denen Gerichte selbst betroffen waren oder der Verdacht eines ungeprüften KI-Einsatzes bestand. Zehn. Nicht tausend. Nicht hundert.

Diese Zahl relativiert die oft apokalyptisch geführte Debatte. Sie zeigt: Wir haben es nicht mit einem systemischen Versagen der Anwaltschaft zu tun, sondern mit einzelnen, gut identifizierbaren Fehlanwendungen. Fast alle dieser Entscheidungen wurden vom Gericht korrigiert, zurückgezogen oder in höheren Instanzen aufgehoben. In einem indischen Fall blieb die Entscheidung sogar bestehen – weil sie im Ergebnis richtig war, trotz fehlerhafter Begründung.

Was die Fälle verbindet, ist weniger „die KI“ als vielmehr ein Delegations- und Kontrollproblem. Verantwortung wird weitergereicht: an Praktikanten, Mitarbeitende, Staatsanwaltschaften – oder diffus an ein „Tool“. KI wird genutzt, aber nicht immer geprüft. Und genau hier liegt der Kern des Problems.

Das ist nicht neu: KI sollte so nicht eingesetzt werden. Dem ist zuzustimmen. Aber ebenso wichtig ist ein weiterer Punkt: „Justice delayed is justice denied“ und hier kann generative KI richtig angewendet AnwältInnen und in Folge auch Richterinnen und Richtern sehr wohl helfen, bessere Arbeit zu machen und auch Entscheidungen zu treffen. Nicht als Autorität, sondern als Werkzeug. Nicht ersetzend, sondern unterstützend.

Die eigentliche Frage lautet daher nicht: Wie gefährlich ist KI bei Gericht?
Sondern: Wie gut sind wir darin, Verantwortung, kritisches Denken und KI-Kompetenz zusammenzubringen?

Zehn dokumentierte Fehlurteile sind kein Grund für Panik. Sie sind ein klarer Auftrag: für Ausbildung von JuristInnen, für Standards – und für einen reflektierten, professionellen Umgang mit KI in der Anwaltschaft und Justiz.

Link: Sebastian Dötterl arbeitet diese Fälle präzise auf: (30) Wenn Gerichte halluzinieren – 10 KI-Fehler in Gerichtsurteilen weltweit. | LinkedIn

Was meinen Sie – schreiben Sie mir unter s.martinetz@future-law.at

Jahres Corporate Partner

Consent Management Platform von Real Cookie Banner