Was große Sprachmodelle (LLMs) wie ChatGPT im juristischen Bereich (noch) nicht können

Lesezeit: 5 Minuten


Sophie Martinetz, MP Future-Law

Die Grenzen künstlicher Intelligenz im Rechtswesen – ein kritischer Meinungsbeitrag und Einordnung

Große Sprachmodelle wie ChatGPT beeindrucken mit ihren Fähigkeiten, komplexe Texte zu analysieren, verständlich zusammenzufassen und sogar in unterschiedlichsten Stilen neu zu formulieren. Gerade im juristischen Bereich wird das Potenzial dieser Technologien heiß diskutiert. Doch die Euphorie droht, die Risiken und aktuellen Grenzen zu überdecken – und genau diese verdienen eine differenzierte Betrachtung. Was können LLMs wie ChatGPT? Und viel wichtiger: Was können sie (noch) nicht?*

Allerdings gleich vorweg: dieser Beitrag ist nicht gedacht, um Ihnen den Einsatz von LLMs zu relativieren oder Sie davon abzuhalten LLMs in Ihrer juristischen Arbeit einzusetzen – es geht vielmehr um die Einordnung einer realistischen Eewartungshaltung.

Die Stärken der Sprachmodelle – und warum sie nicht ausreichen eine JuristIn zu ersetzen

Es steht außer Frage: LLMs erleichtern alltägliche Aufgaben im juristischen Kontext enorm. Sie können Gesetzestexte zusammenfassen, nützliche Checklisten generieren, Entwürfe von Schriftsätzen verfassen und helfen, komplexe Sachverhalte verständlich für Mandanten aufzubereiten. Darüber hinaus unterstützen sie bei der Strukturierung von Verträgen, beim Identifizieren relevanter Klauseln und bieten sogar Vorschläge für Suchbegriffe und Datenbanken. Wer effizient arbeiten möchte, findet heute schon in diesen Tools einen mächtigen Verbündeten.

Doch gerade diese beeindruckenden Fähigkeiten führen dazu, dass die Grenzen der Modelle leicht übersehen werden. Denn Sprachmodelle sind – bei aller „künstlicher Intelligenz“ – statistische Verfahren und keine Juristen, keine Rechtsberater und schon gar keine Ersatz für fundierte Rechtsrecherche oder anwaltliche Beratung.

Daher ist es wichtig die Grenzen von LLMs zu kennen und diese entsprechend sachgerecht einzusetzen:

1. Kein Zugang zu aktuellen Rechtsdatenbanken

LLMs wie Claude, LeChat, ChatGPT etc haben keinen Live-Zugriff auf amtliche Rechtsdatenbanken wie das österreichische Rechtsinformationssystem (RIS), den Obersten Gerichtshof (OGH) oder das Bundesgesetzblatt (BGBl.). Die Modelle können bestenfalls auf bereits trainierte oder explizit bereitgestellte Inhalte zugreifen – eine Garantie für Aktualität, Vollständigkeit oder korrekte Zitate gibt es nicht. Wer sich auf KI-generierte Rechtsnormen oder Urteile verlässt, riskiert, mit veralteten oder fehlerhaften Informationen zu arbeiten.

2. Keine rechtliche Verantwortung oder Beratung

Der wohl wichtigste Punkt: LLMs dürfen und können keine Rechtsberatung im Sinne der Rechtsanwaltsordnung (RAO) leisten. Sie liefern allgemeine Informationen – aber keine verbindlichen Empfehlungen. Es fehlt jede Form von Haftungsübernahme, wie sie bei Rechtsanwälten oder Steuerberatern selbstverständlich ist. Wer sich auf KI anstelle eines Juristen verlässt, handelt auf eigenes Risiko.

3. Fehlendes Verständnis für Kontext und Praxis

Juristische Entscheidungen entstehen nicht im luftleeren Raum. Sie sind von sozialem, taktischem und institutionellem Kontext geprägt. LLMs fehlt dieses Verständnis: Sie kennen keine internen Abläufe, keine Gerichtspraxis und können keine strategische Beratung bieten. Hinzu kommt, dass Sprachmodelle mitunter plausible, aber erfundene Informationen erzeugen – sogenannte „Halluzinationen“. Ein Fehler, der im juristischen Alltag schwerwiegende Folgen haben kann.

4. Keine Quellenkritik oder Beweiswürdigung

Ein weiteres Manko: LLMs wie ChatGPT bewertet weder die Glaubwürdigkeit noch die Beweiskraft von Quellen. Komplexe juristische Feinheiten, wie die systematische Auslegung oder teleologische Argumentation, werden nur eingeschränkt erkannt. Damit fehlt eine zentrale Fähigkeit, die für rechtliche Argumentation und Entscheidungsfindung unverzichtbar ist.

5. Datenschutz und Datenzugriff

Schließlich bleibt der Datenschutz ein kritischer Punkt: Ohne spezielle technische Lösungen haben allgemeine LLMs keinen Zugriff auf interne, vertrauliche oder personenbezogene Daten – und sie verarbeiten diese auch nicht immer nach den strengen Vorgaben der Datenschutz-Grundverordnung (DSGVO). Das ist in Zeiten immer schärferer Datenschutzregeln ein nicht zu unterschätzendes Defizit. Allerdings gibt es DSGVO-konforme LLMs – das ist bei der Auswahl eines LLMs zu beachten.

Ein Blick auf typische juristische Aufgaben – und ihre Grenzen mit KI

Aufgabeallgemeines LLM wie ChatGPT kannChatGPT kann nicht
Gesetzestexte zusammenfassen🔸Nicht garantieren, dass die Fassung aktuell ist
OGH-Urteile interpretieren✅ Grundzüge🔸Kein Zugang zu aktuellen Entscheidungen
Rechtliche Argumentation strukturieren🔸Keine Prüfung der Schlüssigkeit im Prozessrecht
Vertragsanalyse🔸Keine juristisch verbindliche Bewertung
Erstellung von Schriftsätzen✅ Entwürfe🔸Kein Ersatz für anwaltliche Beratung
Quellenangabe nach RIS🔸Nur manuell möglich🔴 Keine automatische RIS-Abfrage
Rechtsvergleich (EU/AT/DE)🔸Gefahr ungenauer Zitate oder Vermischungen
Mandantenberatung🔴🔴 Verbotene Rechtsdienstleistung

Spezielle Tools wie Rechercheplattformen, Auswertungsplattformen, Analysetools, Dokumentenerstellung etc, die LLMs gezielt auf ihren Verlagsschatz und Daten zugreifen lassen, sind hier in diesem Beitrag nicht gemeint.

Fazit: KI als Werkzeug, nicht als Ersatz

Große allgemeine Sprachmodelle wie Le Chat, Claude und ChatGPT sind zweifellos ein Segen für die Effizienz im juristischen Alltag – aber sie sind kein Ersatz für fundierte juristische Recherche, persönliche Beratung und das Fingerspitzengefühl erfahrener Jurist:innen. Wer KI verantwortungsvoll nutzt, kennt ihre Grenzen und setzt sie gezielt als unterstützendes Werkzeug ein. Alles andere wäre nicht nur fahrlässig, sondern könnte im schlimmsten Fall rechtliche Risiken nach sich ziehen.

Die Zukunft der juristischen Arbeit liegt in der klugen Kombination: „Human in Command“ – Mensch und Maschine, Expertise und Effizienz. Die Aufgabe für Jurist:innen bleibt es, die Spreu vom Weizen zu trennen – und zu wissen, wann künstliche Intelligenz an ihre (derzeitigen) Grenzen stößt.

*Spezielle Tools wie Rechercheplattformen, Auswertungsplattformen, Analysetools, Dokumentenerstellung etc, die LLMs gezielt auf ihren Verlagsschatz und Daten zugreifen lassen, sind hier in diesem Beitrag nicht gemeint.

Von Sophie Martinetz, s.martinetz@future-law.at, +43 664 974 72 72

Jahres Corporate Partner

Consent Management Platform von Real Cookie Banner