Was große Sprachmodelle (LLMs) wie ChatGPT im juristischen Bereich (noch) nicht können
28. Dezember 2025
Sophie Martinetz, MP Future-Law
Die Grenzen künstlicher Intelligenz im Rechtswesen – ein kritischer Meinungsbeitrag und Einordnung
Große Sprachmodelle wie ChatGPT beeindrucken mit ihren Fähigkeiten, komplexe Texte zu analysieren, verständlich zusammenzufassen und sogar in unterschiedlichsten Stilen neu zu formulieren. Gerade im juristischen Bereich wird das Potenzial dieser Technologien heiß diskutiert. Doch die Euphorie droht, die Risiken und aktuellen Grenzen zu überdecken – und genau diese verdienen eine differenzierte Betrachtung. Was können LLMs wie ChatGPT? Und viel wichtiger: Was können sie (noch) nicht?*
Allerdings gleich vorweg: dieser Beitrag ist nicht gedacht, um Ihnen den Einsatz von LLMs zu relativieren oder Sie davon abzuhalten LLMs in Ihrer juristischen Arbeit einzusetzen – es geht vielmehr um die Einordnung einer realistischen Eewartungshaltung.
Die Stärken der Sprachmodelle – und warum sie nicht ausreichen eine JuristIn zu ersetzen
Es steht außer Frage: LLMs erleichtern alltägliche Aufgaben im juristischen Kontext enorm. Sie können Gesetzestexte zusammenfassen, nützliche Checklisten generieren, Entwürfe von Schriftsätzen verfassen und helfen, komplexe Sachverhalte verständlich für Mandanten aufzubereiten. Darüber hinaus unterstützen sie bei der Strukturierung von Verträgen, beim Identifizieren relevanter Klauseln und bieten sogar Vorschläge für Suchbegriffe und Datenbanken. Wer effizient arbeiten möchte, findet heute schon in diesen Tools einen mächtigen Verbündeten.
Doch gerade diese beeindruckenden Fähigkeiten führen dazu, dass die Grenzen der Modelle leicht übersehen werden. Denn Sprachmodelle sind – bei aller „künstlicher Intelligenz“ – statistische Verfahren und keine Juristen, keine Rechtsberater und schon gar keine Ersatz für fundierte Rechtsrecherche oder anwaltliche Beratung.
Daher ist es wichtig die Grenzen von LLMs zu kennen und diese entsprechend sachgerecht einzusetzen:
1. Kein Zugang zu aktuellen Rechtsdatenbanken
LLMs wie Claude, LeChat, ChatGPT etc haben keinen Live-Zugriff auf amtliche Rechtsdatenbanken wie das österreichische Rechtsinformationssystem (RIS), den Obersten Gerichtshof (OGH) oder das Bundesgesetzblatt (BGBl.). Die Modelle können bestenfalls auf bereits trainierte oder explizit bereitgestellte Inhalte zugreifen – eine Garantie für Aktualität, Vollständigkeit oder korrekte Zitate gibt es nicht. Wer sich auf KI-generierte Rechtsnormen oder Urteile verlässt, riskiert, mit veralteten oder fehlerhaften Informationen zu arbeiten.
2. Keine rechtliche Verantwortung oder Beratung
Der wohl wichtigste Punkt: LLMs dürfen und können keine Rechtsberatung im Sinne der Rechtsanwaltsordnung (RAO) leisten. Sie liefern allgemeine Informationen – aber keine verbindlichen Empfehlungen. Es fehlt jede Form von Haftungsübernahme, wie sie bei Rechtsanwälten oder Steuerberatern selbstverständlich ist. Wer sich auf KI anstelle eines Juristen verlässt, handelt auf eigenes Risiko.
3. Fehlendes Verständnis für Kontext und Praxis
Juristische Entscheidungen entstehen nicht im luftleeren Raum. Sie sind von sozialem, taktischem und institutionellem Kontext geprägt. LLMs fehlt dieses Verständnis: Sie kennen keine internen Abläufe, keine Gerichtspraxis und können keine strategische Beratung bieten. Hinzu kommt, dass Sprachmodelle mitunter plausible, aber erfundene Informationen erzeugen – sogenannte „Halluzinationen“. Ein Fehler, der im juristischen Alltag schwerwiegende Folgen haben kann.
4. Keine Quellenkritik oder Beweiswürdigung
Ein weiteres Manko: LLMs wie ChatGPT bewertet weder die Glaubwürdigkeit noch die Beweiskraft von Quellen. Komplexe juristische Feinheiten, wie die systematische Auslegung oder teleologische Argumentation, werden nur eingeschränkt erkannt. Damit fehlt eine zentrale Fähigkeit, die für rechtliche Argumentation und Entscheidungsfindung unverzichtbar ist.
5. Datenschutz und Datenzugriff
Schließlich bleibt der Datenschutz ein kritischer Punkt: Ohne spezielle technische Lösungen haben allgemeine LLMs keinen Zugriff auf interne, vertrauliche oder personenbezogene Daten – und sie verarbeiten diese auch nicht immer nach den strengen Vorgaben der Datenschutz-Grundverordnung (DSGVO). Das ist in Zeiten immer schärferer Datenschutzregeln ein nicht zu unterschätzendes Defizit. Allerdings gibt es DSGVO-konforme LLMs – das ist bei der Auswahl eines LLMs zu beachten.
Ein Blick auf typische juristische Aufgaben – und ihre Grenzen mit KI
| Aufgabe | allgemeines LLM wie ChatGPT kann | ChatGPT kann nicht |
| Gesetzestexte zusammenfassen | ✅ | 🔸Nicht garantieren, dass die Fassung aktuell ist |
| OGH-Urteile interpretieren | ✅ Grundzüge | 🔸Kein Zugang zu aktuellen Entscheidungen |
| Rechtliche Argumentation strukturieren | ✅ | 🔸Keine Prüfung der Schlüssigkeit im Prozessrecht |
| Vertragsanalyse | ✅ | 🔸Keine juristisch verbindliche Bewertung |
| Erstellung von Schriftsätzen | ✅ Entwürfe | 🔸Kein Ersatz für anwaltliche Beratung |
| Quellenangabe nach RIS | 🔸Nur manuell möglich | 🔴 Keine automatische RIS-Abfrage |
| Rechtsvergleich (EU/AT/DE) | ✅ | 🔸Gefahr ungenauer Zitate oder Vermischungen |
| Mandantenberatung | 🔴 | 🔴 Verbotene Rechtsdienstleistung |
Spezielle Tools wie Rechercheplattformen, Auswertungsplattformen, Analysetools, Dokumentenerstellung etc, die LLMs gezielt auf ihren Verlagsschatz und Daten zugreifen lassen, sind hier in diesem Beitrag nicht gemeint.
Fazit: KI als Werkzeug, nicht als Ersatz
Große allgemeine Sprachmodelle wie Le Chat, Claude und ChatGPT sind zweifellos ein Segen für die Effizienz im juristischen Alltag – aber sie sind kein Ersatz für fundierte juristische Recherche, persönliche Beratung und das Fingerspitzengefühl erfahrener Jurist:innen. Wer KI verantwortungsvoll nutzt, kennt ihre Grenzen und setzt sie gezielt als unterstützendes Werkzeug ein. Alles andere wäre nicht nur fahrlässig, sondern könnte im schlimmsten Fall rechtliche Risiken nach sich ziehen.
Die Zukunft der juristischen Arbeit liegt in der klugen Kombination: „Human in Command“ – Mensch und Maschine, Expertise und Effizienz. Die Aufgabe für Jurist:innen bleibt es, die Spreu vom Weizen zu trennen – und zu wissen, wann künstliche Intelligenz an ihre (derzeitigen) Grenzen stößt.
*Spezielle Tools wie Rechercheplattformen, Auswertungsplattformen, Analysetools, Dokumentenerstellung etc, die LLMs gezielt auf ihren Verlagsschatz und Daten zugreifen lassen, sind hier in diesem Beitrag nicht gemeint.
Von Sophie Martinetz, s.martinetz@future-law.at, +43 664 974 72 72
