Human in Command – warum „Human in the Loop“ beim Einsatz von (Legal) KI nicht mehr genügt

Lesezeit: 4 Minuten


Autorin: Sophie Martinetz, Future-Law

Der Begriff Human in the Loop hat sich in den letzten Jahren zu einer Art Beruhigungsformel entwickelt. Er suggeriert Kontrolle, Verantwortung und menschliche Aufsicht beim Einsatz künstlicher Intelligenz. Tatsächlich ist er häufig genau das Gegenteil: ein semantisches Feigenblatt für Systeme, die faktisch Entscheidungen prägen, strukturieren und vor verlagern – während der Mensch lediglich noch abnickt, korrigiert oder haftet.

Gerade in wissens- und urteilsbasierten Professionen wie der Juristerei ist dieser Standard zu niedrig angesetzt. Was es stattdessen braucht, ist ein klarer Mindeststandard: Human in Command.

Vom Mitlaufen zur Führung

Human in the Loop beschreibt eine Konstellation, in der der Mensch formell Teil eines Entscheidungsprozesses bleibt. Er kann eingreifen, überprüfen oder bestätigen. Was dieser Ansatz jedoch systematisch unterschätzt, ist die kognitive Macht von KI-Systemen: Sie strukturieren Optionen, setzen Defaults, prägen Sprache und lenken Aufmerksamkeit. Wer den Output kontrolliert, kontrolliert oft bereits den Denkraum.

Empirische Studien zeigen deutlich, dass Menschen in solchen Konstellationen zu Automation Bias neigen: KI-Vorschläge werden überbewertet, eigene Abweichungen seltener verfolgt, Fehler weniger erkannt. Der Mensch ist „in der Schleife“, aber nicht mehr am Steuer.

Human in Command verschiebt diese Perspektive fundamental. Der Mensch ist hier nicht bloß Korrektiv, sondern Entscheidungsträgerin mit Gestaltungs- und Deutungshoheit. KI assistiert, schlägt vor, simuliert – aber sie definiert weder Ziel noch Maßstab.

Kontrolle ist nicht gleich Verantwortung

Gerade im Recht ist Verantwortung untrennbar mit Interpretation verbunden. Normen sind nicht nur anzuwenden, sondern auszulegen, zu gewichten und in soziale Kontexte einzubetten. Diese Arbeit ist nicht delegierbar, ohne den Kern juristischer Tätigkeit zu beschädigen.

Ein System, das Vorschläge generiert, Argumentationslinien vorzeichnet oder Wahrscheinlichkeiten berechnet, beeinflusst notwendigerweise das Ergebnis. Wenn der menschliche Beitrag sich auf die Frage reduziert, ob der Output „plausibel klingt“, dann liegt die faktische Steuerung bereits bei der Maschine.

Human in Command bedeutet daher:

  • Juristinnen definieren Fragestellung, Prüfkriterien und Bewertungsmaßstäbe.
  • KI-Outputs werden explizit als Hypothesen behandelt, nicht als Lösungen.
  • Abweichung von KI-Vorschlägen ist nicht Rechtfertigungs-, sondern Normalfall.
  • Verantwortung folgt der Entscheidung – nicht dem Tool.

Die Illusion der Effizienz

Ein häufiges Argument zugunsten schwacher Kontrollmodelle ist Effizienz. Doch Effizienz ohne Urteilskraft ist kurzsichtig. Studien zeigen, dass mit zunehmender KI-Nutzung höhere kognitive Tätigkeiten – Analyse, Synthese, Evaluation – zurückgedrängt werden. Übrig bleibt das Prüfen und Anpassen maschineller Vorschläge.

Das ist kein Fortschritt, sondern eine funktionale Verarmung juristischer Arbeit. Langfristig drohen Kompetenzabbau, Homogenisierung von Argumentationen und der Verlust dogmatischer Innovationskraft.

Human in Command wirkt diesem Trend entgegen, weil es KI nicht als Ersatz für Denken begreift, sondern als Kontrastfolie: ein Werkzeug, an dem sich menschliche Urteilskraft schärft – oder scheitert.

Normativer Mindeststandard statt Goodwill-Formel

Der europäische Rechtsrahmen rund um KI spricht zunehmend von menschlicher Aufsicht. Doch Aufsicht ist zu wenig. Was es braucht, ist ein klar formulierter normativer Mindeststandard für wissensbasierte Anwendungen: Der Mensch muss nicht nur beteiligt, sondern führend sein.

Für die Rechtsbranche bedeutet das konkret:

  • Human in Command als verbindliches Prinzip in KI-Policies.
  • Dokumentation nicht nur der Entscheidung, sondern auch der menschlichen Abwägung.
  • Ausbildung von JuristInnen mit Fokus auf kritisches Denken, Dissensfähigkeit und methodische Reflexion – nicht nur Tool-Kompetenz.
  • Eine Kultur, in der das eigenständige juristische Urteil höher bewertet wird als perfekte KI-Outputs.

Schlussgedanke

KI ist mächtig – gerade deshalb darf sie nicht stillschweigend zum Co-Autor juristischer Entscheidungen werden.
Die zentrale Frage lautet nicht, ob der Mensch „noch irgendwo dabei“ ist.
Sondern: Wer gibt die Richtung vor?

Human in the Loop beantwortet diese Frage nicht.
Human in Command schon.

Sophie Martinetz

von Sophie Martinetz, Managing Partner

s.martinetz@future-law.at

Jahres Corporate Partner

Consent Management Platform von Real Cookie Banner