PROFIL: „Was bringt mir eine Entscheidung, die ich nicht nachvollziehen kann?“

Lesezeit: 4 Minuten
mit Sophie Martinetz
Presse: Profil 2022, Ausgabe 7


Dass Maschinen den Menschen bald rechtlich überlegen sein werden, glaubt Juristin Sophie Martinetz nicht. Die Gründerin der Plattform Future-Law und Director des Legal Tech Centers der Wirtschaftsuniversität Wien sieht aber bei künstlicher Intelligenz im Alltag noch viele offene rechtliche Fragen.

Die Technologie ist da, um uns zu dienen. Wir müssen mehr tun, damit die Leute verstehen, worum es hier geht.

profil: Welche rechtlichen Herausforderungen sehen Sie beim Einsatz von künstlicher Intelligenz?

Martinetz: Eine Herausforderung ist der Bias, also was die Maschine aus den Daten, die sie verarbeitet, lernt. Zum Beispiel, dass Frauen bei gleicher Qualifikation 30 Prozent weniger verdienen. Geht die KI dann davon aus, dass Frauen 30 Prozent weniger verdienen sollen? Ein ähnliches Problem könnte es im Strafrecht geben: Hat ein Mann aus einem gewissen Bezirk statistisch gesehen mehr kriminelle Energie als aus anderen Bezirken? Das ist eine enorme Herausforderung, und die Frage ist, ob man seinen eigenen Bias überhaupt sieht. Unternehmen haben natürlich die Verpflichtung, dass sie mit ihren Daten verantwortungsvoll umgehen. Die Ergebnisse, die Maschinen liefern, sind aber oft Blackboxes, also nicht nachvollziehbar. Wesentlich ist, dass alle Entscheidungsträger in der juristischen Welt vor allem darauf drängen, dass eine neue Generation entwickelt wird, sogenannte Whiteboxes — bei denen man nachvollziehen kann, nach welchen Kriterien, basierend auf welchen Daten eine Entscheidung zustande kommt.

profil: Aus der KI-Forschung kommt hier das Argument, dass die Algorithmen so komplex sind, dass die Entscheidungen nicht mehr nachvollziehbar sind. Sie sehen das anders?

Martinetz: Ja, was bringt mir dann die Entscheidung? Eine Anwältin muss ihre Entscheidungen in einem Schriftsatz begründen, auch eine Richterin muss ihre Entscheidungen begründen. Warum sollte es nicht mehr so sein, nur weil es automatisiert passiert? Auf Dauer muss diese Nachvollziehbarkeit möglich sein. Wir müssen verstehen, wo und wie Entscheidungen getroffen werden, gemäß welcher Kriterien, wie gewichtet wird.

profil: Die EU will mit dem Artificial Intelligence Act KI-Anwendungen vor allem in hochriskanten Bereichen regulieren und zertifizieren. Könnte das eine Lösung für diese Herausforderung sein?

Martinetz: Ja, wobei man hier beachten muss, dass nicht alle staatlichen Anwendungen automatisch
hochriskant sind und private etwa nicht. Bei privaten KI-Anbietern gibt es ja auch wirtschaftliche Interessen. Es ist sowie im Gesundheitsbereich, wo keine Medikamente ohne Beipackzettel ausgeliefert werden.

profil: Für den Einsatz von Klim Alltag sind noch weitere Fragen zu klären: Wer zum Beispiel trägt die Verantwortung bei einem Unfall mit einem autonomen Auto, oder einer medizinischen Fehldiagnose?

Martinetz: Das ist individuell vom Sachverhalt abhängig. Ein Hersteller hat natürlich eine Produkthaftung. Wen schützt das autonome Auto? Der Vertrag wurde mit dem Pkw-Fahrer abgeschlossen, also ist er eigentlich dem verpflichtet. Diese Themen sind natürlich sehr komplex, und es kommt immer auf den Einzelfall an. Aber wer Technologie einsetzt, kann sich nicht einfach darauf ausreden, diese nicht zu verstehen.

profil: Einzelfälle, die es jetzt schon gibt, sind zum Beispiel mögliche Urheberrechtsverletzungen bei Text- und Bildgeneratoren.

Martinetz: Wie wir mit proprietären Inhalten umgehen werden, ist ein riesiges Thema. Bei Wikipedia werden Quellen gelistet, auf Google-Websites wird verlinkt. Aber wo sehe ich den Urheber bei ChatGPT? Das wird man in den nächsten Jahren lösen müssen.

profil: Wenn künstliche Intelligenz und Robotik in den nächsten Jahrzehnten immer mehr Aufgaben und Entscheidungen übernehmen, braucht es dann vielleicht sogar neue Menschenrechte?

Martinetz: Nein, das sehe ich überhaupt nicht so, weil am Ende ist die Technologie da, um uns zu dienen. Was ich aber schon sehe, ist, dass in Österreich das Thema Digitalisierung nicht genug diskutiert wird. Wir müssen mehr tun, damit die Leute verstehen, welche Chancen und Risiken sich ergeben. Wie wollen wir zukünftig mit Technologie umgehen, wie sollen unsere Kinder damit umgehen? Wir müssen uns überlegen, was wir wollen und was nicht. Und dann schauen, ob es gesetzliche Anpassungen braucht. Auch ethische Fragen brauchen mehr Platz: Wir verfügen über so viele Daten, und dann entscheiden Algorithmen darüber. Wie wir damit umgehen wollen, das gehört diskutiert.

Jahres Corporate Partner

Consent Management Platform von Real Cookie Banner