Sichere Anwendung von Künstlicher Intelligenz für Legal Tech Tools
2. Januar 2024
Die rasante Entwicklung der Künstlichen Intelligenz (KI) hat in den letzten Jahren zu erheblichen Fortschritten in verschiedenen Bereichen geführt. Doch gleichzeitig sind ethische und rechtliche Fragen aufgekommen, insbesondere in Bezug auf Vertrauenswürdigkeit und Sicherheit.
Hier eine aktuelle Einordnung über die Bedeutung wie Künstliche Intelligenz sicher eingesetzt werden kann.
Stand der Technik: Aufgaben, die KI gut erledigen kann
Es ist wichtig, die aktuellen Fähigkeiten von KI realistisch einzuschätzen. Die Aufgaben, die KI gut erledigen kann, lassen sich grob in drei Gruppen einteilen:
- Echter Fortschritt erkennbar, z.B.:
- Musik- und Fotokennung, einschließlich Gesichtserkennung.
- Texterstellung, Zusammenfassung, Strukturierung und Übersetzung.
- Bildanalyse und -generierung.
- Speech-to-Text (Konvertierung von gesprochenen Worten in Text).
- Nicht perfekt, aber Verbesserungen möglich, z.B.:
- Spam-Erkennung.
- Empfehlungen von Videos, Jobs, Produkten usw.
- Erkennung von Copyright-Verletzungen.
- Automatische Aufsatzbenotung.
- Hate-Speech-Erkennung.
- Fundamental zweifelhaft, z.B.:
- Vorhersage (Predictive Analyses) von Rückfällen im Strafrecht.
- Vorhersage von Erfolg im Job (Recruiting usw.).
- Vorhersagende Polizeiarbeit.
- Vorhersage von Terrorgefährdung.
- Vorhersage gefährdeter Kinder.
Es ist wichtig zu betonen, dass KI keine perfekte Lösung ist und menschliches Urteilsvermögen weiterhin entscheidend bleibt.
Qualität von KI Tools – was ist zu beachten?
Die EU hat eine Leitlinie mit sieben Komponenten für die Qualität von KI-Tools erarbeitet. Bei der Auswahl von Legal Tech Tools, die KI:
- Sicherheit & Robustheit
- Performance und Funktionalität
- Zuverlässigkeit
- Datenqualität – Datenschutz und Daten-Governance
- Datenmanagement
- Erklärbarkeit – Transparenz
- Bias – Fairness und Nicht-Diskriminierung
Diese Komponenten bilden die Grundlage für das Verständnis von vertrauenswürdiger KI. Das bedeutet für jeden der sieben Bereiche folgendes:
- Sicherheit und Robustheit: Die Sicherheit und Robustheit eines KI-Systems beziehen sich darauf, wie anfällig es für bösartige Einflüsse ist. Der Fokus liegt besonders auf der Durchführung geeigneter Tests zur Erkennung von schädlichem Input sowie der Implementierung von Maßnahmen gegen gezielte Angriffe. Ziel ist es, die Robustheit des KI-Services sowie die Vertraulichkeit und Integrität der Daten während des gesamten Trainingsprozesses des Algorithmus sicherzustellen.
- Performance und Funktionalität: Die Performance und Funktionalität gewährleisten, dass der KI-Dienst die definierten Leistungsziele gemäß seiner Eigenschaften und seines Einsatzzwecks erreicht. Vor dem produktiven Einsatz muss das System ausreichend trainiert, evaluiert und getestet werden, um die Einhaltung der Vorgaben zu bestätigen. Die Verwendung von Leistungsmetriken, wie beispielsweise der Genauigkeit des Algorithmus, ermöglicht eine messbare Bewertung des KI-Dienstes.
- Zuverlässigkeit: Zuverlässigkeit umfasst die Etablierung von Prozessen für den kontinuierlichen Betrieb des KI-Dienstes in produktiven Umgebungen sowie die Untersuchung möglicher Fehler und Ausfälle. Hierbei sind angemessene Verfahren für Ressourcenmanagement, Logging, Fehlerbehandlung und Back-ups von entscheidender Bedeutung.
- Datenqualität – Datenschutz und Daten-Governance: Im Bereich Datenqualität wird ein Rahmenwerk für die Datenverarbeitung gefordert, um eine angemessene Datenqualität sicherzustellen. Dies soll sicherstellen, dass die Daten eines KI-Dienstes, sowohl Trainings- als auch Testdaten, den geltenden Vorgaben zur Datenqualität entsprechen.
- Datenmanagement: Datenmanagement beinhaltet Kriterien für die strukturierte Erfassung und Übernahme von Daten zu Trainingszwecken des KI-Dienstes. Es werden datenbezogene Rahmenbedingungen festgelegt, die sowohl während der Entwicklung als auch im Betrieb des KI-Dienstes erfüllt werden müssen, um Schutz gegen unautorisierte Zugriffe zu bieten.
- Erklärbarkeit – Transparenz: Erklärbarkeit bezieht sich auf Maßnahmen, die dem Nutzer eines KI-Dienstes helfen sollen, die Entscheidungen der KI zu verstehen und nachzuvollziehen. Insbesondere bei KI-Diensten, deren Verfahren nicht vollständig nachvollzogen werden können, soll dem Nutzer transparent gemacht werden, welche Elemente des Dienstes nicht vollständig erklärbar sind, abhängig von der Kritikalität des jeweiligen Anwendungsgebiets.
- Bias – Fairness und Nicht-Diskriminierung: Bias zielt darauf ab sicherzustellen, dass mögliche Voreingenommenheiten (z.B. durch fehlerhafte Daten bzw deren fehlerhaften Verarbeitung), die sich beispielsweise in einem diskriminierenden Output des KI-Dienstes zeigen, angemessen untersucht werden. Dabei sollen mathematische Verfahren zur Bewertung des sogenannten Bias angewendet werden, um einen fairen Output und gleichzeitig eine geeignete Performance des Algorithmus sicherzustellen.
Generative KI: Hinter den Kulissen von Textmaschinen wie ChatGPT
Die neue Generation der generativen KI, die auf maschinellem Lernen und Deep Learning basiert, insbesondere auf sogenannten Foundation Models (Large Language Models, LLMs) bringt neue Möglichkeiten. Generative KI lernt statistisch plausible Muster über Deep Learning-Algorithmen und ist darauf trainiert, menschliches Verhalten und Tätigkeiten zu imitieren. Es kann plausibel klingende Statements, Bilder, Musik und Software generieren. Es ist jedoch wichtig zu beachten, dass diese Modelle nicht darauf trainiert sind, Kausalitäten zu überprüfen oder tatsächliche Zusammenhänge zu erkennen. Sie können nicht logisch denken und haben kein Bewusstsein. Eine KI wie ChatGPT errechnet statistisch das nächste Wort. Das klingt einfach, ist es auch, braucht allerdings eine gewaltige Menge an Rechenleistung.
Einsatzmöglichkeiten von Textgeneratoren als Legal Tech
Textgeneratoren wie ChatGPT finden vielfältige Anwendungen, darunter:
- Übersetzung von Texten zwischen Sprachen und Dialekten.
- Zusammenfassung von Texten (z.B. Gerichtsentscheidungen, Artikeln etc.).
- Analyse von Texten auf Muster oder Trends (z.B. Vertragsanalyse).
- Textkorrektur auf Grammatik, Stilfehler usw.
- Personalisierung von Text, z.B. nach Zielgruppen für Marketing (z.B. Ergänze passende Emojis zum LinkedIn Text).
- Chatbots zur menschenähnlichen Beantwortung von Fragen, z.B. Kundenanfragen basierende auf eigenen Daten.
- Erarbeitung von Basiswissen und Recherchen zum aktuellen Stand des Wissens. Achtung, es ist kein juristisches Recherche Tool.
- Spracherkennung (Speech-to-Text), z.B. Transkripte.
- Klassifizierung und Bildung von Kategorien, z.B. bei großer Anzahl von Dokumenten.
Diese Anwendungen zeigen das breite Spektrum der Möglichkeiten von Textgeneratoren in verschiedenen Branchen.
Qualität von KI-Services: Sechs wichtige Fragen vor der Anschaffung
Folgende Fragen sollten sich JuristInnen stellen, bevor man sich für einen KI-Service entscheidet:
- Trainingsdaten: Mit welchen Daten wurde das Modell trainiert, und gibt es Ähnlichkeiten mit dem Einsatzkontext? Das sollte in den jeweiligen AGBs ausgewiesen werden.
- Funktionalität: Welche Funktion erfüllt das KI-System, und worauf ist es optimiert? Also wofür wollen wir ein Tool in der Kanzlei oder Rechtsabteilung einsetzen. Erleichterung der täglichen textbasierten Arbeit wie Emaildraften, Zusammenfassen etc. Oder Riskoanalyse von Verträgen, Durchsuchen von Dokumenten, „Frag den Akt“ Funktionalitäten, Suchen und Finden von Klauseln in eigenen Dokumentdatenschatz, Vertragsabgleich, Suche und Finden mit Metasuchmaschine, Wissensmanagement.
- Inputdaten: Welche Daten werden vom KI-System verwendet, und besteht ein logischer Zusammenhang mit dem Einsatzzweck? Das sogenannte Grounding, also die Verwendung der eigenen Daten als Basisdaten für den Einsatz von KI, ist gerade für JuristInnen in Kanzleien und Rechtsabteilungen ein interessanter Einsatzbereich.
- Speicherung meiner Daten: Werden die eingegebenen zur Verfügung gestellten Daten (also die Inputdaten) extern gespeichert, und wenn ja, wo? Auch hier ist es essentiell eine klare unternehmensinterne Haltung zu entwickeln. Je nach Anwendung und/ oder risikobasierten Ansatz, könnten unterschiedliche Tools unterschiedlich bewertet werden.
- Vertraulichkeit: Werden die eingegebenen Daten als Trainingsdaten verwendet, und wie wird der Schutz von Geschäftsgeheimnissen gewährleistet? Hier sind natürlich Enterprise Lösungen für Unternehmen klar im Vorteil.
- Speicherung der Ergebnisdaten: Was ist das Ergebnis, und wo werden diese Ergebnisdaten gespeichert?
Mit der Beachtung dieser Fragestellungen kann sichergestellt werden, dass der Einsatz von KI den eigenen Anforderungen entspricht und den geltenden rechtlichen Standards genügt.
Ein gutes Beispiel dafür wäre eine Regelung wie folgende „Verschlüsselung der Daten: Alle Daten, die zwischen XXX Pro-Abonnenten und der Infrastruktur übertragen werden, werden mit der modernsten TLS-Verschlüsselung verschlüsselt.“ Oder „Die Texte von XXX-Abonnenten werden nicht dauerhaft, sondern nur im RAM gespeichert.“ Oder: „Die Texte der XXX-Abonnenten werden nicht zum Trainieren unserer Modelle verwendet.“
Achtung: Die Qualität von KI ist nicht abschließend oder 100%, und es liegt weiterhin in der Verantwortung des Menschen, die Qualität zu gewährleisten. Die Qualität der eingespielten Daten haben auch einen großen Einfluss auf die Ergebnisse. Die Mensch-Maschine-Interaktion bleibt unabdingbar.
Zusammenfassung
Es ist möglich und notwendig Künstliche Intelligenz vertrauenswürdig und sicher einzusetzen. Die kommenden EU-Regulierungen und Standards, wie der EU AI Act, die EU Liability Directive, Produkthaftung und ISO-Standards im KI-Bereich, werden voraussichtlich die Qualitätsanforderungen an KI grundlegend ändern. Mit der Definition der Anforderungen an die Auswahl eines AI-Tool wie oben erwähnt, liegt es auch an den Usern wie Kanzleien, Rechtsabteilungen und Unternehmen, sich aktiv an der Gestaltung dieser Entwicklungen zu beteiligen, Fragen zu stellen und sicherzustellen, dass Künstliche Intelligenz die Gesellschaft positiv beeinflusst und vertrauenswürdig entwickelt wird.
Sie wollen mehr zum Einsatz von KI in Ihrer Rechtsabteilung oder Kanzlei erfahren – dann schreiben Sie uns: s.martinetz@future-law.at oder besuchen Sie einen unserer Legal Tech & AI Workshops
Autorinneninfo:
Sophie Martinetz, Gründerin von Future Law und Herausgeberin des Legal Tech Times Magazins, ist eine renommierte Expertin in Legal Tech und Digitalisierung der Rechtsbranche. Sie engagiert sich als Rednerin, Kolumnistin, und (Co-)Autorin, mit einem besonderen Fokus auf die Förderung von Frauen in der Arbeitswelt und im Unternehmertum.