KI im Unternehmensalltag: Die LTK25 Blitz-Umfrage

Lesezeit: 17 Minuten


Wenn künstliche Intelligenz auf juristische Praxis trifft, Redaktion Future-Law

Eine Momentaufnahme aus der Perspektive von Jurist:innen im Herbst 2025

Im Rahmen der Legal Tech Konferenz 2025 haben wir gemeinsam mit E+H Rechtsanwälte eine kompakte Blitzumfrage durchgeführt: Was passiert eigentlich wirklich, wenn Jurist:innen von KI-Strategie sprechen? Wer trägt in der Praxis die Compliance-Sorgen? Und können Rechtsabteilungen diese Verträge mit den KI-Anbietern überhaupt verstehen, geschweige denn verhandeln?

An unserer Umfrage haben 52 Jurist:innen teilgenommen – und dabei ein faszinierendes Bild der juristischen Praxis im Umbruch gezeichnet. Die Teilnehmer:innen kommen aus unterschiedlichsten Bereichen: Rechtsabteilungen von Unternehmen verschiedener Größen und Branchen, Kanzleien, Legal Tech-Unternehmen und Beratungshäusern. Sie repräsentieren primär Organisationen mit zwischen 50 und 500 Mitarbeiter:innen – jene Größenordnung, in der KI-Compliance unverzichtbar wird, aber oft noch keine dedizierten Spezialisten-Teams existieren.

Die Fragen gingen direkt ans Eingemachte: Nicht zu theoretischen Konzepten, sondern zur gelebten Praxis. Wie wird KI in den Unternehmen der Befragten tatsächlich genutzt? Wer kümmert sich intern um Compliance? Welche Maßnahmen wurden bereits ergriffen? Wie steht es um Schulungen und Vertragsverhandlungen? Was sind aus juristischer Sicht die größten Herausforderungen?

Unsere Blitz-Umfrage erhebt keinen Anspruch auf statistische Repräsentativität. Sie ist vielmehr eine ehrliche Momentaufnahme aus dem Arbeitsalltag von Jurist:innen, die sich täglich mit KI-Fragen auseinandersetzen müssen – erstellt von Praktikerinnen für Praktikerinnen. 52 vollständig ausgefüllte Fragebögen, ehrliche Antworten zu den Themen, die in Rechtsabteilungen und Kanzleien für Diskussionen sorgen.

Sophie Martinetz fasst die Umfrage zusammen: „Die LTK25-Blitzumfrage zeigt ein klares Bild: KI ist im Unternehmensalltag längst angekommen, doch die Compliance-Reife bleibt deutlich zurück. Während 96 % der Unternehmen KI intern nutzen, fehlen häufig klare Zuständigkeiten, systematische Schulungen und technische Kontrollmechanismen. Rechtsabteilungen tragen die Hauptlast, bewegen sich jedoch in einem Umfeld aus unklaren regulatorischen Anforderungen, begrenzter technischer Expertise und asymmetrischen Vertragsverhandlungen mit mächtigen KI-Anbietern. Die Einsatzfelder reichen von Legal über HR bis Produktentwicklung – KI ist funktionsübergreifend relevant, aber oft ohne durchgängige Governance eingebettet. Die größten Herausforderungen sehen Jurist:innen in Rechtssicherheit, Datenqualität, Governance-Lücken und mangelnder Transparenz der Modelle. Insgesamt zeigt die Umfrage: 2025 ist das Jahr, in dem KI vom Experiment zum regulierten Werkzeug wird – und Rechtsabteilungen gefordert sind, den Spagat zwischen Innovation und Verantwortung strategisch zu meistern.“

Was folgt, ist die detaillierte Analyse dessen, was wir gefunden haben.

KI ist angekommen – auch und gerade im juristischen Umfeld

Die erste – und vielleicht wichtigste – Erkenntnis lässt sich in einer Zahl zusammenfassen: 96% der Jurist:innen berichten, dass ihre Unternehmen KI intern für fachliche Zwecke nutzen. KI ist damit das neue Office-Paket – auch im juristischen Kontext. Niemand fragt mehr „ob“, sondern nur noch „wo“ und „wie intensiv“. Von der Rechtsrecherche über die Vertragsformulierung bis zur Datenauswertung: KI-Tools sind im juristischen Arbeitsalltag angekommen.

Doch die Intensität variiert erheblich. Während nahezu alle Befragten von interner KI-Nutzung berichten, gehen nur 27% den entscheidenden Schritt weiter: In diesen Unternehmen wird KI in Produkten oder Dienstleistungen eingesetzt – also dort, wo sie direkt Mehrwert für Kunden schafft. Noch bemerkenswerter: 21% der Jurist:innen berichten, dass ihre Unternehmen bereits eigene KI-Systeme entwickeln. Jede fünfte Organisation begnügt sich also nicht mit fertigen Lösungen von Microsoft, OpenAI & Co., sondern baut proprietäre Modelle. Das ist ein deutlicher Hinweis auf echte Innovationskraft und strategisches KI-Verständnis – und stellt Rechtsabteilungen vor ganz besondere Compliance-Herausforderungen.

Was diese Verteilung aus juristischer Perspektive zeigt: KI ist längst nicht mehr „Experiment“ oder „Nice-to-have“. Aber zwischen „wir nutzen ChatGPT für E-Mails“ und „wir entwickeln proprietäre KI-Modelle für unsere Produkte“ liegen Welten – auch in der rechtlichen Bewertung und den Compliance-Anforderungen.

Die Zuständigkeitsfrage: Wer trägt die Verantwortung?

Wenn 96% der Organisationen KI nutzen, stellt sich aus juristischer Sicht unmittelbar die Frage: Wer kümmert sich eigentlich um die Compliance? Die Antworten der befragten Jurist:innen zeichnen ein heterogenes, teils beunruhigendes Bild.

In den meisten Fällen übernimmt erwartungsgemäß die Rechtsabteilung das Steuer. Das erscheint logisch – Jurist:innen sind gewohnt, mit Regulierung umzugehen, Risiken zu bewerten und Richtlinien zu erstellen. Doch die Krux liegt im Detail: KI-Compliance ist nicht nur eine rechtliche, sondern vor allem auch eine technische Herausforderung. Eine Rechtsabteilung, die nicht versteht, wie Large Language Models funktionieren, wie Trainingsdaten genutzt werden oder was „Hallucinations“ bedeuten, kann kaum effektive Compliance gewährleisten – eine Erkenntnis, die viele der befragten Jurist:innen explizit äußern.

Auf den weiteren Plätzen folgen IT-Abteilungen und Datenschutzbeauftragte. IT kann die Systeme verstehen, kämpft aber oft mit rechtlichen Feinheiten. Datenschutzbeauftragte kennen die DSGVO in- und auswendig, aber KI-Compliance geht weit über Datenschutz hinaus –ein ebenso häufiger Kommentar in den Antworten.

Besonders alarmierend aus Sicht der befragten Jurist:innen: In einer nennenswerten Anzahl ihrer Organisationen ist die Zuständigkeit schlicht unklar. Niemand fühlt sich wirklich verantwortlich, aber alle sind irgendwie betroffen. Der AI Act mag kommen, aber die interne Organisation ist vielerorts noch nicht darauf vorbereitet – eine Situation, die Rechtsabteilungen unter erheblichen Druck setzt.

Die Königsklasse – dedizierte, interdisziplinäre KI-Governance-Teams aus Legal, IT, Risk und Fachbereichen – bleibt laut den Befragten die absolute Ausnahme. Solche Teams wären aus juristischer Sicht ideal, sind aber ressourcenintensiv und in kleineren Unternehmen schlicht nicht darstellbar.

Die Interpretation der befragten Jurist:innen ist klar: Viele Organisationen befinden sich noch im Übergang. Die Rechtsabteilung übernimmt naturgemäß die Führung, aber KI-Compliance wird in Zukunft zwingend interdisziplinär werden müssen. Die Jurist:innen, deren Organisationen das bereits verstanden und umgesetzt haben, berichten von deutlich effektiveren Prozessen und weniger Reibungsverlusten.

Einsatzfelder: KI durchdringt alle Unternehmensbereiche

Die Breite der Einsatzfelder, von denen die befragten Jurist:innen berichten, überrascht. KI ist längst nicht mehr auf einzelne Nischen beschränkt, sondern durchdringt praktisch alle Unternehmensbereiche – was aus Compliance-Sicht entsprechend komplexe Anforderungen schafft.

Rechtsabteilungen – der Tätigkeitsbereich vieler Befragter – nutzen KI besonders intensiv: für juristische Recherche, Vertragsanalyse und -prüfung, Due Diligence bei M&A-Transaktionen, Erstellung von Standardverträgen und Compliance-Monitoring. Legal Tech ist keine Zukunftsmusik mehr, sondern gelebte Praxis. KI übernimmt die zeitraubenden analytischen Aufgaben und gibt Jurist:innen Raum für strategische Beratung – so die übereinstimmende Einschätzung vieler Teilnehmer:innen.

HR-Abteilungen setzen laut den Befragten auf KI für CV-Screening und Kandidaten-Matching, Erstellung von Stellenbeschreibungen, Interview-Auswertung, personalisierte Schulungsunterlagen und Onboarding-Automatisierung. Aus juristischer Sicht ist dieser Bereich besonders heikel: Die Diskriminierungsrisiken bei automatisierten Personalentscheidungen beschäftigen viele der befragten Jurist:innen erheblich.

Compliance & Risk integrieren KI schrittweise: Transaktionsmonitoring, Fraud Detection, Risikoanalysen, regulatorisches Reporting, interne Audit-Unterstützung. Noch punktuell, aber mit enormem Potenzial – und aus Sicht der Rechtsabteilungen ein Bereich, der besonders sorgfältiger rechtlicher Begleitung bedarf.

In der Produktentwicklung spielt KI laut den Antworten vor allem bei Innovatoren eine Rolle: Design-Optimierung, Simulation, Kundenbedarfsanalyse, Prototyping-Beschleunigung, Qualitätsprüfung. Das korreliert stark mit den 21%, deren Organisationen eigene KI-Systeme entwickeln – hier wird KI zum direkten Wettbewerbsfaktor und stellt Jurist:innen vor die Herausforderung, Innovation und Compliance in Einklang zu bringen.

Weitere nennenswerte Bereiche sind Marketing (Content-Erstellung, Zielgruppenanalyse), Finanzen (Forecasting, Reporting), IT-Entwicklung (Code-Generierung, Testing) und Kundenservice (Chatbots, Ticket-Routing).

Der zentrale Trend aus Sicht der befragten Jurist:innen: KI ist funktionsübergreifend relevant, und die erfolgreichsten Organisationen beginnen, Silos aufzubrechen. Statt dass jede Abteilung ihre eigenen Tools beschafft, entstehen zentrale KI-Plattformen, die alle Bereiche nutzen können – mit zentraler Governance und Kontrolle durch die Rechtsabteilung.

Compliance-Maßnahmen: Viel Papier, wenig Tiefe

Was tun die Organisationen der befragten Jurist:innen konkret, um KI-Compliance zu gewährleisten? Die Maßnahmenlandschaft zeigt eine klare Hierarchie – und aus rechtlicher Perspektive deutliche Lücken.

Policies sind der mit Abstand häufigste Schritt. Fast alle Jurist:innen berichten, dass ihre Organisationen interne Richtlinien erstellt haben: Nutzungsrichtlinien für KI-Tools, Verbotslisten, Grundsätze für KI-Einsatz, Datenschutz-Guidelines. Das ist aus Sicht der Rechtsabteilungen der schnellste Weg zu „wir haben etwas getan“ – aber viele Befragte äußern Zweifel, ob das ausreicht. Die Umsetzungskontrolle fehlt häufig, und Richtlinien, die niemand kennt oder versteht, ändern nichts am Verhalten.

Schulungen und Awareness-Maßnahmen sind laut den Befragten im Aufbau. Viele Jurist:innen haben erkannt: Die beste Richtlinie nützt nichts, wenn sie bei den Adressaten nicht ankommt. Basis-Trainings, Compliance-Briefings, Workshops und informelle Formate wie Lunch & Learn verbreiten sich. Aber die Intensität bleibt aus Sicht vieler Befragter problematisch – dazu gleich mehr.

Prozesse zur Modellfreigabe entstehen laut den Antworten in größeren Organisationen: Approval-Workflows für neue KI-Tools, Risk-Assessments vor Einführung, Vendor-Prüfprozesse, Change-Management für Updates. Der systematische Ansatz – kein Tool ohne rechtliche Prüfung – wird zunehmend Standard, ist aber ressourcenintensiv und bindet Rechtsabteilungen erheblich.

Technische Kontrollmechanismen – die Königsklasse – haben laut den befragten Jurist:innen nur wenige Organisationen implementiert: Monitoring von KI-Nutzung, technische Zugriffsbeschränkungen, Logging und Audit-Trails, automatisierte Compliance-Checks. Das erfordert technische Expertise, die in vielen Rechtsabteilungen fehlt, und Investment, das viele Unternehmen scheuen.

Risikoanalysen gemäß AI Act – systematische Klassifizierung von KI-Systemen, Konformitätsbewertungen, KI-Register, Impact Assessments – sind laut den Befragten noch Mangelware. Das ist AI Act-Pflichtprogramm und müsste eigentlich von Rechtsabteilungen getrieben werden, aber nur ein Bruchteil der befragten Jurist:innen berichtet von vollständiger Umsetzung.

Die ernüchternde Bewertung aus juristischer Perspektive: Während oberflächliche Maßnahmen (Richtlinien) weit verbreitet sind, hapert es bei tiefergehenden Compliance-Aktivitäten erheblich. Die meisten Rechtsabteilungen bewegen sich zwischen „erste Richtlinien geschrieben“ und „Freigabeprozesse etabliert“. Systematisches Monitoring, vollständige AI Act-Compliance mit Registern und Audits – das bleibt die Ausnahme.

Schulungen: Das vernachlässigte Fundament

Einer der alarmierendsten Befunde der Blitz-Umfrage aus juristischer Sicht: Training ist Mangelware. Die ehrliche Antwort der meisten befragten Jurist:innen lautet, dass Schulungen in ihren Organisationen gar nicht, selten oder nur anlassbezogen stattfinden. „Wenn ein neues Tool eingeführt wird, gibt’s ein kurzes Onboarding.“ „Bei Bedarf können Mitarbeiter Schulungen anfragen.“ „Wir haben letztes Jahr mal einen Workshop gemacht.“

Regelmäßige, systematische KI-Weiterbildung ist laut den Befragten eher die Ausnahme. Nur eine kleine Minderheit der Jurist:innen berichtet von etablierten Schulungsrhythmen mit quartalsweisen Updates, monatlichen Sessions oder verpflichtenden Trainings – und diese Jurist:innen berichten übereinstimmend von deutlich höherer KI-Kompetenz in ihren Organisationen und weniger Compliance-Verstößen.

Die bittere Wahrheit aus Sicht der Rechtsabteilungen: Unternehmen investieren Zehntausende Euro in KI-Lizenzen, aber nur Bruchteile davon in die Befähigung ihrer Mitarbeiter:innen. Das Ergebnis ist aus juristischer Perspektive vorhersehbar: Tools werden nicht optimal genutzt, Compliance-Risiken nicht erkannt, Widerstände entstehen aus Unwissenheit, der ROI bleibt hinter Erwartungen zurück – und am Ende landet alles als Haftungsrisiko bei der Rechtsabteilung.

Hier liegen laut den befragten Jurist:innen die größten Quick Wins für 2025. Organisationen, die systematisch in KI-Kompetenz investieren – verpflichtende Basis-Schulungen, vertiefende Trainings für Power User, role-specific Workshops, Peer Learning – holen mehr aus ihren Tools heraus, reduzieren Risiken und schaffen Akzeptanz. Rechtsabteilungen, die solche Programme initiieren oder vorantreiben, positionieren sich strategisch.

Vertragsverhandlungen: David gegen Goliath

Eine der ehrlichsten – und frustrierendsten – Erkenntnisse der Blitz-Umfrage: Viele befragte Jurist:innen fühlen sich nicht in der Lage, KI-Verträge erfolgreich zu verhandeln. Die meisten berichten, dass ihre Organisationen akzeptieren, was die Anbieter vorgeben. „Take it or leave it“ – und man nimmt es halt, weil die Tools unverzichtbar erscheinen. Für Rechtsabteilungen, die gewohnt sind, Verträge zu gestalten und durchzusetzen, eine besonders frustrierende Situation.

Besonders problematisch sind aus Sicht der befragten Jurist:innen fünf Bereiche:

Lizenzmodelle bleiben oft unklar: Bezahlt man pro User, pro Token, pro Use Case? Was kostet Skalierung wirklich? Was bedeuten die Kündigungsfristen? „Wir verstehen nicht, wofür wir eigentlich bezahlen“, ist eine häufige Klage der Befragten – ein für Jurist:innen ungewohntes und unbehagliches Gefühl.

Trainingsdaten sorgen für erhebliches Unbehagen: Werden unsere Daten zum Training genutzt? Können wir das ausschließen? Was passiert mit sensiblen Informationen? „Der Anbieter sagt mündlich ‚nein‘, aber die Klausel sagt etwas anderes“, beschreibt das Dilemma vieler Rechtsabteilungen präzise.

Haftungsfragen bleiben aus juristischer Sicht völlig ungelöst: Wer haftet bei Fehlern der KI? Was, wenn diskriminierende Entscheidungen getroffen werden? Die typische – und für Jurist:innen völlig unbefriedigende – Antwort: „Die Haftung ist auf die Lizenzgebühr begrenzt – aber unser potenzieller Schaden könnte Millionen sein.“

Auditrechte werden laut den Befragten regelmäßig verweigert: „Wir sollen AI Act-compliant sein, dürfen aber nicht prüfen, wie das System funktioniert“ – eine Zwickmühle, die Rechtsabteilungen zur Verzweiflung treibt und sie letztlich in eine Position bringt, in der sie Compliance nicht wirklich verantworten können.

Datenlokation bleibt nebulös: Wo werden Daten verarbeitet? Bleiben sie in der EU? Gibt es Subprocessors in Drittländern? „DSGVO-konform heißt bei vielen Anbietern nur: Wir haben Standardvertragsklauseln“ – eine Situation, mit der sich viele der befragten Jurist:innen nicht wohlfühlen.

Die Machtasymmetrie ist laut den Befragten real: Microsoft, OpenAI, Google & Co. verhandeln kaum. Kleinere Anbieter sind flexibler, aber oft weniger professionell. Enterprise-Kunden mit großem Volumen können Sonderbedingungen aushandeln, mittelständische Rechtsabteilungen haben demgegenüber kaum Verhandlungsmacht.

Das Dilemma ist für Jurist:innen brutal: „Wir brauchen diese Tools, weil die Konkurrenz sie nutzt. Aber wir können die Vertragsbedingungen nicht akzeptieren. Also unterschreiben wir und tragen das Risiko“ – eine Situation, die dem professionellen Selbstverständnis vieler Rechtsabteilungen fundamental widerspricht.

Hoffnung machen laut den Befragten Ansätze wie Branchenkooperationen, bei denen Rechtsabteilungen gemeinsam über Verbände verhandeln, oder der Einsatz spezialisierter externer Expertise. Aber solange vor allem große Anbieter dominieren, werden die meisten Rechtsabteilungen akzeptieren müssen, was vorgegeben wird – und dann intern mit den Compliance-Risiken leben müssen.

Die vier großen Herausforderungen aus juristischer Sicht

Was hält die befragten Jurist:innen nachts wach? Vier Problemfelder dominieren – und sie verstärken sich gegenseitig.

Fehlende Rechtssicherheit ist das Grundproblem aller Probleme. Der AI Act ist da, aber wie wird er konkret ausgelegt? Was bedeutet „Hochrisiko-KI“ im spezifischen Fall? Welche Dokumentationspflichten gelten genau? „Wir wollen compliant sein – wir wissen nur nicht genau, was das konkret bedeutet“, fasst die Frustration vieler befragter Jurist:innen zusammen. Die Regulierung ist komplex, mehrdeutig und in vielen Punkten noch nicht durch Rechtsprechung konkretisiert – eine für Rechtsabteilungen extrem unbefriedigende Situation.

Datenqualität und Datensicherheit bilden die technische Dimension, mit der sich viele Jurist:innen überfordert fühlen. „Garbage in, garbage out“ – KI ist nur so gut wie ihre Daten. Bias in Trainingsdaten führt zu diskriminierenden Ergebnissen, unvollständige Daten zu falschen Ausgaben. Gleichzeitig droht ständig Data Leakage: „Wir haben technische Sperren installiert – aber findige Mitarbeiter:innen umgehen sie mit privaten Accounts“, berichten mehrere Befragte.

Mangelnde interne Expertise und Governance zeigt sich aus Sicht der Jurist:innen auf allen Ebenen. Das Management versteht strategische Implikationen nicht, Legal kennt die Technologie zu wenig, IT die Rechtslage zu wenig, Fachbereiche nutzen KI unreflektiert. „Wir bräuchten Hybrid-Profile: Legal + Tech + Business. Aber die gibt es kaum am Markt – und wir selbst haben die technische Tiefe oft nicht“, so eine häufige Rückmeldung. Dazu kommen fehlende Governance-Strukturen: keine klaren Entscheidungswege, keine definierten Verantwortlichkeiten, keine systematische Risikoüberwachung.

Transparenzanforderungen und Nachvollziehbarkeit treffen auf die Black-Box-Problematik – eine besondere Herausforderung für Jurist:innen, die gewohnt sind, Sachverhalte präzise zu analysieren und zu bewerten. Wie funktioniert der Algorithmus wirklich? Warum hat die KI diese Entscheidung getroffen? „Der Anbieter sagt: ‚Das ist proprietär.‘ Wir sollen aber Transparenz garantieren – wie soll das gehen?“, fragen mehrere Befragte. Der AI Act verlangt umfassende Dokumentation und Erklärbarkeit – aber selbst Anbieter können oft nicht erklären, warum ihr Modell X entschieden hat. Für Rechtsabteilungen eine kaum lösbare Quadratur des Kreises.

Das Kernproblem aus Sicht der befragten Jurist:innen: Die größten Herausforderungen sind nicht primär rechtlicher Natur im klassischen Sinne, sondern liegen an der Schnittstelle von Recht, Technik und Organisation. Es gibt keine rein juristische Lösung für KI-Compliance – es braucht interdisziplinäre Zusammenarbeit, die aber oft an organisatorischen Grenzen scheitert.

Wer hat geantwortet? Ein Blick auf den Hintergrund der Teilnehmer:innen

Die 52 Teilnehmer:innen der LTK25-Blitz-Umfrage sind ausschließlich Jurist:innen – ein bewusster Fokus, um die juristische Perspektive auf KI-Compliance einzufangen. Sie kommen aus unterschiedlichsten Bereichen:

Rechtsabteilungen von Unternehmen aus verschiedenen Branchen – Beratung, IT & Software, Industrie & Energie, Finanzdienstleistung, Gesundheitswesen, Handel. Die Bandbreite reicht von klassischen Industrie-Inhouse-Positionen über Tech-Unternehmen bis zu Finanzdienstleistern.

Kanzleien verschiedener Größen – von Boutique-Kanzleien mit Legal Tech-Schwerpunkt bis zu Großkanzleien, die ihre Mandanten bei KI-Fragen beraten.

Legal Tech-Unternehmen und Beratungshäuser – Jurist:innen, die selbst an der Schnittstelle von Recht und Technologie arbeiten.

Diese Verteilung ist für eine Umfrage im Rahmen einer Legal Tech-Konferenz erwartbar und liefert genau die Perspektive, die relevant ist: Wie erleben Jurist:innen in der Praxis die Herausforderungen der KI-Compliance?

Bei den Unternehmensgrößen der Organisationen, für die die Befragten arbeiten, dominieren mittelgroße Unternehmen (50–500 Mitarbeiter:innen) und größere Unternehmen über 500 Mitarbeiter:innen. Diese Gruppe ist besonders interessant: groß genug, dass KI-Compliance unverzichtbar ist, aber oft noch zu klein für dedizierte Spezialisten neben der Rechtsabteilung. Rechtsabteilungen in dieser Größenordnung kämpfen am stärksten mit dem Spagat zwischen Notwendigkeit und Ressourcenmangel.

Die Größeneffekte sind laut den Antworten deutlich: Je größer die Organisation, desto höher die KI-Nutzungsintensität, desto spezialisierter die Compliance-Organisation, desto häufiger die Schulungen, desto besser die Verhandlungsposition – aber auch desto komplexer die Implementierung und desto mehr Abstimmungsbedarf für die Rechtsabteilung.

Fazit: Jurist:innen im Spagat zwischen Innovation und Verantwortung

Die Blitz-Umfrage der Legal Tech Konferenz 2025 hat ein präzises Stimmungsbild eingefangen: Jurist:innen befinden sich im Spagat zwischen Innovation und Regulierung, zwischen „wir müssen vorangehen“ und „wir können nicht alles verantworten“.

KI ist in den Organisationen flächendeckend angekommen. Mit 96% interner Nutzung ist sie Pflichtprogramm, kein Experiment mehr. Aber die Compliance-Reife hinkt aus Sicht der befragten Jurist:innen dramatisch hinterher. Hohe Nutzung trifft auf geringe Schulungsintensität. Viele Policies existieren, aber tiefgreifende Governance fehlt. Breite Anwendung geht einher mit Unsicherheit bei Compliance und der Unfähigkeit, Verträge wirklich zu verhandeln.

Aus juristischer Perspektive stehen die Organisationen am Beginn einer Reifephase. 2024 war das Jahr der Experimente – ChatGPT ausprobieren, erste Pilotprojekte. 2025 wird das Jahr der Professionalisierung – KI entwickelt sich vom Spielzeug zum regulierten, strategischen Werkzeug, und Rechtsabteilungen müssen den Rahmen setzen. 2026 wird das Jahr der Bewährung – wenn das AI Act-Enforcement greift, wird sich zeigen, wer seine juristischen Hausaufgaben gemacht hat.

Die Umfrage zeigt klar: Erfolgreiche KI-Compliance aus juristischer Sicht steht auf drei Säulen – klare Governance mit definierten Zuständigkeiten (die oft bei Legal landen), kontinuierliche Kompetenzentwicklung (auch für Jurist:innen selbst, die technisches Verständnis aufbauen müssen), und pragmatischer Risikofokus statt Perfektionismus.

Die unbequeme Wahrheit für Rechtsabteilungen: Es gibt keine Ausreden mehr. Die Regulierung steht, erste Guidance ist da, Best Practices existieren. Nicht handeln wird teurer als handeln – und am Ende haftet die Organisation, vertreten durch ihre Jurist:innen.

Für 2025 kristallisieren sich aus Sicht der befragten Jurist:innen sechs zentrale Handlungsfelder heraus: Governance etablieren (und dabei die Rolle der Rechtsabteilung klären), kontinuierlich schulen (auch sich selbst), KI-Systeme inventarisieren, Verträge professionalisieren (und ggf. gemeinsam verhandeln), Risiken systematisch bewerten, technische Kontrollen implementieren (in Zusammenarbeit mit IT).

Die Rechtsabteilungen, die heute in Strukturen, interdisziplinäre Zusammenarbeit und eigene KI-Kompetenz investieren, werden morgen die Gewinner sein. KI-Compliance ist keine Bremse – sie ist aus juristischer Sicht das Fundament für nachhaltigen, rechtssicheren Erfolg.

Willkommen in der Realität der KI-Compliance im Jahr 2025 aus Sicht der juristischen Praxis. Es gibt viel zu tun – aber Jurist:innen sind es gewohnt, komplexe Regulierung in praktikable Lösungen zu übersetzen. Jetzt ist es Zeit, diese Kompetenz auch auf KI anzuwenden.

Unsere kurzen Take Aways:

1. KI ist längst Standard – aber noch kein Gamechanger.

96 % nutzen KI bereits intern, doch nur wenige setzen sie strategisch in Produkten oder eigenen Systemen ein. Die breite Nutzung trifft auf geringe Tiefe.

2. KI-Compliance liegt (noch) bei Legal – aber die Zuständigkeiten sind diffus.

Rechtsabteilungen tragen die Hauptlast, doch vielen Unternehmen fehlt ein klarer Governance-Rahmen. KI-Responsibility ist 2025 noch Baustelle.

3. Policies ja, Kompetenz nein.

Während KI-Richtlinien überall entstehen, finden Schulungen nur selten statt. Unternehmen investieren mehr in Regeln als in Fähigkeiten.

4. Vertragsverhandlungen mit KI-Anbietern überfordern viele.

Unsicherheiten zu Daten, Haftung und Trainingsrechten sind groß. Die meisten Organisationen fühlen sich nicht ausreichend gerüstet.

5. Die größten Herausforderungen: Recht, Risiko, Realität.

Fehlende Rechtssicherheit, Datenqualität, Governance-Lücken und mangelnde Transparenz bremsen professionelle KI-Nutzung – quer über alle Branchen hinweg.

Legal Tech Konferenz 2025: KI im Unternehmensalltag
Blitz-Umfrage unter Jurist:innen
Erhebungszeitraum: 12.November 2025
Vollständige Antworten: 52 Teilnehmer:innen
Tätigkeitsbereiche: Rechtsabteilungen, Kanzleien, Legal Tech, Beratung
Organisationsgrößen: Primär Mittelstand (50-500 MA) und Corporate (500+ MA)


Jahres Corporate Partner

Consent Management Platform von Real Cookie Banner