KI im Aufsichtsrat: Wenn Algorithmen die Kontrolle unterstützen
4. August 2025
Ein Gastbeitrag im „derStandard“ mit Sophie Martinetz und Yorck Schmidt
Künstliche Intelligenz kann Aufsichtsratsmitgliedern die Arbeit erleichtern, gleichzeitig bringt sie neue Herausforderungen. Rechtliche Änderungen sind absehbar.
Künstliche Intelligenz (KI) ist längst Realität und prägt zunehmend Geschäftsmodelle und Entscheidungsprozesse in Unternehmen aller Branchen. Für Aufsichtsratsmitglieder, insbesondere im Prüfungsausschuss, bedeutet sie eine Veränderung ihrer Kontrollfunktion. Die neue Technologie eröffnet Chancen für eine effektivere Überwachung, bringt jedoch auch neue Anforderungen an Kompetenzen und Verantwortlichkeiten mit sich.
Die digitale Transformation erfordert neben betriebswirtschaftlichen, juristischen und strategischen Kenntnissen künftig auch Grundkenntnisse in algorithmischer Logik, Datenarchitektur, ethischer KI-Governance und Datenschutz als die Kompetenzen von Aufsichtsratsmitgliedern. Eine systematische Fort- und Weiterbildung im Bereich „digitale Governance“ wird damit unverzichtbar.
Ergänzend und ebenso wichtig ist ein unternehmensinterner KI-Ethikrahmen, der Richtlinien zur Fairness und Transparenz, Regeln zur menschlichen Letztverantwortung sowie spezifische Ausschlusskriterien für den KI-Einsatz umfassen sollte.
Wie KI effizienter macht
Bei der Dokumentenanalyse können KI-gestützte Tools umfangreiche Unterlagen wie Quartalsberichte, Compliance-Dokumente oder Prüfberichte voranalysieren. Sie markieren Auffälligkeiten, identifizieren Abweichungen von Vorperioden und erstellen Zusammenfassungen der wichtigsten Punkte. So kann sich das Aufsichtsratsmitglied rasch einen guten Überblick machen und auf kritische Aspekte konzentrieren.
KI-basierte Systeme können für die Sitzungsvorbereitung relevante Informationen aus früheren Protokollen, aktuellen Berichten und externen Quellen zusammenstellen und Fragen vorschlagen, die gestellt werden sollten.
Um diese KI-Werkzeuge effektiv zu nutzen, sollte das Aufsichtsratsmitglied aktiv ein sicheres DSGVO-konformes KI-Tool (Large Language Model) in Absprache mit dem Unternehmen nutzen, mit der IT-Abteilung und dem Vorstand klare Datenzugriffsrechte vereinbaren und sich regelmäßig zu KI-Anwendungen und deren Grenzen fortbilden. Zudem sollte es KI-generierte Erkenntnisse stets kritisch hinterfragen und überprüfen, auf eine transparente Dokumentation aller KI-gestützten Entscheidungen achten und einen persönlichen sicheren „KI-Werkzeugkasten“ aufbauen, der auf die spezifischen Anforderungen ihres Mandats zugeschnitten ist.
Rechtliche Verantwortung
In Österreich verpflichtet das Gesetz (§ 92 Abs. 4a AktG) die Mitglieder des Prüfungsausschusses zur Überwachung zentraler Unternehmensfunktionen. Dies umfasst die Kontrolle des Rechnungslegungsprozesses, die Beurteilung interner Kontroll- und Risikomanagementsysteme, die Überwachung der Abschlussprüfung sowie zunehmend die Compliance-Überwachung.
Entscheidend dabei: Die Verantwortung für Entscheidungen bleibt beim Prüfungsausschuss – auch wenn diese auf KI-gestützten Analysen beruhen. Ein „Blindvertrauen in Technik“ entlastet nicht von der Sorgfaltspflicht. In der Praxis bedeutet das: Auch wenn Wirtschaftsprüfungsgesellschaften KI-basierte Tools wie „AI Transaction Scoring“ einsetzen, muss der Prüfungsausschuss verstehen, wie diese Technologien funktionieren und wo ihre Grenzen liegen.
Zwischen Effizienz und Blackbox
KI eröffnet also neue Möglichkeiten für den Prüfungsausschuss. Tools zur automatisierten Datenanalyse können Millionen Transaktionen auswerten und Auffälligkeiten identifizieren. Moderne ERP-Systeme bieten KI-gestützte Module für Echtzeit-Monitoring und Risikobewertung. Zudem kann KI dabei helfen, regulatorische Anforderungen wie die Pflichten zur Nachhaltigkeitsberichterstattung (CSRD-Berichtspflichten) zu erfüllen.
Diese Systeme entfalten jedoch nur dann ihren Nutzen, wenn bestimmte Voraussetzungen erfüllt sind: integrierte Datenarchitekturen, hohe Datenqualität, geschulte Entscheider und ein gemeinsames Verständnis von Datenverantwortung. Eine besondere Herausforderung stellt die „Blackbox“-Natur vieler generativer KI-Modelle dar, die die Nachvollziehbarkeit von Entscheidungen erschwert. Hier ist es wichtig, als Unternehmen bewusst die generative KI für die passenden Anwendungsfälle einzusetzen und mit kompetenten Partnern bei der Umsetzung zusammenzuarbeiten.
KI als Pflichtübung
Auf Aufsichtsratsmitglieder kommt auf EU-Ebene mit dem AI Act, der CSRD und dem Digital Services Act tiefgreifende Veränderungen zu. So sieht der AI Act verpflichtende Risikoklassifizierungen und Transparenzanforderungen für Hochrisiko-KI-Systeme vor, die CSRD fordert eine neue Qualität der ESG-Berichterstattung. Hier kann bei der Aufsichtsratstätigkeit KI als Werkzeug dienen. Die Beurteilung, inwieweit der Einsatz von KI im Unternehmen sinnvoll ist, um diese Themen zu bewältigen, muss der Aufsichtsrat beurteilen können.
Der Einsatz von künstlicher Intelligenz durch Aufsichtsratsmitglieder und im Prüfungsausschuss ist keine Option, sondern eine Notwendigkeit. Gerade die Organe der Prüfungsausschüsse sollten die Chance ergreifen, KI als Unterstützung in ihrer Kontroll- und Überwachungsfunktion zu nutzen – nicht als Ersatz für menschliche Entscheidungskraft, sondern als Erweiterung.
Konkrete erste Schritte umfassen den Aufbau strukturierter Fortbildungsmaßnahmen zu KI in der Governance-Arbeit, die Etablierung eines regelmäßigen KI-Governance-Dialogs mit dem Vorstand sowie die Festlegung eines Mindeststandards für KI-Dokumentation im Prüfungsausschuss.
Sophie Martinetz ist Gründerin und CEO von Future-Law. Yorck Schmidt ist Chief Financial Officer und Member of the Board bei der AVL List GmbH.

