EU AI Act Artikel 4: Schulungspflicht in Kanzleien

EU AI Act: Die unbequeme Realität für Kanzleien

Künstliche Intelligenz ist längst im Alltag von Steuerberatern und Rechtsanwälten angekommen. ChatGPT hilft bei Formulierungen, Microsoft Copilot unterstützt bei der Analyse von E-Mails und Besprechungen, DATEV und andere Kanzlei-Softwtare integriert zunehmend KI-Funktionen in bestehende Systeme. Viele Kanzleien nutzen diese Werkzeuge pragmatisch und mit dem berechtigten Ziel, effizienter zu arbeiten.

 

Was dabei jedoch häufig übersehen wird, ist die regulatorische Dimension. Der EU AI Act ist in Kraft, und mit ihm entsteht eine konkrete Verpflichtung für alle Organisationen, die KI-Systeme einsetzen oder deren Ergebnisse verwenden. Artikel 4 der Verordnung schreibt vor, dass Mitarbeiter, die mit solchen Systemen arbeiten, angemessen geschult werden müssen.

 

Die entscheidende Frage lautet daher nicht, ob KI in Ihrer Kanzlei eingesetzt wird. Die entscheidende Frage lautet, ob der Einsatz organisatorisch abgesichert ist und ob Sie im Zweifel nachweisen können, dass Ihre Mitarbeiter die rechtlichen und praktischen Risiken verstehen.

 

Genau an diesem Punkt trennt sich aktuell experimentelle Nutzung von professioneller Kanzleiführung.

 

Zwischen Praxis und Organisationsverantwortung

In vielen Kanzleien ist der Einsatz von KI in den letzten Monaten organisch gewachsen. Einzelne Mitarbeiter probieren neue Funktionen aus, Texte werden schneller erstellt, Recherchen effizienter durchgeführt, interne Abläufe automatisiert. Das geschieht oft mit gesundem Menschenverstand und dem Wunsch, technologisch nicht den Anschluss zu verlieren.

 

Was jedoch meist fehlt, ist eine klare Struktur. Wer darf welche Systeme einsetzen? Wie werden Ergebnisse überprüft? Welche Daten dürfen verarbeitet werden und welche nicht? Und vor allem: Wer trägt im Zweifel die Verantwortung, wenn fehlerhafte oder problematische KI-Ergebnisse in die Mandatsarbeit einfließen?

 

Der EU AI Act verschiebt diese Fragen aus dem Bereich der freiwilligen Selbstorganisation in den Bereich der rechtlichen Erwartungshaltung. Es genügt nicht mehr, KI „vernünftig“ zu nutzen. Es muss nachvollziehbar geregelt sein, dass die beteiligten Mitarbeiter die Funktionsweise, die Grenzen und die Risiken der eingesetzten Systeme verstehen.

 

Gerade für Steuerberater und Rechtsanwälte ist das keine theoretische Anforderung. Sie arbeiten in einem hochregulierten Umfeld, in dem Dokumentation, Nachweisbarkeit und Organisationsverschulden eine zentrale Rolle spielen. Wenn KI Teil der täglichen Arbeit ist, wird sie automatisch Teil dieser Organisationsverantwortung.

 

Was Artikel 4 EU AI Act konkret fordert

Artikel 4 des EU AI Act verpflichtet Organisationen, sicherzustellen, dass Personen, die mit KI-Systemen arbeiten oder deren Ergebnisse nutzen, über ein ausreichendes Maß an Kompetenz verfügen. Diese Kompetenz entsteht nicht durch Zufall und auch nicht durch private Neugier, sondern durch gezielte Schulung und Sensibilisierung.

 

Die Vorschrift ist bewusst offen formuliert, weil sie unterschiedlichste Branchen und Anwendungsfälle erfassen soll. Für Kanzleien bedeutet das jedoch keine Entwarnung, sondern im Gegenteil eine erhöhte Verantwortung. Wer KI-gestützte Tools in der Mandatsbearbeitung einsetzt, muss organisatorisch sicherstellen, dass die damit verbundenen Risiken verstanden werden. Dazu gehören unter anderem fehlerhafte oder verzerrte Ergebnisse, datenschutzrechtliche Fragestellungen, die Gefahr unzulässiger Datenverarbeitung sowie die korrekte Einordnung von KI-generierten Inhalten.

 

Entscheidend ist dabei weniger die Frage, ob ein bestimmtes System als Hochrisiko-KI eingestuft wird. Entscheidend ist, dass die Personen, die mit dem System arbeiten, dessen Grenzen kennen und Ergebnisse nicht ungeprüft übernehmen. Genau hier setzt die Schulungspflicht an. Sie verlangt keine technische Ausbildung, wohl aber ein strukturiertes Verständnis für Funktionsweise, Risiken und Verantwortlichkeiten.

 

Für Steuerberater und Rechtsanwälte ist das kein Nebenthema. Die berufsrechtliche Verantwortung bleibt stets beim Berufsträger. Wenn KI-Ergebnisse in Schriftsätze, Gutachten oder steuerliche Bewertungen einfließen, ohne dass deren Entstehung und mögliche Fehlerquellen reflektiert wurden, kann daraus schnell ein Organisationsverschulden werden.

 

Der EU AI Act formuliert damit eine klare Erwartung: Wer KI nutzt, muss den Umgang damit beherrschen und diesen beherrschten Umgang organisatorisch absichern können.

 

Was bedeutet das nun konkret für den Kanzleialltag?

Zunächst einmal, dass der Einsatz von KI nicht mehr nur eine Frage der Effizienz ist, sondern eine Frage der Organisation. Es reicht nicht aus, wenn einzelne Mitarbeiter ein Tool ausprobieren oder sich privat mit dessen Funktionen vertraut machen. Die Kanzlei als Organisation muss sich damit befassen, wie KI genutzt wird, in welchen Bereichen sie eingesetzt werden darf und welche Grenzen verbindlich gelten.

 

In der Praxis stellen sich sehr konkrete Fragen. Dürfen Mandantendaten in externe KI-Systeme eingegeben werden, und wenn ja, unter welchen Voraussetzungen? Wie wird sichergestellt, dass KI-generierte Texte fachlich überprüft werden, bevor sie die Kanzlei verlassen? Wer entscheidet, welche Tools freigegeben sind und welche nicht? Und wie wird dokumentiert, dass alle Beteiligten über die Risiken informiert wurden?

 

Genau an diesem Punkt entsteht Handlungsbedarf. Denn selbst wenn in einer Kanzlei verantwortungsvoll gearbeitet wird, fehlt häufig der formale Nachweis, dass die Mitarbeiter strukturiert geschult wurden und die rechtlichen Rahmenbedingungen kennen. Ohne diesen Nachweis bleibt im Ernstfall nur die Behauptung, man habe „schon aufgepasst“. Das ist in einem regulierten Umfeld eine schwache Verteidigung.

 

Die logische Konsequenz besteht daher darin, den Umgang mit KI nicht dem Zufall zu überlassen, sondern ihn bewusst zu strukturieren. Eine gezielte Schulung schafft dabei die Grundlage. Sie sorgt dafür, dass alle Beteiligten ein einheitliches Verständnis entwickeln, Risiken erkennen und wissen, welche Verantwortung sie tragen. Gleichzeitig entsteht eine nachvollziehbare Dokumentation, die im Fall einer Prüfung oder einer Haftungsfrage den entscheidenden Unterschied machen kann.

 

Wie eine solche Schulung aufgebaut ist und wie sie die Anforderungen des EU AI Act konkret abbildet, haben wir im nächsten Schritt für Sie zusammengefasst.

 

Die professionelle Antwort auf Artikel 4 EU AI Act

Unsere KI-Compliance-Schulung setzt genau an dieser organisatorischen Schnittstelle an. Ziel ist es nicht, technische Details zu vertiefen oder Mitarbeiter zu KI-Experten auszubilden. Ziel ist es, ein belastbares Grundverständnis zu schaffen, das den Anforderungen des EU AI Act entspricht und gleichzeitig zur Realität in Steuerkanzleien und Anwaltskanzleien passt.

 

In einem kompakten, strukturierten Format werden die wesentlichen Inhalte des Artikels 4 eingeordnet. Dazu gehören die Systematik des EU AI Act, die Einteilung in Risikoklassen, typische Anwendungsfälle im Kanzleiumfeld sowie die rechtlichen und organisatorischen Pflichten, die sich daraus ergeben. Besonderer Fokus liegt auf der praktischen Nutzung gängiger Werkzeuge wie Microsoft Copilot, ChatGPT oder DATEV-integrierter KI-Funktionen und der Frage, wie deren Ergebnisse verantwortungsvoll eingeordnet und überprüft werden.

 

Die Schulung endet nicht mit einer reinen Informationsvermittlung. Eine anschließende Wissensüberprüfung stellt sicher, dass die vermittelten Inhalte verstanden wurden. Auf dieser Grundlage erhalten die Teilnehmer ein personalisiertes Zertifikat, das die Schulung dokumentiert und als Nachweis gegenüber Dritten dienen kann. Damit entsteht nicht nur ein besseres Verständnis im Team, sondern auch eine nachvollziehbare organisatorische Absicherung.

 

Für viele Kanzleien ist genau dieser formalisierte Schritt der entscheidende Unterschied zwischen informeller Nutzung und professionell geregeltem KI-Einsatz.

 

Weitere Details zum Ablauf, zu den Inhalten und zur konkreten Umsetzung finden Sie hier.