Der AI Act der EU: Neue rechtliche Standards für Künstliche Intelligenz – Weitere Handlungspflichten für Unternehmen seit August 2025

Einleitung:
Mit dem EU-AI-Act wurde im Jahr 2024 erstmals ein europaweit einheitlicher und umfassender Rechtsrahmen zur Regulierung von Künstlicher Intelligenz (KI) geschaffen. Ziel dieser Verordnung ist es, dem schnellen technologischen Fortschritt verantwortungsvoll zu begegnen, Risiken für Gesellschaft und Wirtschaft zu minimieren und gleichzeitig Innovationen zu fördern. Besonders für Unternehmen, die KI-Anwendungen entwickeln, einsetzen oder vermarkten, ergeben sich daraus tiefgreifende Veränderungen. Die Regelungen der Verordnung treten nach und nach in Kraft, zuletzt am 02. August 2025.

1. Risikobasierter Ansatz und erste Verbote seit 2025

Herzstück des AI Act ist der risikobasierte Regulierungsansatz: KI-Systeme werden je nach ihrem potenziellen Risiko für die Rechte und Sicherheit von Personen eingestuft und unterschiedlich streng reguliert. Seit dem 02. Februar 2025 gelten bereits erste Verbote besonders risikoreicher KI-Systeme mit „inakzeptablem Risiko“. Dazu zählen etwa KI-Steuerungen zur biometrischen Echtzeit-Erkennung in öffentlichen Räumen sowie manipulative Social-Scoring-Systeme. Das Ziel ist ein Verbot solcher Anwendungen, deren Gefahrenpotenzial als besonders hoch für die Gesellschaft eingestuft wird.

Parallel dazu sind europäische Regeln zur sogenannten „AI-Literacy“ in Kraft getreten. Unternehmen und Organisationen sind verpflichtet, Anwenderinnen und Anwendern Kompetenzen zu vermitteln, um Chancen und Risiken von KI-Systemen zu verstehen und informiert damit umgehen zu können. Es besteht also bereits eine Schulungsverpflichtung für Mitarbeiter die KI einsetzen oder diese entwickeln.

2. Neue Pflichten und Aufsichtsstrukturen seit 02. August 2025

Mit dem Stichtag 02. August 2025 griff ein Kern des AI Acts – mit wesentlichen Auswirkungen für Unternehmen. Besonders Anbieter oder Betreiber von Hochrisiko-KI-Systemen sowie Anbieter von sogenannten General-Purpose-AI-(GPAI-)Modellen, also groß angelegter Basistechnologien für vielfältige Anwendungen, stehen im Fokus:

3. Veränderungen für Unternehmen – jetzt Handlungsbedarf

Der AI Act verpflichtet Unternehmen, ihre internen Prozesse im Umgang mit KI grundlegend anzupassen. Technische Dokumentationen, laufende Risikoanalysen, Schulungen zur AI-Literacy sowie interne Kontrollmechanismen müssen implementiert werden. Wer KI-Anwendungen in Produkten oder Dienstleistungen nutzt oder bereitstellt, sollte bereits jetzt:

Zusammenfassung – Ihr Weg zur rechtssicheren KI-Nutzung:

Mit dem stufenweisen Inkrafttreten der Pflichten des AI Acts steht die KI-Regulierung in der EU an einem Wendepunkt. Unternehmen aller Branchen sind nun gefordert, ihre Systeme, Prozesse und Schulungen an die neuen gesetzlichen Rahmenbedingungen anzupassen. Nur durch proaktives Handeln lassen sich regulatorische Risiken vermeiden – und gleichzeitig die Vorteile von KI-Technologien verantwortungsvoll und rechtskonform nutzen.

Handlungsempfehlung:
Wir empfehlen, frühzeitig mit der Prüfung Ihrer KI-Anwendungen und den internen Vorbereitungen zu beginnen. So schaffen Sie die Grundlage für Innovation und Wettbewerbsfähigkeit – auf sicherer rechtlicher Basis. Bei Fragen und zur Begleitung in der Umsetzung unterstützt Sie unsere Kanzlei gerne mit praxisnaher Beratung.