
Der AI Act der EU: Neue rechtliche Standards für Künstliche Intelligenz – Weitere Handlungspflichten für Unternehmen seit August 2025
Einleitung:
Mit dem EU-AI-Act wurde im Jahr 2024 erstmals ein europaweit einheitlicher und umfassender Rechtsrahmen zur Regulierung von Künstlicher Intelligenz (KI) geschaffen. Ziel dieser Verordnung ist es, dem schnellen technologischen Fortschritt verantwortungsvoll zu begegnen, Risiken für Gesellschaft und Wirtschaft zu minimieren und gleichzeitig Innovationen zu fördern. Besonders für Unternehmen, die KI-Anwendungen entwickeln, einsetzen oder vermarkten, ergeben sich daraus tiefgreifende Veränderungen. Die Regelungen der Verordnung treten nach und nach in Kraft, zuletzt am 02. August 2025.
1. Risikobasierter Ansatz und erste Verbote seit 2025
Herzstück des AI Act ist der risikobasierte Regulierungsansatz: KI-Systeme werden je nach ihrem potenziellen Risiko für die Rechte und Sicherheit von Personen eingestuft und unterschiedlich streng reguliert. Seit dem 02. Februar 2025 gelten bereits erste Verbote besonders risikoreicher KI-Systeme mit „inakzeptablem Risiko“. Dazu zählen etwa KI-Steuerungen zur biometrischen Echtzeit-Erkennung in öffentlichen Räumen sowie manipulative Social-Scoring-Systeme. Das Ziel ist ein Verbot solcher Anwendungen, deren Gefahrenpotenzial als besonders hoch für die Gesellschaft eingestuft wird.
Parallel dazu sind europäische Regeln zur sogenannten „AI-Literacy“ in Kraft getreten. Unternehmen und Organisationen sind verpflichtet, Anwenderinnen und Anwendern Kompetenzen zu vermitteln, um Chancen und Risiken von KI-Systemen zu verstehen und informiert damit umgehen zu können. Es besteht also bereits eine Schulungsverpflichtung für Mitarbeiter die KI einsetzen oder diese entwickeln.
2. Neue Pflichten und Aufsichtsstrukturen seit 02. August 2025
Mit dem Stichtag 02. August 2025 griff ein Kern des AI Acts – mit wesentlichen Auswirkungen für Unternehmen. Besonders Anbieter oder Betreiber von Hochrisiko-KI-Systemen sowie Anbieter von sogenannten General-Purpose-AI-(GPAI-)Modellen, also groß angelegter Basistechnologien für vielfältige Anwendungen, stehen im Fokus:
- Transparenz- und Dokumentationspflichten: GPAI-Anbieter und Hochrisiko-Anbieter müssen künftig umfangreiche technische Dokumentationen führen, Risikobewertungen vorlegen und Maßnahmen zur Risikominderung ergreifen. Dazu gehört neben der Offenlegung von Trainingsdaten insbesondere auch die Beschreibung von Schutzmechanismen gegen missbräuchliche Nutzung.
- Aufsicht und Governance: Jeder EU-Mitgliedstaat etabliert neue Aufsichts-, Notifizierungs- und Beratungsstrukturen. Benannte Behörden prüfen die Konformität von KI-Systemen, bieten Unternehmen Orientierung und sprechen im Fall von Verstößen Maßnahmen aus – darunter auch Sanktionen.
- Haftung und Sanktionen: Die Durchsetzung des AI Act wird durch empfindliche Sanktionen flankiert. Unternehmen drohen im Fall schwerwiegender Verstöße Bußgelder von bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes (je nachdem, was höher ist). Auch für kleinere Verstöße sind gestufte Sanktionen vorgesehen.
3. Veränderungen für Unternehmen – jetzt Handlungsbedarf
Der AI Act verpflichtet Unternehmen, ihre internen Prozesse im Umgang mit KI grundlegend anzupassen. Technische Dokumentationen, laufende Risikoanalysen, Schulungen zur AI-Literacy sowie interne Kontrollmechanismen müssen implementiert werden. Wer KI-Anwendungen in Produkten oder Dienstleistungen nutzt oder bereitstellt, sollte bereits jetzt:
- bestehende und geplante KI-Systeme einer Risiko- und Konformitätsbewertung unterziehen,
- interne Dokumentationsstandards und Meldewege einführen,
- die Zusammenarbeit mit den zuständigen nationalen Aufsichtsstellen organisieren,
- Fachabteilungen zur neuen Rechtslage schulen sowie
- Verantwortliche für die Einhaltung der Compliance-Anforderungen benennen.
Zusammenfassung – Ihr Weg zur rechtssicheren KI-Nutzung:
Mit dem stufenweisen Inkrafttreten der Pflichten des AI Acts steht die KI-Regulierung in der EU an einem Wendepunkt. Unternehmen aller Branchen sind nun gefordert, ihre Systeme, Prozesse und Schulungen an die neuen gesetzlichen Rahmenbedingungen anzupassen. Nur durch proaktives Handeln lassen sich regulatorische Risiken vermeiden – und gleichzeitig die Vorteile von KI-Technologien verantwortungsvoll und rechtskonform nutzen.
Handlungsempfehlung:
Wir empfehlen, frühzeitig mit der Prüfung Ihrer KI-Anwendungen und den internen Vorbereitungen zu beginnen. So schaffen Sie die Grundlage für Innovation und Wettbewerbsfähigkeit – auf sicherer rechtlicher Basis. Bei Fragen und zur Begleitung in der Umsetzung unterstützt Sie unsere Kanzlei gerne mit praxisnaher Beratung.