DB Podcast

Regeln für künstliche Intelligenz EU AI Act: Der Countdown läuft – das muss die IT jetzt umsetzen

Von Konstantin Pfliegl 8 min Lesedauer

Anbieter zum Thema

Am 2. August 2026 greift der EU AI Act für Hochrisiko-KI-Systeme. Oder doch nicht? Das Digital-Omnibus-Paket sorgt für Verwirrung – und genau darin liegt die Gefahr. Darum müssen IT-Entscheider jetzt handeln und diese To-dos dulden keinen Aufschub.

(Bild:  © MUHAMMAD/stock.adobe.com)
(Bild: © MUHAMMAD/stock.adobe.com)

DARUM GEHT'S

EU AI Act: Die KI-Regulierung tritt seit August 2024 stufenweise in Kraft. Verbote für KI mit unannehmbarem Risiko und die KI-Kompetenzpflicht gelten bereits, ebenso die Regeln für General-Purpose-AI-Modelle.

Hochrisiko-Deadline: Am 2. August 2026 greifen die vollständigen Pflichten des EU AI Act für Hochrisiko-KI-Systeme – es bleiben nur noch drei Monate zur Vorbereitung.

Digital-Omnibus-Unsicherheit: Das EU-Parlament hat einer Verschiebung der Fristen zugestimmt – die Verschiebung ist jedoch rechtlich nicht besiegelt. Wer darauf spekuliert und Vorbereitungen aussetzt, riskiert Nicht-Konformität am Stichtag.

Bußgelder mit Signalwirkung: Bei Verstößen gegen Hochrisiko-Pflichten drohen bis zu 15 Millionen Euro oder drei Prozent des weltweiten Jahresumsatzes – bei verbotenen KI-Praktiken sogar bis zu 35 Millionen Euro oder sieben Prozent.

Der EU AI Act ist längst keine Zukunftsmusik mehr. Die ersten Regelungen für den Einsatz von KI-Systemen gelten seit über einem Jahr. So gilt zum Beispiel seit dem Februar 2025 der Artikel 4 des EU AI Acts (Verordnung (EU) 2024/1689) zur sogenannten KI-Literacy. Unternehmen, die KI-Systeme entwickeln, vertreiben oder betreiben sind demnach dazu verpflichtet, sicherzustellen, dass alle Mitarbeiter, die an der Planung, Implementierung oder Nutzung von KI-Systemen beteiligt sind, in der sicheren Handhabung dieser Systeme sowie in der Einhaltung gesetzlicher und ethischer Anforderungen geschult sind.

Doch die eigentliche Bewährungsprobe steht erst bevor: Am 2. August 2026 wird die nächste – und für viele Unternehmen entscheidende – Stufe des EU AI Act scharf geschaltet. Ab diesem Datum greifen die vollständigen Pflichten für Hochrisiko-KI-Systeme, die Marktüberwachung startet offiziell, und die Bundesnetzagentur als nationale Aufsichtsbehörde wird durchsetzungsfähig.

Gleichzeitig sorgt das Digital-Omnibus-Paket der EU-Kommission für Irritation: Das Europäische Parlament hat im März 2026 eine Verschiebung der Hochrisiko-Fristen auf Dezember 2027 beziehungsweise August 2028 beschlossen – doch die Beratungen zwischen Parlament, Rat und Kommission sind noch nicht abgeschlossen. Eine finale Einigung steht aus. Für IT-Entscheider entsteht damit eine paradoxe Situation: Die Verschiebung ist politisch gewollt, aber rechtlich noch nicht besiegelt. Wer sich darauf verlässt, spielt ein riskantes Spiel.

Kurzum: Drei Monate bleiben bis zum ursprünglichen Stichtag. Zeit für Klarheit, Strategie und konkretes Handeln.

EU AI ACT: Der Stufenplan – Wo stehen wir, wohin geht es?

1. August 2024: Formelles Inkrafttreten der Verordnung

2. Februar 2025: Verbote für künstliche Intelligenz mit unannehmbarem Risiko. KI-Kompetenzpflicht (KI-Literacy, Art. 4)

2. August 2025: Pflichten für General-Purpose-AI-Modelle (GPAI), Governance-Strukturen

2. August 2026: Vollanwendung der Vorgaben für Hochrisiko-KI, Start der Marktüberwachung

2. August 2027: Weitere Pflichten für Hochrisiko-KI in regulierten Produkten, Übergangsfrist für ältere GPAI-Anwendungen endet

Rückblick: Was bereits gilt 

Bevor der Blick nach vorn geht, lohnt eine Bestandsaufnahme der bereits geltenden Pflichten – denn in der Praxis zeigt sich, dass viele Unternehmen selbst diese noch nicht vollständig umgesetzt haben:

Seit 2. Februar 2025 sind KI-Systeme mit unannehmbarem Risiko verboten: Dazu zählen zum Beispiel Social Scoring, manipulative Systeme, die den freien Willen untergraben, biometrische Echtzeit-Fernüberwachung im öffentlichen Raum und Emotionserkennung am Arbeitsplatz. Gleichzeitig gilt die bereits angesprochene AI-Literacy-Pflicht: Jedes Unternehmen, das KI entwickelt oder einsetzt, muss sicherstellen, dass seine Mitarbeitenden über ausreichende KI-Kompetenz verfügen.

Seit 2. August 2025 gelten die Pflichten für General-Purpose-AI-Modelle (GPAI): Anbieter müssen technische Dokumentation vorhalten, Trainingsdaten transparent machen und bei Modellen mit systemischem Risiko zusätzlich Adversarial Testing (Überprüfung der Robustheit und Sicherheit von KI-Modellen), Cybersicherheits-Konzepte und Vorfallmeldungen gewährleisten. Die Bundesnetzagentur hat mit dem Koordinierungs- und Kompetenzzentrum für die KI-Verordnung (KoKIVO) und einem KI-Service-Desk für Unternehmen die operative Arbeit aufgenommen.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung