Der Ministerrat der 27 EU-Mitgliedsstaaten hat am 21. Mai 2024 in Brüssel den AI Act beschlossen, dem das EU-Parlament bereits im März zugestimmt hatte. Das neue KI-Gesetz wird künftig unter anderem die Nutzung von KI-basierten Technologien wie die Videoüberwachung, Spracherkennung oder Auswertung von Finanzdaten regeln.
(Bild: Bartek/Adobe Stock)
Anfang Juni 2024 soll der AI Act im Amtsblatt der EU veröffentlicht werden und 20 Tage später in Kraft treten, abgestuft nach verschiedenen Geltungsbereichen. Unternehmen müssen bereits sechs Monate später erste Regeln befolgen. Sämtliche Bestandteile des Gesetzes sollen dann ab Frühjahr 2026 gelten. Wie haben aus aktuellem Anlass die Einschätzungen wichtiger Verbände zusammengetragen.
Durch AI Act den KI-Einsatz in Wirtschaft und Gesellschaft voranbringen
Dr. Ralf Wintergerst ist Präsident des Digitalverbands Bitkom e.V.
(Bild: Bitkom e.V.)
Dr. Ralf Wintergerst, Präsident des Bitkom e.V.: „Mit der heutigen Entscheidung nimmt der AI Act die letzte formale Hürde. Europa gibt damit einen EU-weiten Regulierungsrahmen für Künstliche Intelligenz vor, der AI Act ist in Deutschland unmittelbar geltendes Recht. Allerdings lässt der AI Act wesentliche Fragen offen, in Deutschland und den anderen EU-Ländern beginnt die Regulierungsarbeit jetzt erst. Ob KI in Deutschland und Europa einen Schub erhält oder vor allem vor neue Hindernisse gestellt wird, hängt entscheidend davon ab, wie dieser Rahmen ausgestaltet und die Regelungen in Deutschland umgesetzt werden. Wir müssen Raum lassen für KI-Innovationen, die den Menschen dienen. Ziel muss sein, den Einsatz von KI in Wirtschaft, Verwaltung und Gesellschaft voranzubringen. Erst 13 Prozent der Unternehmen setzen KI ein, weitere 33 Prozent planen oder diskutieren es. Die Umsetzung des AI Act muss dafür sorgen, dass KI in Deutschland erfolgreich entwickelt und umfassend eingesetzt wird. Dafür braucht es u.a. praxisnahe Hilfestellungen der Behörden.
Auch die EU-Kommission ist gefordert. Sie muss das angekündigte AI-Office rasch einrichten und mit der Umsetzung der Anforderungen für sogenannte General Purpose AI Models beginnen. Weil diese bereits Mitte kommenden Jahres wirksam werden sollen, ist insbesondere wichtig, dass die Regulierung für diese KI-Basismodelle bürokratiearm und praxisnah gestaltet wird. Das gilt auch für die weiteren Richtlinien, die jetzt erarbeitet werden müssen. Dabei kommt es darauf an, Doppelregulierung zu vermeiden und dauerhafte Rechtssicherheit zu schaffen. Die Bundesregierung muss zeitnah einen Vorschlag für ein nationales Durchführungsgesetz vorlegen, damit die Unternehmen wissen, was auf sie zukommt. Dabei darf das nationale Regulierungskorsett nicht zu eng geschnürt werden. Zugleich müssen drängende Fragen wie die nach einer zentralen Aufsichtsbehörde und deren Ausstattung mit Personal und finanziellen Ressourcen beantwortet werden.“
Entscheidungen von KI-Systemen müssen nachvollziehbar sein
Dieter Westerkamp ist Bereichsleiter beim VDI e.V.
(Bild: VDI e.V.)
Dieter Westerkamp, Bereichsleiter beim VDI e.V.: „Die EU hat heute endgültig das KI-Gesetz (AI Act) verabschiedet. Damit haben die EU-Staaten erstmals Regeln zur Nutzung von Künstlicher Intelligenz festgelegt. Es ist das erste Gesetz dieser Art in der Welt und kann einen globalen Standard für die Regulierung von KI setzen. Ein zentraler Punkt des Gesetzes sieht vor, dass KI-Systeme möglichst transparent, nachvollziehbar und nicht diskriminierend sind. Ein wichtiger Aspekt dabei ist, dass die KI-Systeme von Menschen überwacht werden – nicht von technischen Systemen. Damit bleibt die endgültige Entscheidung und Verantwortung in Menschenhand. Dieser Punkt wird vom VDI eindeutig unterstützt. In seinen „ethischen Grundsätzen des Ingenieurberufs“ aus dem Jahr 2021 stellt der VDI fordernd fest: „Ingenieurinnen und Ingenieure sind sich darüber bewusst, dass bei der Delegation operativer und strategischer Unterstützungs- und Entscheidungsleistungen an autonome KI-basierte Systeme die Verantwortung letztlich beim Menschen verbleiben muss.“
Dabei geht es nicht nur um die Künstliche Intelligenz selbst. „Wir müssen die Gesamtsysteme betrachten, in denen KI genutzt wird. Daher haben wir in unseren Ethischen Grundsätzen formuliert, dass Ingenieurinnen und Ingenieure gewährleisten, dass Entscheidungen von KI-Systemen stets nachvollziehbar und plausibel sind. Sie haben darüber hinaus eine Mitverantwortung für die systemischen Wirkungen – nicht nur des entwickelten Teilsystems selbst, sondern auch für dessen Auswirkungen in einem Gesamtsystem beziehungsweise Netzwerk.
Der VDI hatte das Aufkommen der breiten KI-Nutzung und autonomer Systeme zum Anlass genommen, seine ethischen Grundsätze daraufhin zu überarbeiten und zu ergänzen. Unabhängig davon sieht der VDI die großen Chancen, die Technologien auf der Basis von künstlicher Intelligenz bieten. Wir müssen hier unbedingt am Ball bleiben, um zukünftig auch weiterhin auf dem Weltmarkt wettbewerbsfähige Produkte und Dienstleistungen mit integrierter KI anbieten zu können. Gut ist, dass wir in Deutschland im Hinblick auf die Anzahl von Patenten aktuell weltweit auf dem zweiten Platz liegen. Nun gilt es, auf dieser Basis geeignete Produkte und Dienstleistungen zu entwickeln, die das KI-Gesetz erfüllen.“
AI Act schafft Basis für hochqualitative „KI Made in Europe“
Dr. Joachim Bühler ist Geschäftsführer des TÜV-Verbands e.V.
(Bild: Thomas Rosenthal/VdTÜV Verband der TÜV e.V.)
Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands e.V.: „Mit Blick auf die Europawahlen ist die Abstimmung über den AI Act ein starkes Signal für die Handlungsfähigkeit der Europäischen Union. Dieser Rechtsakt zeigt, was die EU gemeinsam erreichen kann – und dass sie trotz langer und teilweise schwieriger Verhandlungen kompromissfähig ist. Der EU AI Act ist eine Chance, die Gesellschaft vor negativen Auswirkungen von KI-Systemen zu schützen und gleichzeitig Innovationen für hochqualitative „KI Made in Europe“ zu fördern. Die EU hat damit die Chance, einen Leitmarkt für sichere KI-Prüfung zu etablieren - nur so kann KI-Sicherheit auch in hochriskanten Bereichen gewährleistet werden. Nun gilt es, eine möglichst effiziente und unbürokratische Umsetzung sicherzustellen.
Stand: 16.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die WIN-Verlag GmbH & Co. KG, Chiemgaustraße 148, 81549 München einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://kontakt.vogel.de/de/win abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Der AI Act wird nur so gut sein wie seine nationale Umsetzung. Es kommt daher darauf an, eine einheitliche Auslegung und konsequente Anwendung auf Grundlage des risikobasierten Ansatzes sicherzustellen, möglichst rasch klare Verantwortlichkeiten zu definieren und die zuständigen Stellen auf- bzw. auszubauen. Zudem müssen die europäischen Normungsorganisationen schnellstmöglich die Erarbeitung harmonisierter Normen zur konformen Umsetzung der KI-Anforderungen vorantreiben. Der EU-Gesetzgeber ist in der neuen Legislaturperiode gefordert, eine einheitliche Umsetzung sicherzustellen, etwa bei der Nachschärfung konkreter Klassifizierungsregeln, insbesondere für hochriskante KI-Systeme. Darüber hinaus muss er Handreichungen und Leitlinien für die Umsetzung durch kleine und mittelständische Unternehmen bereitstellen und die Beteiligung aller Stakeholder inklusive Benannter Stellen im Advisory Forum ermöglichen.“