Künstliche Intelligenz ist eine mächtige Technologie, ebenso so groß sind auch deren Risiken. Daher muss eine Balance zwischen Innovation und Regulierung gefunden werden. Gastautor David Colwell erklärt, wo akuter Handlungsbedarf besteht, ob eine Steuer auf KI-Modelle sinnvoll ist und wie Unternehmen sich schon jetzt auf künftige Regulierungen vorbereiten können.
(Bild: Sutthiphong/Adobe Stock)
KI ist ein bisschen wie der Dschinni ist aus der Flasche, der sich nicht wieder einfangen lässt. Die neue Technologie ist mächtig und ihr Potenzial enorm. Nicht umsonst stand künstliche Intelligenz daher dieses Jahr auch im Zentrum des Weltwirtschaftsforums in Davos. Genauso groß sind aber auch die Risiken. Die aktuelle Debatte um die von der KI Google Gemini generierten Bilder zeigt besonders illustrativ, wie limitiert KI-Modelle trotz allem beeindruckenden Fortschritt noch sind. Entscheidend wird sein, die Balance zwischen Innovation und Regulierung zu finden. Außerdem brauchen wir eine Strategie, wie wir mit den gesellschaftlichen Auswirkungen umgehen. Denn KI-Modelle verändern die Art und Weise, wie wir arbeiten, grundlegend.
KI-Modelle: Verbot ist schädlicher als die Risiken
Auch wenn Italien wieder einmal damit droht, ChatGPT zu blockieren: Keine Regierung der Welt kann es sich leisten, KI ganz zu verbieten. Der wirtschaftliche Schaden wäre größer als die Risiken, die die neue Technologie mit sich bringt. Denn dann wandern Innovationen einfach in andere Länder ab. Klar ist aber auch, dass wir Regeln für KI-Modelle und deren Nutzung definieren müssen, um die Gefahren in den Griff zu bekommen. Die DSGVO kann hier als Blaupause dienen. Weltweit gibt es bereits verschiedene Initiativen, vom AI Act der EU bis zu Joe Bidens Executive Order zu „Safe, Secure and Trustworthy Development and Use of AI“. Doch das ist erst der Anfang. In den kommenden Jahren wird die Regulierung weiter zunehmen.
Wo besteht akuter Handlungsbedarf?
Insbesondere im Bereich Data Ownership gibt es viele offene Fragen. Ist es zum Beispiel ethisch vertretbar, wenn generative KI einen Künstler oder Autor imitiert, ohne dass dieser angemessen dafür entlohnt wird? Schon mehrfach gab es Klagen gegen OpenAI wegen Urheberrechtsverletzungen, zuletzt von der New York Times. Schließlich schaffen KI-Modelle nichts Neues, sondern verarbeiten nur die Daten, mit denen sie trainiert wurde. Um Nutzern im Fall von Klagen wegen Urheberrechtsverletzungen zu unterstützen, bieten die KI-Modelle von OpenAI, Google Microsoft und anderen Anbietern bereits Rechtsschutz an.
Auch in puncto Datenschutz und Datensicherheit besteht noch Nachholbedarf. Denn Daten, die in ein KI-Modell einfließen, lassen sich mit den richtigen Tricks auch wieder herausziehen. Wie einfach das geht, hatten Forscher Ende letzten Jahres gezeigt: Indem sie ChatGPT mehrfach dasselbe Wort wiederholen ließen, gelang es ihnen, Trainingsdaten aus dem KI-Modell zu extrahieren. Künftig müssen wir uns also auch mit Datendiebstahl via KI auseinandersetzen, wobei es sehr schwierig wird, solche Fälle nachzuweisen.
KI-Modelle können keine Verantwortung übernehmen
Ein anderes großes Problem ist die Schuldfrage: Wer kann verantwortlich gemacht werden, wenn eine KI eine Fehlentscheidung trifft? Ein Computer ist nicht haftbar, und wie eine KI zu einer Entscheidung kommt, lässt sich nicht nachvollziehen. Daher sollte eine Technologie niemals über Leben und Tod bestimmen – und auch nicht darüber, ob ein Kunde eine Versicherungspolice erhält oder nicht. Ob und wie selbstständig KI-Modelle agieren düfren, muss immer auf die Risikostufe abgestimmt sein. Voll autonome KI-Modelle werden wir daher in kritischen Bereichen vermutlich niemals sehen. Ganz anders sieht es bei Anwendungen mit niederem Risiko aus. Es würde mich wundern, wenn irgendjemand in zwei bis drei Jahren noch auf einer Website in einer Chat Box mit einem realen Menschen spricht.
Warum eine Steuer auf KI-Modelle sinnvoll ist
Gerade bei einfachen, wiederkehrenden Standardaufgaben wird KI menschliche Mitarbeiter ersetzen. Viele Menschen fürchten daher um ihren Arbeitsplatz. Zu Recht – wie die Entwicklung des vergangenen Jahres zeigt. Etliche große Unternehmen haben bereits Umstrukturierungen wegen KI angekündet. Gleichzeitig entstehen durch KI-Modelle wieder neue Arbeitsfelder und helfen Mitarbeitern dabei, ihre Fähigkeiten weiterzuentwickeln. Trotzdem müssen wir uns mit den gesamtgesellschaftlichen Auswirkungen beschäftigen.
Eine KI-Steuer, wie sie etwa von Elon Musk oder Andrew Ng angeregt wurde, könnte hier ein guter Lösungsansatz sein. Laut einer Studie des Internationalen Währungsfonds (IWF) wird sich künstliche Intelligenz auf fast 40 Prozent aller Arbeitsplätze auswirken, in den fortgeschrittenen Volkswirtschaften sogar auf 60 Prozent. In der Hälfte dieser Fälle wird die KI die Menschen aber nicht ersetzen, sondern unterstützen und ihre Produktivität steigern. Gerade in der Entwicklung ist der Einsatz von KI unverzichtbar, um den Fachkräftemangel zu bewältigen und die immer kürzeren Release-Zyklen zu stemmen.
Das sollten Unternehmen jetzt zur KI-Nutzung tun
Künftig wird die Fähigkeit, KI-Modelle richtig einzusetzen, entscheidend für den Erfolg sein. Unternehmen sollten daher stärker in Weiterbildung investieren und das Thema priorisieren. Mit Blick auf KI-Anwendungen, die Entscheidungen allein treffen oder den Entscheidungsfindungsprozess unterstützten werden, ist außerdem wichtig, Teststrategien entsprechend weiterzuentwickeln. Continuous Testing und Monitoring ist hier zentral. Es gilt, zu verfolgen, ob das KI-System vom erwartbaren Verhalten abweicht, wie sich dies auf angeschlossene Applikationen auswirkt und ob korrigierende Maßnahmen erforderlich sind.
Stand: 16.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die WIN-Verlag GmbH & Co. KG, Chiemgaustraße 148, 81549 München einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://kontakt.vogel.de/de/win abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
In diesem Zusammenhang sind Unternehmen auch gut beraten, ausschließlich mit KI-Anbietern zusammenzuarbeiten, die sich ethischen Grundsätzen in der KI-Entwicklung verschrieben haben. Außerdem sollten sie sich auf die zunehmende Regulierung vorbereiten, um Risiken zu minimieren. Wichtig ist hier, von Anfang an auf eine saubere Datenhygiene zu achten. Mit einer One-Model-Per-Customer-Strategie sind Unternehmen in der Lage, Datendiebstahl via KI zu vermeiden und alle Daten eines Kunden auf Wunsch wieder zu löschen. Außerdem empfiehlt es sich, genau zu tracken, aus welchen Quellen die Daten stammen.
David Colwell ist Vice President of Artificial Intelligence and Machine Learning bei Tricentis. Zuvor war er in den Bereichen Innovation, Solutions Architecture und Quality Assurance tätig. Tricentis ist Anbieter von KI-basierem Continuous Testing und Quality Engineering. Der Ansatz eignet sich für die agile Entwicklung und komplexe Enterprise-Anwendungen.