Jeder sechste Verantwortliche in Deutschland stuft die Besorgnis über KI-Projekte als „extrem“ ein. Trotz bekannter Sicherheits- und Compliance-Risiken wollen Unternehmen den Einsatz von künstlicher Intelligenz weiter vorantreiben.
Hoher Einführungsdruck trotz Risiken: 70 Prozent der Entscheider in Deutschland stehen unter Druck, KI-Projekte trotz Sicherheitsbedenken zu genehmigen. 17 Prozent stuften die Sorge als „extrem“ ein und wurden dennoch übergangen.
Governance und Compliance hinken hinterher: Laut 56 Prozent der Befragten wird KI schneller ausgerollt, als sie abgesichert werden kann. Viele haben nur begrenztes Wissen zu den Regularien
Wachsende Risiken durch autonome KI: Die Skepsis der Verantwortlichen gegenüber agentischer KI bleibt hoch. Dies betrifft den Zugriff auf sensible Daten, manipulierte Prompts und neue Angriffsflächen, wobei fehlende Transparenz/Auditierbarkeit und unklare Notfallkontrollen wie Kill-Switch bestehen.
TrendAI, ein Geschäftsbereich von Trend Micro, hat neue Forschungsergebnisse veröffentlicht, die zeigen, dass Unternehmen weltweit den Einsatz von künstlicher Intelligenz vorantreiben, obwohl weiterhin Sicherheits- und Compliance-Risiken bestehen. Die Befragung von weltweit 3.700 Business- und IT-Entscheidern, davon 200 in Deutschland, ergab, dass 70 Prozent der Entscheider in Deutschland bereits unter Druck standen, KI-Projekte trotz Sicherheitsbedenken zu genehmigen. 17 Prozent bezeichneten diese Bedenken sogar als „extrem“, wurden jedoch übergangen, um mit Wettbewerbern und internen Anforderungen Schritt zu halten.
Der Druck zu einer schnellen KI-Einführung wird außerdem durch uneinheitliche Governance-Strukturen und unklare Verantwortlichkeiten für KI-Risiken verstärkt. Verantwortliche für Cybersecurity können häufig nur noch auf Entscheidungen zur KI-Einführung reagieren, die von der Unternehmensführung getroffen werden. Das führt oftmals zu Behelfslösungen und einer verstärkten Nutzung nicht genehmigter, sogenannter „Schatten-KI“-Tools.
Unternehmen implementieren KI schneller, als sie die damit verbundenen Risiken verwalten können. Dadurch entsteht eine wachsende Lücke zwischen Ambitionen und Kontrolle. 56 Prozent der deutschen Befragten (57 Prozent weltweit) geben an, dass sich KI schneller entwickelt, als sie sie absichern können. Gleichzeitig äußern 46 Prozent (64 Prozent weltweit), dass sie nur geringes bis mittleres Vertrauen in ihre Kenntnisse der rechtlichen Rahmenbedingungen für den Einsatz von KI im Unternehmen haben.
Auch die Reife von Governance-Strukturen bleibt niedrig. Nur 41 Prozent der deutschen Unternehmen verfügen bereits über umfassende KI-Richtlinien; 56 Prozent befinden sich noch in der Ausarbeitung entsprechender Vorgaben oder haben gerade erst damit begonnen. Rund ein Drittel der deutschen Befragten (41 Prozent weltweit) nennen zudem unklare regulatorische oder Compliance-Anforderungen als Hindernis für eine sichere KI-Nutzung. In der Praxis bedeutet dies, dass KI bereits im operativen Geschäft ausgerollt wird, bevor die Regeln für ihren Einsatz vollständig festgelegt sind.
Vertrauen in autonome KI bleibt begrenzt
Das Vertrauen in fortschrittliche, autonome KI-Systeme befindet sich weiterhin in einer Reifungsphase. Lediglich 36 Prozent der deutschen Entscheider sind der Ansicht, dass agentische KI die Cyberabwehr kurzfristig deutlich verbessern wird. Damit sind die Deutschen deutlich skeptischer als die weltweiten Befragten, von denen immerhin 48 Prozent diese Hoffnung hegen. Zudem bestehen weiterhin Bedenken, wenn KI-Projekte umgesetzt werden: Mehr als ein Drittel der Befragten hierzulande (36 Prozent) sehen den Zugriff von KI-Agenten auf sensible Daten als größtes Risiko. 39 Prozent von ihnen warnen davor, dass manipulierte Prompts die Sicherheit gefährden könnten, während ein Viertel (26 Prozent) eine zusätzliche Angriffsfläche für Cyberkriminelle sieht. Ein ähnlich großer Anteil (28 Prozent) befürchtet den Missbrauch des Vertrauensstatus von KI-Systemen sowie Risiken durch autonome Codebereitstellung (25 Prozent).
Gleichzeitig gibt knapp ein Drittel der deutschen Unternehmen (31 Prozent, 29 Prozent weltweit) an, dass ihnen die notwendige Transparenz oder Auditierbarkeit dieser Systeme fehlt. Das wirft grundlegende Fragen darüber auf, wie Unternehmen eingreifen oder Kontrolle ausüben können, sobald autonome Agenten im Einsatz sind. 35 Prozent der deutschen Befragten (39 Prozent weltweit) unterstützen die Einführung von „Kill-Switch“-Mechanismen für KI, mit denen Systeme im Fall von Fehlfunktionen oder Missbrauch abgeschaltet werden können. Etwa die Hälfte (49 Prozent) ist sich hierzu noch unsicher. Hier zeigt sich ein grundlegendes Problem: Unternehmen bewegen sich in Richtung autonomer KI, ohne sich darüber einig zu sein, wie Kontrolle in kritischen Situationen gewährleistet werden soll.
Richard Werner ist Cybersecurity Advisor bei TrendAI.
(Bild: Trend Micro)
Richard Werner, Cybersecurity Advisor bei TrendAI, kommentiert die Ergebnisse: „Unternehmen fehlt es nicht am Bewusstsein für Risiken, sondern an den Voraussetzungen, um diese wirksam zu managen. Wenn die Einführung von KI eher durch Wettbewerbsdruck als durch reife Governance-Strukturen getrieben wird, entsteht eine Situation, in der KI in kritische Systeme integriert wird, ohne dass die notwendigen Kontrollen vorhanden sind. Wir müssen Unternehmen deshalb dabei unterstützen, mit KI solide Ergebnisse zu erzielen und gleichzeitig ihre Geschäftsrisiken im Griff zu behalten.“
Wenn die Einführung von KI eher durch Wettbewerbsdruck als durch reife Governance-Strukturen getrieben wird, entsteht eine Situation, in der KI in kritische Systeme integriert wird, ohne dass notwendige Kontrollen vorhanden sind.
Richard Werner, TrendAI
Rachel Jin ist Chief Platform and Business Officer und Head of TrendAI.
(Bild: Trend Micro)
Rachel Jin, Chief Platform and Business Officer und Head of TrendAI, ergänzt: „Agentic AI bringt Unternehmen eine neue Kategorie von Risiken. Unsere Studie zeigt, dass die zentralen Bedenken bereits klar sind – von der Offenlegung sensibler Daten bis hin zum Verlust von Kontrolle. Ohne Transparenz und Kontrollmechanismen setzen Unternehmen Systeme ein, die sie nicht vollständig verstehen oder steuern können. Dieses Risiko wird weiter zunehmen, wenn sie keine Gegenmaßnahmen ergreifen.“
Stand: 16.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die WIN-Verlag GmbH & Co. KG, Chiemgaustraße 148, 81549 München einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://kontakt.vogel.de/de/win abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Zur Methodik der Studie: TrendAI beauftragte für die Studie "Global AI" Sapio Research mit der Befragung von 3.700 IT- und Business-Entscheidern in 23 Ländern, die in Unternehmen mit mehr als 250 Mitarbeitern tätig sind. An der Befragung im Februar 2026 nahmen 200 Geschäfts- und IT-Entscheider aus Deutschland sowie je 100 aus Österreich und der Schweiz teil. Mit der Expertise und Innovationskraft im Bereich Sicherheit nutzt TrendAI künstliche Intelligenz, um über 500.000 Unternehmen und Millionen von Menschen über KI, Clouds, Netzwerke, Endpunkte und Geräte hinweg zu schützen. Den Kern dieses Schutzes bildet die KI-gestützte Cybersecurity-Plattform TrendAI Vision One, mit der Unternehmen Cyberrisiko- und Exposure-Management und Security Operations zentralisieren können.