Laut einer neuen Studie von ISACA können 35 Prozent der europäischen Unternehmen nicht sagen, ob sie KI-gestützte Cyberangriffe erlitten haben. Dies deutet auf eine wachsende Kluft zwischen dem Tempo KI-gesteuerter Bedrohungen und der Fähigkeit hin, die damit verbundenen Risiken zu erkennen und zu bewältigen.
Erkennungslücke bei KI-Angriffen: Laut einer Umfrage von ISACA wissen 35 Prozent der Unternehmen nicht, ob sie bereits KI-gestützt angegriffen wurden. 71 Prozent betrachten KI-gestütztes Phishing als schwerer erkennbar.
KI-Nutzung wächst schneller als Governance: 82 Prozent der Unternehmen erlauben die Nutzung von KI und 74 Prozent die Nutzung von GenAI, aber nur 42 Prozent haben eine umfassende KI-Richtlinie. Zugleich fehlen häufig Transparenz und Kontrolle beim KI-Einsatz.
Risiken durch fehlende Kompetenzen: KI verbessert zwar die Abwehr von Cyberangriffen, sagen 43 Prozent, doch Qualifikationslücken, fehlende Schulungen und Regelungen bremsen die sichere Nutzung.
71 Prozent der befragten Fachleute berichten in der neuen Studie "AI Pulse Poll" von ISACA, dem Verband für Fachleute im Bereich des digitalen Vertrauens, dass KI-gestützte Phishing- und Social-Engineering-Angriffe heute schwerer zu erkennen sind. 58 Prozent geben an, dass KI die Authentifizierung digitaler Informationen erheblich erschwert hat, und 38 Prozent sagen, dass ihr Vertrauen in traditionelle Methoden zur Bedrohungserkennung infolgedessen gesunken ist.
Als größtes KI-Risiko nennen die Fachleute außerdem Fehlinformationen und Desinformation (87 Prozent), gefolgt von Datenschutzverletzungen (75 Prozent) und Social Engineering (60 Prozent). Die Teams können nicht managen, was sie nicht sehen, und die Werkzeuge, auf die sie sich bisher verlassen haben, veralten angesichts von KI-gestützten Angriffen schnell.
Cyberangriffe mithilfe von KI erkennen
Die Auswirkungen von KI auf die Cybersicherheit sind jedoch nicht gänzlich einseitig und erweisen sich als wertvolles Verteidigungsinstrument. 43 Prozent geben an, dass KI die Fähigkeit ihres Unternehmens, Cyberangriffe zu erkennen und darauf zu reagieren, verbessert hat; 34 Prozent setzen sie bereits gezielt zur Stärkung der Cybersicherheit ein. Die Realisierung dieses Verteidigungspotenzials hängt jedoch davon ab, ob das Fachwissen und die Governance vorhanden sind, um es effektiv einzusetzen – und beides ist bei zu vielen Unternehmen nach wie vor begrenzt.
KI am Arbeitsplatz ohne angemessene Aufsicht
Besorgniserregend ist, dass sich diese Cyberangriffe parallel zur weiten Verbreitung von KI am Arbeitsplatz in europäischen Unternehmen entwickeln. Die formale Genehmigung ist inzwischen die Regel: 82 Prozent der Unternehmen erlauben die Nutzung von KI ausdrücklich und 74 Prozent gestatten speziell die Nutzung von generativer KI.
KI wird in zentrale operative Aufgaben eingebettet: Die beliebtesten Einsatzgebiete sind das Erstellen von schriftlichen Inhalten (69 Prozent), die Steigerung der Produktivität (63 Prozent), die Automatisierung wiederkehrender Aufgaben (54 Prozent) und die Analyse großer Datenmengen (52 Prozent). Die berichteten Vorteile sind greifbar, da 77 Prozent Zeitersparnisse und 40 Prozent eine erhöhte Kapazität ohne zusätzlichen Personalaufwand anführen.
KI-Einsatz erfordert umfassende Governance
Überblick über wichtige Ergebnisse des AI Pulse Poll von ISACA.
(Bild: ISACA)
Doch die schnelle Einführung wurde nicht von der notwendigen Governance begleitet, die überwacht, wo und wie KI eingesetzt wird. Nur 42 Prozent der Unternehmen verfügen über eine formelle, umfassende KI-Richtlinie. 33 Prozent verlangen von ihren Mitarbeitenden nicht, offenzulegen, wenn KI zu Arbeitsergebnissen beigetragen hat, was zu erheblichen blinden Flecken im gesamten Unternehmen führt.
Daher ist es nicht überraschend, dass 87 Prozent der Fachleute Bedenken äußern, dass Mitarbeiter KI unbefugt nutzen; 26 Prozent sagen, ihre größte Herausforderung bei der Arbeit mit KI sei das mangelnde Vertrauen in den angemessenen Schutz von geistigem Eigentum und sensiblen Informationen.
Chris Dimitriadis ist Chief Global Strategy Officer bei ISACA.
(Bild: ISACA)
Chris Dimitriadis, Chief Global Strategy Officerbei ISACA, erklärt: „KI hat die Bedrohungslandschaft grundlegend verändert. Angreifer können ihre Absichten nun unmittelbar in die Tat umsetzen und zu viele Unternehmen wissen nicht einmal, ob sie bereits betroffen waren. Die Tatsache, dass so viele Unternehmen ohne die Governance agieren, die ihnen aufzeigt, wo und wie KI genutzt wird, verschärft dieses Risiko erheblich. Eine unregulierte KI schafft nicht nur ein operatives Risiko. Sie spielt aktiv denen in die Hände, die Schaden anrichten wollen. Die Schließung dieser Lücke beginnt mit beruflicher Weiterbildung und der Förderung des Fachwissens, das für den Aufbau und die Verankerung einer KI-Governance, die auch unter Druck standhält, erforderlich ist. Dies zu tun, ist heute eine zwingende Sicherheitsnotwendigkeit.“
Eine unregulierte KI schafft nicht nur ein operatives Risiko. Sie spielt aktiv denen in die Hände, die Schaden anrichten wollen. Die Schließung dieser Lücke beginnt mit beruflicher Weiterbildung und der Förderung des Fachwissens für den Aufbau einer KI-Governance.
Chris Dimitriadis, ISACA
Aufbau von Fachwissen, um Cyberangriffe zu verhindern
Der AI Pulse Poll von ISACA zeigt die Veränderungen beim Risiko durch KI.
(Bild: ISACA)
Es ist die Aufgabe von Fachleuten, diese Governance-Lücke zu schließen, doch viele fühlen sich dafür nicht gerüstet. 54 Prozent der Befragten geben an, sich innerhalb der nächsten sechs Monate weiterbilden zu müssen, um ihren Arbeitsplatz zu behalten oder ihre Karriere voranzutreiben. 79 Prozent der Befragten sagen dies für den Zeitraum innerhalb eines Jahres. 41 Prozent nennen die wachsende Qualifikationslücke als eines der größten Risiken, das von KI ausgeht. Dennoch bietet 21 Prozent der befragten Unternehmen immer noch keinerlei formale KI-Schulungen an.
Stand: 16.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die WIN-Verlag GmbH & Co. KG, Chiemgaustraße 148, 81549 München einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://kontakt.vogel.de/de/win abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Das regulatorische Umfeld sorgt für zusätzliche Dringlichkeit. Der EU AI Act ist mit 45 Prozent das am häufigsten genannte Governance-Rahmenwerk in der Umfrage, vor dem des NIST (26 Prozent). Doch über ein Viertel (26 Prozent) der Unternehmen folgt noch überhaupt keinem Rahmenwerk – was eine Lücke zwischen regulatorischem Bewusstsein und tatsächlichem Handeln zeigt.
Dimitriadis betont „Die Grundlagen eines guten Risikomanagements haben sich nicht geändert. Verändert haben sich jedoch die Komplexität und die Geschwindigkeit dessen, was Fachleute heute steuern müssen. KI-Risiken erfordern Experten, die Risiken bewerten, die Aufsicht über den gesamten Lebenszyklus verankern und Best Practices für die Einhaltung von Vorschriften empfehlen können. Die Unternehmen, die jetzt in diese Fähigkeiten investieren, werden nicht nur besser geschützt sein, sondern auch besser positioniert, um die Vorteile der KI voll auszuschöpfen. Das ist der Wandel, den Qualifikationen wie die Advanced in AI Risk-Zertifizierung von ISACA bewirken sollen.“
Zur Methodik der Studie: Für den "AI Pulse Poll" hat ISACA zwischen 6. und 22. Februar 2026 681 Fachleute für digitales Vertrauen in Europa befragt. Diese sind unter anderem in den Bereichen IT-Audit, Governance, Cybersicherheit, Datenschutz und neue Technologien tätig. ISACA repräsentiert weltweit Fachleute, die das Vertrauen in Technologie fördern. Die Gemeinschaft unterstützt die mehr als 185.000 Mitglieder aus 195 Ländern und fast 230 Ortsverbänden mit dem Wissen, den Fähigkeiten, der Ausbildung und dem Netzwerk, das sie benötigen, um in Bereichen wie Informationssicherheit, Governance, Assurance, Datenschutz, Risikomanagement und neue Technologien erfolgreich zu sein.