DB Podcast

AI Pulse Poll-Studie Cyberangriffe per KI: Ein Drittel der Firmen unsicher über Vorfälle

Von ISACA 5 min Lesedauer

Anbieter zum Thema

Laut einer neuen Studie von ISACA können 35 Prozent der europäischen Unternehmen nicht sagen, ob sie KI-gestützte Cyberangriffe erlitten haben. Dies deutet auf eine wachsende Kluft zwischen dem Tempo KI-gesteuerter Bedrohungen und der Fähigkeit hin, die damit verbundenen Risiken zu erkennen und zu bewältigen. 

(Bild:  © Werckmeister/stock.adobe.com)
(Bild: © Werckmeister/stock.adobe.com)

Darum Geht's

Erkennungslücke bei KI-Angriffen: Laut einer Umfrage von ISACA wissen 35 Prozent der Unternehmen nicht, ob sie bereits KI-gestützt angegriffen wurden. 71 Prozent betrachten KI-gestütztes Phishing als schwerer erkennbar.

KI-Nutzung wächst schneller als Governance: 82 Prozent der Unternehmen erlauben die Nutzung von KI und 74 Prozent die Nutzung von GenAI, aber nur 42 Prozent haben eine umfassende KI-Richtlinie. Zugleich fehlen häufig Transparenz und Kontrolle beim KI-Einsatz.

Risiken durch fehlende Kompetenzen: KI verbessert zwar die Abwehr von Cyberangriffen, sagen 43 Prozent, doch Qualifikationslücken, fehlende Schulungen und Regelungen bremsen die sichere Nutzung.

71 Prozent der befragten Fachleute berichten in der neuen Studie "AI Pulse Poll" von ISACA, dem Verband für Fachleute im Bereich des digitalen Vertrauens, dass KI-gestützte Phishing- und Social-Engineering-Angriffe heute schwerer zu erkennen sind. 58 Prozent geben an, dass KI die Authentifizierung digitaler Informationen erheblich erschwert hat, und 38 Prozent sagen, dass ihr Vertrauen in traditionelle Methoden zur Bedrohungserkennung infolgedessen gesunken ist.

Als größtes KI-Risiko nennen die Fachleute außerdem Fehlinformationen und Desinformation (87 Prozent), gefolgt von Datenschutzverletzungen (75 Prozent) und Social Engineering (60 Prozent). Die Teams können nicht managen, was sie nicht sehen, und die Werkzeuge, auf die sie sich bisher verlassen haben, veralten angesichts von KI-gestützten Angriffen schnell.

Cyberangriffe mithilfe von KI erkennen

Die Auswirkungen von KI auf die Cybersicherheit sind jedoch nicht gänzlich einseitig und erweisen sich als wertvolles Verteidigungsinstrument. 43 Prozent geben an, dass KI die Fähigkeit ihres Unternehmens, Cyberangriffe zu erkennen und darauf zu reagieren, verbessert hat; 34 Prozent setzen sie bereits gezielt zur Stärkung der Cybersicherheit ein. Die Realisierung dieses Verteidigungspotenzials hängt jedoch davon ab, ob das Fachwissen und die Governance vorhanden sind, um es effektiv einzusetzen – und beides ist bei zu vielen Unternehmen nach wie vor begrenzt.

KI am Arbeitsplatz ohne angemessene Aufsicht

Besorgniserregend ist, dass sich diese Cyberangriffe parallel zur weiten Verbreitung von KI am Arbeitsplatz in europäischen Unternehmen entwickeln. Die formale Genehmigung ist inzwischen die Regel: 82 Prozent der Unternehmen erlauben die Nutzung von KI ausdrücklich und 74 Prozent gestatten speziell die Nutzung von generativer KI.

KI wird in zentrale operative Aufgaben eingebettet: Die beliebtesten Einsatzgebiete sind das Erstellen von schriftlichen Inhalten (69 Prozent), die Steigerung der Produktivität (63 Prozent), die Automatisierung wiederkehrender Aufgaben (54 Prozent) und die Analyse großer Datenmengen (52 Prozent). Die berichteten Vorteile sind greifbar, da 77 Prozent Zeitersparnisse und 40 Prozent eine erhöhte Kapazität ohne zusätzlichen Personalaufwand anführen.

KI-Einsatz erfordert umfassende Governance

Überblick über wichtige Ergebnisse des AI Pulse Poll von ISACA.(Bild:  ISACA)
Überblick über wichtige Ergebnisse des AI Pulse Poll von ISACA.
(Bild: ISACA)

Doch die schnelle Einführung wurde nicht von der notwendigen Governance begleitet, die überwacht, wo und wie KI eingesetzt wird. Nur 42 Prozent der Unternehmen verfügen über eine formelle, umfassende KI-Richtlinie. 33 Prozent verlangen von ihren Mitarbeitenden nicht, offenzulegen, wenn KI zu Arbeitsergebnissen beigetragen hat, was zu erheblichen blinden Flecken im gesamten Unternehmen führt.

Daher ist es nicht überraschend, dass 87 Prozent der Fachleute Bedenken äußern, dass Mitarbeiter KI unbefugt nutzen; 26 Prozent sagen, ihre größte Herausforderung bei der Arbeit mit KI sei das mangelnde Vertrauen in den angemessenen Schutz von geistigem Eigentum und sensiblen Informationen.

Chris Dimitriadis ist Chief Global Strategy Officer bei ISACA.(Bild:  ISACA)
Chris Dimitriadis ist Chief Global Strategy Officer bei ISACA.
(Bild: ISACA)

Chris Dimitriadis, Chief Global Strategy Officer bei ISACA, erklärt: KI hat die Bedrohungslandschaft grundlegend verändert. Angreifer können ihre Absichten nun unmittelbar in die Tat umsetzen und zu viele Unternehmen wissen nicht einmal, ob sie bereits betroffen waren. Die Tatsache, dass so viele Unternehmen ohne die Governance agieren, die ihnen aufzeigt, wo und wie KI genutzt wird, verschärft dieses Risiko erheblich. Eine unregulierte KI schafft nicht nur ein operatives Risiko. Sie spielt aktiv denen in die Hände, die Schaden anrichten wollen. Die Schließung dieser Lücke beginnt mit beruflicher Weiterbildung und der Förderung des Fachwissens, das für den Aufbau und die Verankerung einer KI-Governance, die auch unter Druck standhält, erforderlich ist. Dies zu tun, ist heute eine zwingende Sicherheitsnotwendigkeit.

Eine unregulierte KI schafft nicht nur ein operatives Risiko. Sie spielt aktiv denen in die Hände, die Schaden anrichten wollen. Die Schließung dieser Lücke beginnt mit beruflicher Weiterbildung und der Förderung des Fachwissens für den Aufbau einer KI-Governance.

Chris Dimitriadis, ISACA

Aufbau von Fachwissen, um Cyberangriffe zu verhindern

Der AI Pulse Poll von ISACA zeigt die Veränderungen beim Risiko durch KI.(Bild:  ISACA)
Der AI Pulse Poll von ISACA zeigt die Veränderungen beim Risiko durch KI.
(Bild: ISACA)

Es ist die Aufgabe von Fachleuten, diese Governance-Lücke zu schließen, doch viele fühlen sich dafür nicht gerüstet. 54 Prozent der Befragten geben an, sich innerhalb der nächsten sechs Monate weiterbilden zu müssen, um ihren Arbeitsplatz zu behalten oder ihre Karriere voranzutreiben. 79 Prozent der Befragten sagen dies für den Zeitraum innerhalb eines Jahres. 41 Prozent nennen die wachsende Qualifikationslücke als eines der größten Risiken, das von KI ausgeht. Dennoch bietet 21 Prozent der befragten Unternehmen immer noch keinerlei formale KI-Schulungen an.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Das regulatorische Umfeld sorgt für zusätzliche Dringlichkeit. Der EU AI Act ist mit 45 Prozent das am häufigsten genannte Governance-Rahmenwerk in der Umfrage, vor dem des NIST (26 Prozent). Doch über ein Viertel (26 Prozent) der Unternehmen folgt noch überhaupt keinem Rahmenwerk – was eine Lücke zwischen regulatorischem Bewusstsein und tatsächlichem Handeln zeigt.

Dimitriadis betont „Die Grundlagen eines guten Risikomanagements haben sich nicht geändert. Verändert haben sich jedoch die Komplexität und die Geschwindigkeit dessen, was Fachleute heute steuern müssen. KI-Risiken erfordern Experten, die Risiken bewerten, die Aufsicht über den gesamten Lebenszyklus verankern und Best Practices für die Einhaltung von Vorschriften empfehlen können. Die Unternehmen, die jetzt in diese Fähigkeiten investieren, werden nicht nur besser geschützt sein, sondern auch besser positioniert, um die Vorteile der KI voll auszuschöpfen. Das ist der Wandel, den Qualifikationen wie die Advanced in AI Risk-Zertifizierung von ISACA bewirken sollen.“

Zur Methodik der Studie: Für den "AI Pulse Poll" hat ISACA zwischen 6. und 22. Februar 2026 681 Fachleute für digitales Vertrauen in Europa befragt. Diese sind unter anderem in den Bereichen IT-Audit, Governance, Cybersicherheit, Datenschutz und neue Technologien tätig. 
ISACA repräsentiert weltweit Fachleute, die das Vertrauen in Technologie fördern. Die Gemeinschaft unterstützt die mehr als 185.000 Mitglieder aus 195 Ländern und fast 230 Ortsverbänden mit dem Wissen, den Fähigkeiten, der Ausbildung und dem Netzwerk, das sie benötigen, um in Bereichen wie Informationssicherheit, Governance, Assurance, Datenschutz, Risikomanagement und neue Technologien erfolgreich zu sein.