DB Podcast

Schutz vor Cyberangriffen Human in the Loop: Warum Guided GenAI der bessere Ansatz ist

Ein Gastkommentar von Markus Ehrenmann 2 min Lesedauer

Anbieter zum Thema

Bei einem Cyberangriff zählt jede Sekunde. Automatisiert agierende KI scheint aus diesem Grund die perfekte Waffe im Kampf gegen Hacker zu sein. Doch der unbedachte Einsatz von KI kann Schaden verursachen. Viele Organisationen setzen daher auf den Ansatz „Human in the Loop“.

(Bild:  © Werckmeister/stock.adobe.com - generiert mit KI)
(Bild: © Werckmeister/stock.adobe.com - generiert mit KI)

Bei dem Human in the Loop-Ansatz arbeiten KI-basierte Cybersecurity-Lösungen autonom, während Analysten deren Entscheidungen prüfen. In der Praxis stößt dieser Ansatz jedoch schnell an Grenzen: Entweder arbeiten die KI-basierten Systeme so gut, dass das Engagement der Analysten schleichend nachlässt, oder die Systeme überschwemmen sie mit zu prüfenden Fehlermeldungen, bis sich die gefürchtete Alert Fatigue bemerkbar macht. Unternehmen brauchen daher einen ganzheitlichen Ansatz, der menschliche Aufmerksamkeit nicht systematisch unterläuft. Genau hier setzt Guided GenAI in Kombination mit Accountability by Design an.

Human in the Loop versus Guided GenAI und Accountability by Design

Guided GenAI bezeichnet KI-basierte Cybersecurity-Lösungen, die nachvollziehbar erklären, warum sie eine Maßnahme empfehlen und gleichzeitig Unsicherheiten oder Anomalien offenlegen. Sie lenken zudem die Aufmerksamkeit von Analysten gezielt auf jene Incidents, in denen menschliches Urteilsvermögen gefragt ist, und reduzieren so das Grundrauschen. Dadurch schaffen sie eine konsistente, nachprüfbare Entscheidungsbasis. Mit dieser Grundlage kann ein Security Operations Center dann auch Accountability by Design implementieren.

Menschen behalten bei diesem Ansatz die Kontrolle über Absicht, Interpretation, Ethik und Priorisierung, während KI die skalierbare, konsistente und nachvollziehbare Ausführung übernimmt. Der Grad der Aufsicht passt sich dabei dynamisch an Risiko und Kontext an: von der verpflichtenden Freigabe durch Analysten bis hin zum komplett autonomen Handeln, das jederzeit auditierbar bleibt.

Verantwortlichkeiten sind explizit über klare Protokolle, transparente Entscheidungsketten und definierte Eskalationswege verteilt, sodass die Verantwortung nicht auf einzelne Analysten abgewälzt wird. Gleichzeitig muss die Aufsicht der KI realistisch und nachhaltig gestaltet sein: An die Stelle monotoner Kontrollaufgaben, die blinde Flecken fördern, treten gezielte Prüfmechanismen, die die Sicherheit erhöhen und die kognitive Belastung der Teams senken. Die Kombination aus Guided GenAI und Accountability by Design entlastet Analysten langfristig – und macht den KI-Einsatz in der Cyberabwehr zugleich effektiver, robuster und verantwortbarer.

Markus Ehrenmann CTO bei Open SystemsMarkus Ehrenmann
ist CTO bei Open Systems. Das Unternehmen ist Anbieter von Co-managed-SASE- und Zero-Trust-Betriebsmodellen und unterstützt Unternehmen beim sicheren Betrieb hybrider und Multi-Cloud-Umgebungen.

Bildquelle: Open Systems

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung