DB Podcast

KI-Agenten
KI-Agenten im Doppelspiel: Autonome KI erfordert neue Verteidigung

Ein Gastbeitrag von Dr. Martin Krämer 2 min Lesedauer

Anbieter zum Thema

Künstliche Intelligenz ist zu einem prägenden Akteur geworden, der unseren Alltag, unsere Arbeitswelt und die Abwehr digitaler Bedrohungen grundlegend verändert. Während Unternehmen KI-Agenten nutzen, um Abwehrstrategien zu stärken, setzen Cyberkriminelle sie ein, um Angriffe raffinierter zu gestalten.

(Bild:   JOURNEY STUDIO7/stock.adobe.com)
(Bild: JOURNEY STUDIO7/stock.adobe.com)

Im Jahr 2025 rücken KI-Agenten ins Zentrum: autonome Systeme, die mit minimalem Input komplexe Aufgaben planen, ausführen und anpassen. Dadurch werden sowohl Verteidigung als auch Angriffe transformiert. Generative KI und Large Language Models (LLMs) ermöglichen täuschend echte Phishing-Mails ohne typische Fehler, massenhaft personalisierte Betrugsversuche sowie automatisierte Fake-Websites oder Chatbot-Betrug. Deepfakes verstärken CEO- und Social-Engineering-Angriffe wie im Fall des britischen Ingenieurbüros Arup, das vergangenes Jahr 25 Millionen US-Dollar durch gefälschte Videoanrufe verlor. Zunehmend rücken solche kognitiven Angriffe in den Fokus: Sie zielen nicht nur auf technische Schwachstellen, sondern manipulieren gezielt Wahrnehmung und Verhalten, etwa durch Desinformationskampagnen, die Vertrauen untergraben oder Wahlergebnisse beeinflussen.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung