DB Podcast

Experten-Talk

DeepSeek: „Der Versuchung widerstehen“

< zurück

Seite: 3/4

Anbieter zum Thema

Tenable und SANS Institute

Satnam Narang, Senior Staff Research Engineer bei Tenable

„DeepSeek hat die Tech-Branche aus mehreren Gründen im Sturm erobert: Zum einen hat das Unternehmen ein Open Source Large Language Model (LLM) entwickelt, das Berichten zufolge Closed-Source-Modellen wie GPT-4 und o1 von OpenAI überlegen oder zumindest ebenbürtig ist. Zum anderen scheint es das mit weniger Rechenleistung bewerkstelligt zu haben, da die Beschaffung leistungsstärkerer Hardware durch Exportkontrollen eingeschränkt ist.

Satnam Narang, Senior Staff Research Engineer bei Tenable.(Bild:  Tenable)
Satnam Narang, Senior Staff Research Engineer bei Tenable.
(Bild: Tenable)

Das Release von DeepSeekv3 und der leistungsstärkeren Version DeepSeek-R1 als Open Source macht LLMs praktisch jedem auf der Welt zugänglich. Das Problem bei der Sache: Im Gegensatz zu Closed-Source-Modellen, die innerhalb gewisser Leitplanken operieren, sind Open Source LLMs anfälliger für Missbrauch. Wir wissen noch nicht, wie schnell Cyberkriminelle die DeepSeek-Modelle für ihre Zwecke instrumentalisieren. Doch wenn frühere Entwicklungen ein Indikator sind, hat der Wettlauf längst begonnen.

Für Cybercrime konzipierte LLMs optimieren in der Regel den Text-Output, den Scammer und Cyberkriminelle für Finanzbetrug oder die Verbreitung von Malware nutzen. Wir wissen, dass Cybercrime-Tools wie WormGPT, WolfGPT, FraudGPT, EvilGPT und das neu entdeckte GhostGPT in Untergrund-Foren gehandelt wurden. Für eine Prognose ist es noch sehr früh, aber es würde mich nicht überraschen, wenn die Entwicklung von DeepSeek-Wrappern – sprich Tools, die auf DeepSeek basieren und für Cybercrime konzipiert sind – oder die zweckgerichtete Modifizierung bestehender Modelle durch Cyberkriminelle rasant an Fahrt aufnehmen würde.“

Dieser Vorfall wirft ein Schlaglicht auf ein grundlegendes Problem: Die Entwicklung von KI lässt die Cybersicherheit weiterhin außer Acht.

Rob T Lee, Chief of Research beim SANS Institute

Rob T Lee, Chief of Research beim SANS Institute

„Dieser Vorfall wirft ein Schlaglicht auf ein grundlegendes Problem: Die Entwicklung von KI lässt die Cybersicherheit weiterhin außer Acht. Die Cyberangriffe auf DeepSeek sollten ein Weckruf sein. Die gesamte Branche muss Cybersicherheit bereits in der Phase der Modellentwicklung integrieren. Wenn KI-Unternehmen diese Lücken nicht schließen, werden sich die bei DeepSeek bekannt gewordenen Angriffe in großem Maßstab wiederholen. Darüber hinaus ist der Ansatz von DeepSeek in Bezug auf den Datenschutz ein Problem. Im Gegensatz zu OpenAI - das sich, wenn auch unvollkommen, stärker dem Datenschutz und der Anonymisierung verschrieben hat - sammelt und speichert DeepSeek riesige Mengen von Nutzerdaten in China, ohne klare Anonymisierungsmaßnahmen. Das ist ein erhebliches Risiko, nicht nur unter Sicherheitsaspekten, sondern auch im Hinblick auf potenziellen Datenmissbrauch, rechtliche Bedenken und das allgemeine Vertrauen in KI-Systeme.

Rob T Lee, Chief of Research beim Sans Institute.(Bild:  Sans Institute)
Rob T Lee, Chief of Research beim Sans Institute.
(Bild: Sans Institute)

Und noch etwas: Die Cyberverteidigung wird von KI mehr profitieren als die Angreifer. Dies ist jedoch nur möglich, wenn die Innovation im Bereich der Cybersicherheit nicht durch Vorschriften und Datenschutzgesetze eingeschränkt wird. Eine wirksame Cyberabwehr stützt sich auf Signale - kleine, aber wichtige Artefakte, die mit menschlichen Interaktionen verbunden sind: E-Mail-Metadaten, Internetverkehrsmuster, Finanztransaktionsverhalten und KI-gestützte Bedrohungsdaten. Wenn Datenschutzgesetze zu weit gehen und Sicherheitsteams daran hindern, diese Signale zu analysieren, werden die Verteidiger im Nachteil sein. Die Cybersicherheit muss ausdrücklich von weitreichenden Datenschutz- und Regulierungsbeschränkungen abgegrenzt werden. Wir können es uns nicht leisten, dass gut gemeinte, aber zu weit gefasste Richtlinien die Sicherheitsteams an der Erfüllung ihrer Aufgaben hindern. KI-gesteuerte Cyberabwehr hat das Potenzial, den Vorteil wieder auf die Seite der Verteidiger zu verlagern - aber nur, wenn die Vorschriften die nötige Flexibilität zulassen, um diese Fähigkeiten ohne unnötige Hindernisse zu nutzen.

KI-Sicherheit ist nicht länger optional. Unternehmen, die diese Modelle entwickeln, müssen die Sicherheit vom ersten Tag an ernst nehmen, Datenschutzbestimmungen müssen den Realitäten der Cyberabwehr Rechnung tragen, und die Branche als Ganzes muss aufhören, bei der Absicherung von KI hinterherzuhinken. Wenn wir das jetzt nicht in Ordnung bringen, geben wir den Angreifern nur eine größere Spielwiese.“

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung