Laut dem neuen Research Report von Netskope Threat Labs setzt sich der Einsatz von generativen KI-Anwendungen im Gesundheitswesen immer mehr durch und zieht Verstöße gegen die Datenschutzrichtlinien nach sich. Zudem versuchen Mitarbeiter, Gesundheitsdaten an nicht genehmigten Orten im Internet abzuspeichern.
Netskope Threat Labs hat jetzt seinen neuen Research Report veröffentlicht, der die Bedrohungslage im Gesundheitswesen analysiert. Aus dem aktuellen Bericht geht hervor, dass Beschäftigte im Gesundheitswesen regelmäßig versuchen, sensible Gesundheitsdaten an nicht genehmigte Orte im Internet oder in der Cloud hochzuladen. Zudem setzt sich der Einsatz von generativen KI-Anwendungen am Arbeitsplatz immer mehr durch – derzeit werden ChatGPT und Google Gemini am meisten eingesetzt. Entsprechend häufig zieht ihre Nutzung Verstöße gegen die Datenschutzrichtlinien nach sich.
Verstöße gegen Datenrichtlinien betrifft Gesundheitsdaten
81 Prozent aller Verstöße gegen Datenrichtlinien, die in Organisationen des Gesundheitswesens in den letzten zwölf Monaten auftraten, betrafen regulierte Gesundheitsdaten, das heißt Daten, die durch lokale, nationale oder internationale Vorschriften geschützt sind und sensible medizinische sowie klinische Informationen umfassen. Passwörter und Schlüssel, Quellcode oder geistiges Eigentum waren ebenfalls betroffen (insgesamt 19 Prozent), und ein Großteil dieser Verstöße ging von Personen aus, die sensible Daten auf persönliche Microsoft OneDrive- oder Google Drive-Konten hochgeladen hatten.
Generative KI wird im Gesundheitswesen allgegenwärtig
GenAI ist in der Branche allgegenwärtig geworden, und entsprechende Anwendungen werden nun in 88 Prozent der Gesundheitsorganisationen eingesetzt. Ein großer Teil der Verstöße gegen Datenrichtlinien tritt nun im Zusammenhang mit der Nutzung von GenAI durch Beschäftigte im Gesundheitswesen auf: 44 Prozent betreffen regulierte Gesundheitsdaten, 29 Prozent Quellcode, 25 Prozent geistiges Eigentum und zwei Prozent Passwörter und Schlüssel.
Zusätzliche Risiken von Datenlecks können von Anwendungen ausgehen, die Nutzerdaten für Schulungen nutzen oder GenAI-Funktionen enthalten, die in 96 Prozent beziehungsweise 98 Prozent der Gesundheitsorganisationen eingesetzt werden.Zwei von drei GenAI-Nutzern im Gesundheitswesen verwenden und senden bei der Arbeit sensible Gesundheitsdaten an ihre persönlichen GenAI-Konten. Dieses Verhalten erschwert den Sicherheitsteams den Überblick über die GenAI-bezogenen Aktivitäten ihrer Mitarbeiter und – ohne angemessene Datenschutzrechtliche Leitplanken – ihre Fähigkeit, Datenlecks zu erkennen und zu verhindern.
Vorteile von GenAI mit Datenschutzmaßnahmen verbinden
Gianpietro Cutolo, Cloud Threat Researcher bei Netskope Threat Lab, kommentiert die Ergebnisse des Berichts: „GenAI-Anwendungen bieten innovative Lösungen, führen aber auch neue Vektoren für potenzielle Datenschutzverletzungen ein, insbesondere in Umgebungen mit hohem Druck und hohen Risiken wie dem Gesundheitswesen, wo Mitarbeiter und Ärzte oft schnell und flexibel arbeiten müssen. Organisationen des Gesundheitswesens müssen die Vorteile von GenAI mit dem Einsatz von Sicherheits- und Datenschutzmaßnahmen in Einklang bringen, um diese Risiken zu minimieren.”Folgende Entwicklungen sind beim Schutz der Gesundheitsdaten zu berücksichtigen:
Einsatz von vorab genehmigten GenAI-Anwendungen in der Belegschaft, um die Nutzung von GenAI in Anwendungen zu zentralisieren, damit besser zu überwachen sowie zu sichern und „Schatten-KI“ sowie die Nutzung von persönlichen GenAI-Konten zu reduzieren. Diese ist zwar unter den Beschäftigten im Gesundheitswesen immer noch stark verbreitet, aber im letzten Jahr bereits von 87 Prozent auf 71 Prozent zurückgegangen, da die Unternehmen zunehmend auf von ihnen genehmigte GenAI-Lösungen umsteigen.
GenAI-Anwendungen werden lokal und nicht in der Cloud betrieben, sodass Mitarbeiter keine Daten extern teilen müssen, um diese Tools zu nutzen. 43 Prozent der Gesundheitsorganisationen setzen GenAI bereits auf ihren eigenen Systemen ein.
Einsatz strenger Data Loss Prevention (DLP)-Richtlinien zur Überwachung und Kontrolle des Zugriffs auf GenAI-Anwendungen sowie zur Festlegung der Art von Daten, die mit ihnen geteilt werden können. Dies bietet eine zusätzliche Sicherheitsebene für eventuelle riskante Aktionen von Mitarbeitern. Der Anteil der Gesundheitsorganisationen, die DLP-Richtlinien für GenAI einsetzen, ist im letzten Jahr von 31 Prozent auf 54 Prozent gestiegen.
Bereitstellung eines Echtzeit-Benutzer-Coachings, eines Tools, das Mitarbeiter vor der Ausführung riskanter Aktionen warnt. Wenn beispielsweise ein Mitarbeiter des Gesundheitswesens versucht, eine Datei in ChatGPT hochzuladen, die Patientennamen enthält, wird er gefragt, ob er fortfahren möchte. Aus einem anderen Bericht geht hervor, dass eine große Mehrheit der Mitarbeiter (73 Prozent) in allen Branchen nicht fortfährt, wenn sie eine entsprechende Aufforderung erhält.
Klinikum Magdeburg setzt auf generative KI
„Als Krankenhaus sind wir Teil der kritischen Infrastruktur. Damit tragen wir eine besondere Verantwortung für den Schutz sensibler Daten und die IT-Sicherheit. Cybersicherheit ist für uns nicht nur ein technisches Thema, sondern eine lebenswichtige Voraussetzung für den sicheren Klinikbetrieb. Wir haben moderne Cloud-Technologien und generative KI-Anwendungen bereits erfolgreich in viele unserer Prozesse und Arbeitsabläufe integriert, um die Effizienz und Qualität in der Versorgung zu steigern“, erläutert Tobias Hunger, Abteilungsleiter Informations- und Medizintechnik & Certified Healthcare CIO der Klinikum Magdeburg gGmbH.
Dieser technologische Fortschritt bringt jedoch gleichzeitig neue, komplexe Herausforderungen mit sich – insbesondere im Hinblick auf die Cybersicherheit, den Datenschutz und die stetige Anpassung an sich wandelnde regulatorische Anforderungen. Um diesen Anforderungen gerecht zu werden, verfolgen wir einen ganzheitlichen Ansatz, der technologische Innovation, rechtliche Compliance und IT-Sicherheit systematisch miteinander verbindet.“
Gianpietro Cutolo ergänzt: „Im Gesundheitswesen haben die rasche Einführung von GenAI-Apps und die zunehmende Nutzung von Cloud-Plattformen dem Schutz regulierter Gesundheitsdaten neue Dringlichkeit verliehen. Da GenAI immer stärker in klinische und betriebliche Arbeitsabläufe eingebettet wird, beschleunigen Organisationen die Einführung von Kontrollen wie DLP und App-Blockierungsrichtlinien, um Risiken zu verringern. Organisationen des Gesundheitswesens machen Fortschritte, aber ein kontinuierlicher Fokus auf sichere, für Unternehmen zugelassene Lösungen wird entscheidend sein, um sicherzustellen, dass die Daten in dieser sich entwickelnden Landschaft geschützt bleiben.“
Stand: 16.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die WIN-Verlag GmbH & Co. KG, Chiemgaustraße 148, 81549 München einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://kontakt.vogel.de/de/win abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Die in dem Bericht von Netskope dargestellten Informationen basieren auf anonymisierten Nutzungsdaten, die von der Netskope-One-Plattform gesammelt wurden und sich auf eine Untergruppe von Kunden im Gesundheitswesen mit vorheriger Genehmigung beziehen. Netskope erfüllt mit seiner One-Plattform die Anforderungen von Sicherheits- und Netzwerkteams, indem es Zugriff und kontextbasierte Sicherheit in Echtzeit bietet.