DB Podcast

KI und Datenschutz Gesundheitsdaten: Mitarbeiter nutzen private Cloud-Konten

Verantwortliche:r Redakteur:in: Stefan Girschner 4 min Lesedauer

Anbieter zum Thema

Laut dem neuen Research Report von Netskope Threat Labs setzt sich der Einsatz von generativen KI-Anwendungen im Gesundheitswesen immer mehr durch und zieht Verstöße gegen die Datenschutzrichtlinien nach sich. Zudem versuchen Mitarbeiter, Gesundheitsdaten an nicht genehmigten Orten im Internet abzuspeichern.

(Bild:  © RomixImage/stock.adobe.com)
(Bild: © RomixImage/stock.adobe.com)

Netskope Threat Labs hat jetzt seinen neuen Research Report veröffentlicht, der die Bedrohungslage im Gesundheitswesen analysiert. Aus dem aktuellen Bericht geht hervor, dass Beschäftigte im Gesundheitswesen regelmäßig versuchen, sensible Gesundheitsdaten an nicht genehmigte Orte im Internet oder in der Cloud hochzuladen. Zudem setzt sich der Einsatz von generativen KI-Anwendungen am Arbeitsplatz immer mehr durch – derzeit werden ChatGPT und Google Gemini am meisten eingesetzt. Entsprechend häufig zieht ihre Nutzung Verstöße gegen die Datenschutzrichtlinien nach sich.

Verstöße gegen Datenrichtlinien betrifft Gesundheitsdaten 

81 Prozent aller Verstöße gegen Datenrichtlinien, die in Organisationen des Gesundheitswesens in den letzten zwölf Monaten auftraten, betrafen regulierte Gesundheitsdaten, das heißt Daten, die durch lokale, nationale oder internationale Vorschriften geschützt sind und sensible medizinische sowie klinische Informationen umfassen. Passwörter und Schlüssel, Quellcode oder geistiges Eigentum waren ebenfalls betroffen (insgesamt 19 Prozent), und ein Großteil dieser Verstöße ging von Personen aus, die sensible Daten auf persönliche Microsoft OneDrive- oder Google Drive-Konten hochgeladen hatten.

Generative KI wird im Gesundheitswesen allgegenwärtig

GenAI ist in der Branche allgegenwärtig geworden, und entsprechende Anwendungen werden nun in 88 Prozent der Gesundheitsorganisationen eingesetzt. Ein großer Teil der Verstöße gegen Datenrichtlinien tritt nun im Zusammenhang mit der Nutzung von GenAI durch Beschäftigte im Gesundheitswesen auf: 44 Prozent betreffen regulierte Gesundheitsdaten, 29 Prozent Quellcode, 25 Prozent geistiges Eigentum und zwei Prozent Passwörter und Schlüssel. 

Zusätzliche Risiken von Datenlecks können von Anwendungen ausgehen, die Nutzerdaten für Schulungen nutzen oder GenAI-Funktionen enthalten, die in 96 Prozent beziehungsweise 98 Prozent der Gesundheitsorganisationen eingesetzt werden.Zwei von drei GenAI-Nutzern im Gesundheitswesen verwenden und senden bei der Arbeit sensible Gesundheitsdaten an ihre persönlichen GenAI-Konten. Dieses Verhalten erschwert den Sicherheitsteams den Überblick über die GenAI-bezogenen Aktivitäten ihrer Mitarbeiter und – ohne angemessene Datenschutzrechtliche Leitplanken – ihre Fähigkeit, Datenlecks zu erkennen und zu verhindern.

Vorteile von GenAI mit Datenschutzmaßnahmen verbinden

Gianpietro Cutolo, Cloud Threat Researcher bei Netskope Threat Lab, kommentiert die Ergebnisse des Berichts: „GenAI-Anwendungen bieten innovative Lösungen, führen aber auch neue Vektoren für potenzielle Datenschutzverletzungen ein, insbesondere in Umgebungen mit hohem Druck und hohen Risiken wie dem Gesundheitswesen, wo Mitarbeiter und Ärzte oft schnell und flexibel arbeiten müssen. Organisationen des Gesundheitswesens müssen die Vorteile von GenAI mit dem Einsatz von Sicherheits- und Datenschutzmaßnahmen in Einklang bringen, um diese Risiken zu minimieren.”Folgende Entwicklungen sind beim Schutz der Gesundheitsdaten zu berücksichtigen:

  • Einsatz von vorab genehmigten GenAI-Anwendungen in der Belegschaft, um die Nutzung von GenAI in Anwendungen zu zentralisieren, damit besser zu überwachen sowie zu sichern und „Schatten-KI“ sowie die Nutzung von persönlichen GenAI-Konten zu reduzieren. Diese ist zwar unter den Beschäftigten im Gesundheitswesen immer noch stark verbreitet, aber im letzten Jahr bereits von 87 Prozent auf 71 Prozent zurückgegangen, da die Unternehmen zunehmend auf von ihnen genehmigte GenAI-Lösungen umsteigen.
  • GenAI-Anwendungen werden lokal und nicht in der Cloud betrieben, sodass Mitarbeiter keine Daten extern teilen müssen, um diese Tools zu nutzen. 43 Prozent der Gesundheitsorganisationen setzen GenAI bereits auf ihren eigenen Systemen ein.
  • Einsatz strenger Data Loss Prevention (DLP)-Richtlinien zur Überwachung und Kontrolle des Zugriffs auf GenAI-Anwendungen sowie zur Festlegung der Art von Daten, die mit ihnen geteilt werden können. Dies bietet eine zusätzliche Sicherheitsebene für eventuelle riskante Aktionen von Mitarbeitern. Der Anteil der Gesundheitsorganisationen, die DLP-Richtlinien für GenAI einsetzen, ist im letzten Jahr von 31 Prozent auf 54 Prozent gestiegen.
  • Bereitstellung eines Echtzeit-Benutzer-Coachings, eines Tools, das Mitarbeiter vor der Ausführung riskanter Aktionen warnt. Wenn beispielsweise ein Mitarbeiter des Gesundheitswesens versucht, eine Datei in ChatGPT hochzuladen, die Patientennamen enthält, wird er gefragt, ob er fortfahren möchte. Aus einem anderen Bericht geht hervor, dass eine große Mehrheit der Mitarbeiter (73 Prozent) in allen Branchen nicht fortfährt, wenn sie eine entsprechende Aufforderung erhält.

Klinikum Magdeburg setzt auf generative KI

„Als Krankenhaus sind wir Teil der kritischen Infrastruktur. Damit tragen wir eine besondere Verantwortung für den Schutz sensibler Daten und die IT-Sicherheit. Cybersicherheit ist für uns nicht nur ein technisches Thema, sondern eine lebenswichtige Voraussetzung für den sicheren Klinikbetrieb. Wir haben moderne Cloud-Technologien und generative KI-Anwendungen bereits erfolgreich in viele unserer Prozesse und Arbeitsabläufe integriert, um die Effizienz und Qualität in der Versorgung zu steigern“, erläutert Tobias Hunger, Abteilungsleiter Informations- und Medizintechnik & Certified Healthcare CIO der Klinikum Magdeburg gGmbH.  

Dieser technologische Fortschritt bringt jedoch gleichzeitig neue, komplexe Herausforderungen mit sich – insbesondere im Hinblick auf die Cybersicherheit, den Datenschutz und die stetige Anpassung an sich wandelnde regulatorische Anforderungen. Um diesen Anforderungen gerecht zu werden, verfolgen wir einen ganzheitlichen Ansatz, der technologische Innovation, rechtliche Compliance und IT-Sicherheit systematisch miteinander verbindet.“ 

Gianpietro Cutolo ergänzt: „Im Gesundheitswesen haben die rasche Einführung von GenAI-Apps und die zunehmende Nutzung von Cloud-Plattformen dem Schutz regulierter Gesundheitsdaten neue Dringlichkeit verliehen. Da GenAI immer stärker in klinische und betriebliche Arbeitsabläufe eingebettet wird, beschleunigen Organisationen die Einführung von Kontrollen wie DLP und App-Blockierungsrichtlinien, um Risiken zu verringern. Organisationen des Gesundheitswesens machen Fortschritte, aber ein kontinuierlicher Fokus auf sichere, für Unternehmen zugelassene Lösungen wird entscheidend sein, um sicherzustellen, dass die Daten in dieser sich entwickelnden Landschaft geschützt bleiben.“

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Die in dem Bericht von Netskope dargestellten Informationen basieren auf anonymisierten Nutzungsdaten, die von der Netskope-One-Plattform gesammelt wurden und sich auf eine Untergruppe von Kunden im Gesundheitswesen mit vorheriger Genehmigung beziehen. Netskope erfüllt mit seiner One-Plattform die Anforderungen von Sicherheits- und Netzwerkteams, indem es Zugriff und kontextbasierte Sicherheit in Echtzeit bietet.