Effizienzsteigerung, Automatisierung von Prozessen und tiefere Einblicke in Daten: Die Einführung von KI-Tools in Unternehmen und Praxen verspricht eine Vielzahl an Vorteilen. Doch mit dem Einsatz der Technologie gehen auch erhebliche datenschutzrechtliche Risiken einher, die es zu beachten gilt.
(Bild: Sutthiphong/Adobe Stock)
Mit der Einbindung von künstlicher Intelligenz kommen zahlreiche Herausforderungen auf Unternehmen zu. Dabei ist selten eine so sensibel wie die Verarbeitung personenbezogener Daten – besonders in Zeiten wachsender Datenschutzanforderungen. Doch die datenschutzrechtlichen Hürden können gemeistert werden, wenn auf einige Punkte geachtet wird. Dann steht Unternehmen nichts mehr im Wege, um KI effizient und verantwortungsvoll einzusetzen.
Verarbeitung personenbezogener Daten: Eine Gratwanderung
KI-Tools, insbesondere in Bereichen wie Kundenservice, Personalmanagement oder medizinischer Diagnostik, basieren auf der Verarbeitung großer Mengen an Daten. Diese Daten beinhalten häufig auch personenbezogene Informationen, die nach der Datenschutz-Grundverordnung (DSGVO) einen besonders hohen Schutz genießen. Werden beispielsweise Patienteninformationen, Daten von Beschäftigen oder Kundendaten für das Training von Algorithmen verwendet, können unzulässige oder unzureichend gesicherte Datenverarbeitungen rasch zu Datenschutzverletzungen führen.
Ein zentrales Risiko besteht darin, dass KI-Algorithmen auf eine Vielzahl von Datensätzen zugreifen, die in ihrer Gesamtheit zur Rekonstruktion von personenbezogenen Informationen führen können. Selbst Daten, die zunächst anonym erscheinen, könnten durch KI-gestützte Mustererkennung wieder auf Einzelpersonen zurückgeführt werden. Diese „Re-Identifikation“ stellt eine erhebliche Gefahr dar, die strikte datenschutzrechtliche Anforderungen an die Datensicherheit und die Anonymisierung von Daten zur Folge hat. Man kann ihr aber entgegenwirken, wenn die die KI-Anwendung auf einem eigenen Server ohne Anbindung nach außen betreibt.
Transparenz und Kontrolle: Die Black-Box des maschinellen Lernens
Ein weiteres datenschutzrechtliches Risiko ist die mangelnde Transparenz in Bezug auf die Funktionsweise von KI-Systemen. Viele KI-Algorithmen, insbesondere jene, die auf maschinellem Lernen basieren, operieren als „Black Boxes“ – sie treffen Entscheidungen auf der Grundlage von Mustern, die nicht immer nachvollziehbar sind. Diese Intransparenz kann zu Problemen führen, wenn es darum geht, die Einhaltung der DSGVO zu gewährleisten, insbesondere das Recht auf Auskunft und das Recht auf Erklärung bei automatisierten Entscheidungen.
Wenn eine KI beispielsweise eine Entscheidung über die Kreditwürdigkeit eines Kunden oder die Behandlungsoption für einen Patienten trifft, ohne dass der Entscheidungsprozess für den Betroffenen verständlich ist, kann dies seine Rechte gemäß Artikel 22 der DSGVO verletzen. Die Datenschutz-Grundverordnung schreibt vor, dass bei automatisierten Entscheidungsprozessen die betroffene Person verständliche Informationen über die Logik und die Tragweite der Entscheidung erhalten muss. Hier müssen Unternehmen und Praxen sicherstellen, dass sie transparente Prozesse implementieren, die den Anforderungen der DSGVO entsprechen.
KI-Tools: Datenweitergabe und Drittparteien
Ein häufig unterschätztes Risiko im Zusammenhang mit der Einführung von KI-Tools ist die potenzielle Datenweitergabe an Drittparteien. Viele KI-Anbieter arbeiten mit Cloud-Diensten und nutzen externe Server zur Verarbeitung und Speicherung von Daten. In solchen Fällen kann die Weitergabe von personenbezogenen Daten an Dienstleister oder Subunternehmer erfolgen – möglicherweise auch an Anbieter in Ländern, die nicht denselben hohen Datenschutzstandards wie die EU folgen. Diese Drittstaatenübermittlungen erfordern besondere Vorsichtsmaßnahmen: so zum Beispiel den Abschluss von Standardvertragsklauseln oder die Anwendung anderer geeigneter Sicherheitsvorkehrungen, wie etwa die individuelle Prüfung der Datenschutzkonformität des Unternehmens und der angewandten Technik.
Unternehmen und Praxen müssen sich darüber im Klaren sein, wie und wo die Daten verarbeitet und gespeichert werden. Die DSGVO stellt klare Anforderungen an die Datenweitergabe und -speicherung in Drittländern, was ohne eine sorgfältige Überprüfung des Anbieters zu rechtlichen Problemen führen kann.
KI-Tools: Verantwortlichkeit und Haftung
Bei der Einführung von KI-Tools müssen Unternehmen auch die Frage der Verantwortlichkeit klären: Wer haftet im Falle einer Datenschutzverletzung, die durch den Einsatz einer KI-Lösung verursacht wird? Laut DSGVO ist der Verantwortliche für die Datenverarbeitung derjenige, der die Zwecke und Mittel der Verarbeitung festlegt. Wird jedoch ein externes KI-Tool verwendet, kann es schwierig sein, genau zu bestimmen, wer im Falle eines Fehlers die Verantwortung trägt.
Stand: 16.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die WIN-Verlag GmbH & Co. KG, Chiemgaustraße 148, 81549 München einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://kontakt.vogel.de/de/win abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Die Unterscheidung zwischen Auftragsverarbeitung und eigenständiger Verantwortlichkeit wird zunehmend komplexer, wenn es um KI geht. Unternehmen müssen also sicherstellen, dass sie klare vertragliche Vereinbarungen mit den Anbietern von KI-Tools treffen und die datenschutzrechtlichen Pflichten eindeutig regeln.
Die Einführung von KI in Unternehmen erfordert eine sorgfältige Datenschutzfolgenabschätzung (DSFA), insbesondere wenn die Datenverarbeitung mit hohem Risiko für die Rechte und Freiheiten der betroffenen Personen verbunden ist. Dies ist besonders relevant, wenn KI-Tools für die automatisierte Entscheidungsfindung oder Profiling verwendet werden, wie es etwa in der Personal- oder Marketingbranche der Fall ist. Unternehmen müssen die möglichen Risiken für den Datenschutz bewerten und entsprechende Schutzmaßnahmen ergreifen, um diese Risiken zu minimieren.
Die DSFA sollte alle potenziellen datenschutzrechtlichen Gefährdungen aufzeigen und Maßnahmen zur Risikominderung festlegen. Diese Abschätzung kann als Grundlage dienen, um die notwendigen Schutzvorkehrungen zu treffen und die rechtlichen Anforderungen der DSGVO zu erfüllen.
Um die Risiken bei der Einführung von KI-Tools zu minimieren, ist es entscheidend, dass Unternehmen und Praxen bereits im Vorfeld der Implementierung eine gründliche Analyse der datenschutzrechtlichen Anforderungen durchführen, transparente Prozesse schaffen und ihre Verantwortung in Bezug auf die Datenverarbeitung klar definieren. Nur so kann sichergestellt werden, dass der Einsatz von KI im Einklang mit den strengen Vorgaben der DSGVO steht und die Rechte der betroffenen Personen gewahrt bleiben.
Michael Ochsenfeld ist Rechtsanwalt, Experte für Datenschutz und Geschäftsführer der Ochsenfeld und Coll.