Jede Künstliche Intelligenz ist nur so gut wie ihre Datengrundlage. Das Problem: Die Zunahme und Verbreitung von Falschinformationen, die in das Trainingsmodell der unternehmenseigenen KI einfließen. Wie kann sichergestellt werden, dass Unternehmen dies für ihre KI-Lösungen vermeiden und nur auf Trusted Data setzen?
(Bild: Skórzewiak / Adobe Stock)
Künstliche Intelligenz boomt: Laut einer aktuellen Studie der Marktforscher von IDC werden bis zum Jahr 2027 die Investitionen in KI weltweit auf 143 Milliarden US-Dollar ansteigen. Grundlegende Sicherheitsfragen zum Thema Künstliche Intelligenz rücken so immer stärker in den Fokus. Vor allem im Zusammenspiel mit der Gefahr durch zirkulierende Fake News wird der Einsatz von KI, die auf externe Daten zugreift, von vielen mittlerweile kritisch gesehen. Für Unternehmen gilt es daher sicherzustellen, dass an nur auf vertrauenswürdige Daten zugreift – Stichwort Trusted Data.
Fake News versus Trusted Data
Die Verbreitung von KI-Tools, für deren Nutzung keine speziellen Kenntnisse mehr erforderlich sind, hat bereits heute zu einer explosionsartigen Zunahme von Falschinformationen und so genannten „synthetischen“ Inhalten (Klonen von falschen Stimmen oder Webseiten) geführt. Diese können etwa dazu genutzt werden, Menschen zu manipulieren, einzelne Wirtschaftszweige zu schädigen und Gesellschaften auf unzählige Arten zu spalten, wie der Global Risk Report 2024 des Weltwirtschaftsforums feststellte.
Dass KI dazu genutzt wird, gezielt Fake News zu verbreiten, ist keine neue Einsicht. Doch eine entscheidende Frage für die Zukunft ist: Was passiert, wenn Künstliche Intelligenz massenhaft mit Fake News gefüttert wird? Und wie können Unternehmen sicherstellen, dass ihre eigenen Datengrundlagen vertrauenswürdig und sicher bleiben?
Einschränkungen von Sicherheit und Wirtschaft
Die meisten Falschinformationen, die KI-Tools verbreiten, lassen sich darauf zurückführen, dass die Algorithmen nicht mit Daten ausreichender Qualität trainiert wurden. Ausreichende Qualität bedeutet, dass die Herkunft der Daten, die Aktualität, die Governance sowie deren Wahrhaftigkeit als gesichert gelten – also Trusted Data.
Was passiert, wenn Künstliche Intelligenz massenhaft mit Fake News gefüttert wird? Und wie können Unternehmen sicherstellen, dass ihre eigenen Datengrundlagen vertrauenswürdig und sicher bleiben?
Auf der anderen Seite kann generative Künstliche Intelligenz – wenn sie nur Zugriff auf abgekapselte Daten-Silos hat – keinen richtigen Kontext liefern. Das führt wiederum zu Sicherheits- und Compliance-Problemen, verfälscht mögliche Analysen und verändert die daraus gezogenen Schlüsse für die Unternehmensstrategie. Nur mit einer ausreichend gesicherten und gleichzeitig glaubwürdigen Datengrundlage lässt sich also auch ein dauerhaftes Vertrauen in KI-Tools und deren Daten aufbauen.
Falls KI-Modelle im privaten und öffentlichen Sektor hingegen nicht vor eingeschleusten falschen Daten geschützt werden, kann dies künftig übergreifende Konsequenzen für die Wirtschaft und die Sicherheit des Landes haben. So ist es vorstellbar, dass in naher Zukunft durch die Kombination verschiedener Hacking-Techniken Cyberkriminelle oder feindliche ausländische Akteure falsche geografische Informationen generieren und diese in Navigationssysteme einspeisen. Störungen in Bereichen wie Verkehr, Logistikketten und Verteidigungsanlagen sowie zahlreiche Notfälle wären die Folgen.
Nur mit einer ausreichend gesicherten und gleichzeitig glaubwürdigen Datengrundlage lässt sich auch ein dauerhaftes Vertrauen in KI-Tools und deren Daten aufbauen.
Human in the Loop
Aber wie stellen Unternehmen sicher, dass ihre Künstliche Intelligenz nicht mit falschen Daten gefüttert wird? Am Ende entscheidet eine Führungskraft wie der CDO oder sein Team mithilfe technischer Unterstützung, ob gewisse Daten geeignet für das Training einer KI sind oder nicht. Sie wissen: Entscheidend dabei ist, dass das Unternehmen die Kontrolle über die eigenen Daten behält. Deshalb sind Lösungen, bei denen Unternehmen ihre Daten-Modelle verwenden können, auch wenn es sich um Lösungen von Drittanbietern handelt, empfehlenswert.
Dieses Konzept wird auch als „Human in the Loop“ bezeichnet – also die menschliche Präsenz bei jedem Teilprozess. Algorithmen werden trotz des stetig voranschreitenden technischen Fortschritts immer noch von Menschen entwickelt. Genauso sollten Menschen auch eine zentrale Rolle bei der Auswahl und Analyse der Datenquellen spielen, von denen KI- und Machine-Learning-Algorithmen gespeist werden. Die menschliche Beteiligung an der Entwicklung von Künstlicher Intelligenz kann sicherstellen, dass von Anfang an vertrauenswürdige und qualitativ hochwertige Daten verwendet werden und die Eingaben auf den Algorithmus abgestimmt sind. So lassen sich genaue Informationen liefern und Verzerrungen vermeiden.
Ein weiteres Mittel, um die Verbreitung von Falschinformationen zu untersuchen und zu unterbinden, liegt in der Geolokalisierung. Informationen, die generiert werden, haben in der Regel eine räumliche Komponente. Die Herausforderung der Geolokalisierung besteht dementsprechend darin, herauszufinden, wo und in welchem Kontext diese Informationen generiert wurden. So können etwa Fake-News oder Bot-Farmen im Ausland aufgespürt werden.
Stand: 16.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die WIN-Verlag GmbH & Co. KG, Chiemgaustraße 148, 81549 München einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://kontakt.vogel.de/de/win abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Die menschliche Beteiligung an der Entwicklung von Künstlicher Intelligenz kann sicherstellen, dass von Anfang an vertrauenswürdige und qualitativ hochwertige Daten verwendet werden.
Trusted Data schafft Vertrauen in KI
Die Basis für erfolgreiche Künstliche Intelligenz sind also die zugrunde liegenden Daten. Hier spielen Quelle, Governance, Qualität sowie Aktualität und Verfügbarkeit eine Schlüsselrolle. Generative KI kann keinen Kontext liefern, wenn sie nur auf abgekapselte Daten in siloartigen Strukturen zugreift. Dann drohen Sicherheits- sowie Compliance-Probleme und Lücken durch fehlenden Kontext.
Unternehmen müssen also sicherstellen, dass sie die richtigen Daten nutzen. Die Schaffung von vertrauenswürdigen und sicheren Datenquellen wird damit einen Vorteil bei der Erzeugung von zuverlässigen Ergebnissen mit generativen KI-Anwendungen haben und diesen Unternehmen auf Dauer einen Wettbewerbsvorteil bieten.
Benjamin Bohne ist Group Vice President Sales CEMEA bei Cloudera.