DB Podcast

Datenmanagement Generative KI in der Datenarbeit: Drei Prognosen für 2025

Ein Gastbeitrag von Michael Berthold 4 min Lesedauer

Anbieter zum Thema

Generative KI eröffnet enorme Potenziale für mehr Effizienz in der Datenarbeit. Folgender Betrag zeigt auf, wie Unternehmen 2025 die richtige Balance zwischen Nutzen und Risiko finden können.

(Bild: RomixImage/Adobe Stock)
(Bild: RomixImage/Adobe Stock)

Besonders bei der Arbeit mit Daten bietet KI vielfältige Möglichkeiten. Durch den Einsatz bei Routineaufgaben und repetitiven Prozessen lässt sich wertvolle Zeit sparen, die für komplexere und kreativere Aufgaben genutzt werden kann. Michael Berthold, Gründer und CEO des Open-Source-Unternehmens KNIME, das sich auf Datenanalyse und die sichere Nutzung von KI spezialisiert hat, erläutert drei zentrale Aspekte, die 2025 für Unternehmen beim Einsatz von KI in der Datenarbeit besonders relevant sein werden.

Generative KI verantwortungsvoll regulieren

2025 ist das Jahr, in dem sich Unternehmen darauf konzentrieren werden, den Einsatz von KI unter Kontrolle zu bekommen – Stichwort: KI-Governance. Im vergangenen Jahr haben einige große Firmen kategorisch verboten, generative KI zu nutzen, da ihnen die Risiken zu unabsehbar waren. Jetzt, da Unternehmen erkannt haben, wie wertvoll der Einsatz von Künstlicher Intelligenz und Machine Learning in der täglichen Datenarbeit sein kann, liegt der Fokus auf einer sinnvollen Regulierung dieser Technologien, anstatt sie grundsätzlich zu verbieten. Es zeigt sich also immer mehr, dass die Kontrolle der Kosten, die Qualität der verwendeten Daten und der geregelte Zugriff entscheidend sind, um das volle Potenzial der Technologie auszuschöpfen.

Visual Workflows erhöht Transparenz und Nachvollziehbarkeit der Datenprozesse.(Bild:  Knime)
Visual Workflows erhöht Transparenz und Nachvollziehbarkeit der Datenprozesse.
(Bild: Knime)

Dabei spielen sowohl der Datenschutz als auch die Modell-Governance eine zentrale Rolle. Die Einführung von Tools für generative KI erfordert klare Governance-Vorgaben, um sicherzustellen, dass der Einsatz der Modelle ordnungsgemäß überwacht und überprüft werden kann. Ohne klare Richtlinien kann die Nutzung von KI-Tools dazu führen, dass interne Daten in der Cloud landen, dass falsche Resultate zu katastrophalen Entscheidungen führen, oder schlicht, dass die Nutzungskosten explodieren. Zugriffskontrollen sollten regeln, dass nur autorisiertes Personal Zugang zu bestimmten Datensätzen hat, und dass dieser Zugang auf der passenden Ebene beschränkt wird.

Moderne Datenanalyse-Plattformen ermöglichen es zudem, Zugriffsrechte für KI-Tools zu verwalten. Administratoren können vertrauenswürdige Proxy-Anbieter festlegen. So wird sichergestellt, dass nur geprüfte und zugelassene KI-Tools verwendet werden. Zudem können sie Anonymisierungs- und Validierungs-Workflows einrichten, die verhindern, dass personenbezogene Daten oder andere vertrauliche Informationen unbefugt an externe Server übermittelt werden.

KI kennt Wahrscheinlichkeiten – nicht die Wahrheit

Die Menschen werden auch immer wieder an die Konsequenzen erinnert, die sich ergeben, wenn KI nicht weiß, wovon sie spricht – oder wie Stefan Wrobel es ausdrückte: „KI macht das Wahrscheinliche, nicht das Wahre, aber das macht sie gut.“ Für einige Anwendungen ist das ausreichend, aber für viele ist es ein grundlegendes Problem. Wenn es zum Beispiel um eine vierteljährliche Steuererklärung oder kritische Prognosen geht, von denen der Erfolg des Unternehmens abhängt, sind die Risiken hoch.

Die Frage, wie man KI in der Datenarbeit zuverlässig macht, wird daher ein zentraler Schwerpunkt im Jahr 2025 sein. Workflows können den wichtigen Validierungsaspekt unterstützen. Wenn beispielsweise ein KI-System eingesetzt wird, das Erkenntnisse direkt aus Daten ableitet, sollte nachvollziehbar sein, wie diese Erkenntnisse zustande gekommen sind, statt einem Black-Box-KI-System zu vertrauen, das anfällig für Halluzinationen ist. Mithilfe von Workflows kann der gesamte Argumentationsprozess der KI aufgezeigt werden. Zudem kann man den Workflow dazu nutzen, um zu erklären und zu validieren, wie es zu den jeweiligen Schlussfolgerungen gekommen ist.

Generative KI ist nicht die beste Lösung für alles

Und schließlich wird 2025 das Jahr sein, in dem generative KI nicht mehr ganz so überbeansprucht wird. Wie es so schön heißt: „Für jemanden, der einen Hammer in der Hand hält, sieht alles wie ein Nagel aus.“ Aber viele dieser KI-Anwendungen lassen sich auch mit konventionellen Methoden abdecken und selbst dort, wo KI in der Datenarbeit Sinn macht, lässt sich oft noch schwer der Mehrwert in Zahlen messen. Firmen werden aufpassen müssen, dass sie ihre Anstrengungen in diesen Bereichen nicht zu früh einstellen.

Nachdem wir die Grenzen und Kosten der KI mittlerweile besser verstehen, werden Viele auch wieder stärker auf klassische Analyse- und Textanalysemethoden zurückgreifen, die preisgünstiger, leichter zu kontrollieren und zuverlässiger sind. Das wird, damit es nicht ganz so offensichtlich ist und weiterhin modern klingt, zunehmend unter dem neuen Begriff „Predictive AI“ zusammengefasst. Die leistungsstärksten und innovativsten Ansätze werden diese klassischen Methoden mit neuen KI-Techniken kombinieren, um die Vorteile aller zur Verfügung stehenden Möglichkeiten optimal zu nutzen.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Generative KIMichael Berthold
ist Informatiker, Unternehmer und Autor. Er ist Mitbegründer von Knime und seit 2017 als CEO tätig. Berthold ist Autor von über 250 Publikationen und konzentriert sich in seiner Forschung auf den Einsatz von Methoden des maschinellen Lernens für die interaktive Analyse großer Informationsspeicher. Er ist Herausgeber und Mitautor zahlreicher Lehrbücher und Fellow des Institute of Electrical and Electronics Engineers (IEEE).

Bildquelle: Knime