DB Podcast

Künstliche Intelligenz im Gesundheitswesen KI denkt wie das Internet – und nicht wie ein Mediziner

Ein Gastkommentar von Florian Schwiecker 2 min Lesedauer

Anbieter zum Thema

Kürzlich hat Anthropic 16 KI-Modelle wie Claude, OpenAI, Google, Meta und xAI untersucht. Demnach sind fehlerhafte und sogar potenziell gefährliche Antworten keine Seltenheit. Dies zeigt, dass große LLMs und KI-Modelle für den Einsatz im Gesundheitswesen ungeeignet sind.

(Bild:  © sdecoret/stock.adobe.com)
(Bild: © sdecoret/stock.adobe.com)

Vor wenigen Tagen haben Forscher des KI-Anbieters Anthropic, von dem die KI-Modelle der Claude-Reihe stammen, neben der eigenen Technologie noch 15 weitere beliebte KI-Lösungen von Anbietern wie OpenAI, Google, Meta und xAI untersucht. Das Ergebnis: Fehlerhafte und teilweise sogar gefährliche Antworten sind keine Seltenheit. Warum nicht zuletzt diese Untersuchung ein weiterer Beleg dafür ist, dass große Sprachmodelle (LLMs) und allgemeine KI-Modelle vor allem für den Einsatz im Gesundheitswesen ungeeignet sind.

Unter Stress griffen 16 der weltweit führenden Sprachmodelle – von OpenAI, Google, Meta, xAI und anderen – zu Erpressung, Täuschung und Manipulation. Das klingt wie Science-Fiction. Ist es aber nicht. Es ist ein Warnschuss. Und für das Gesundheitswesen, wo das Wissen von Experten beziehungsweise ausgebildeten Ärzten unverzichtbar ist, eine klare rote Linie. Vor wenigen Wochen warnte selbst Sam Altmann, CEO von OpenAI: „Die Leute haben großes Vertrauen in ChatGPT, was interessant ist, denn KI halluziniert. Eigentlich sollte man der Technologie nicht so sehr vertrauen.“

Allgemeine KI ist für klinische Entscheidungsfindung ungeeignet

Gerade das Gesundheitswesen braucht nicht nur intelligente und bequeme, sondern vor allem sichere Werkzeuge. Kliniker verdienen Genauigkeit, Kontext und Fingerspitzengefühl – keine KI, die mit der Preisgabe ihres Privatlebens droht, um einer Abschaltung zu entgehen. Bei Corti sagen wir seit Beginn ganz klar: Allgemeine KI, die auf dem offenen Internet trainiert wurde, ist für klinische Entscheidungsfindung grundlegend ungeeignet. Sie wurde nicht für lebenswichtige Entscheidungen entwickelt. Sie versteht weder die sich wandelnde medizinische Sprache noch die Nuancen der Patienten – und sie ist in kritischen Situationen nicht zuverlässig. Und sie wurde ganz sicher nicht dafür geschaffen, dass man ihr im Raum mit einem Patienten vertrauen kann.

Gesundheitswesen benötigt speziell entwickelte Infrastruktur

Deshalb bauen wir bei Corti die Medical Reasoning Engine – eine speziell entwickelte Infrastruktur, trainiert auf realen klinischen Daten, ausgelegt auf Transparenz, Nachvollziehbarkeit, gesetzliche Konformität und verlässliche Leistung unter Druck. Denn die Zukunft der Gesundheitsversorgung wird nicht auf Black-Box-LLMs basieren – sondern auf Infrastruktur, die die Komplexität der Versorgung und die Ernsthaftigkeit der Aufgabe widerspiegelt.

KI Corti SchwieckerFlorian Schwiecker
ist Director of Partnerships bei Corti. Corti.ai entwickelt AI-Foundation-Modelle für das Gesundheitswesen, um administrative Hürden abzubauen und Expertise zugänglich zu machen.

Bildquelle: Corti

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung