DB Podcast

Künstliche Intelligenz Medizinische Diagnosen: Viele Menschen misstrauen dem „Doktor KI“

Verantwortliche:r Redakteur:in: Konstantin Pfliegl 2 min Lesedauer

Anbieter zum Thema

Früher befragte man Doktor Google, um herauszufinden, was Symptome bedeuten könnten – heute wendet man sich für medizinische Diagnosen an ChatGPT. Dabei ist das Vertrauen in Künstliche Intelligenz gering.

(Bild:  ImageFlow / Adobe Stock)
(Bild: ImageFlow / Adobe Stock)

Wer kennt das nicht: Es zwickt irgendwo im Körper – aber nicht so stark, dass man das Gefühl hat gleich zum Arzt zu müssen. Also wirft man den Browser an und befragt Doktor Google, was die Symptome bedeuten könnten. Mittlerweile hat für medizinische Diagnosen oftmals Doktor ChatGPT den Google-Arzt abgelöst.

Das Problem dabei: Mediziner beschweren sich immer öfters über Patienten, die mit fertigen Diagnosen aus dem Internet in die Sprechzimmer kommen und sich nur mit Mühe davon überzeugen lassen, dass sie nicht schwer erkrankt sind. Dabei ist das Vertrauen in die medizinische Kompetenz einer Künstlichen Intelligenz (KI) längst nicht so ausgeprägt, wie es den Anschein hat. Zu diesem Ergebnis kommt eine Studie der Würzburger Julius-Maximilians-Universität (JMU), die in der Fachzeitschrift Nature Medicine veröffentlicht wurde.

Medizinische Diagnosen: Wenig Vertrauen in KI

Die Studie zeigt, dass Menschen medizinische Ratschläge als weniger zuverlässig und empathisch beurteilen, wann immer eine Künstliche Intelligenz daran beteiligt war. Das war selbst dann der Fall, wenn die Studienteilnehmer annehmen konnten, dass ein Arzt unter Zuhilfenahme einer KI diese Empfehlungen erstellt hatte.

Konsequenterweise waren die Befragten bei KI-unterstützten Entscheidungen auch in geringerem Maße dazu bereit, diesen zu folgen – verglichen mit Ratschlägen, die ausschließlich auf ärztlicher Expertise basierten.

Verständliche Künstliche Intelligenz

Wenig Unterschiede gibt es jedoch, wenn es um die Verständlichkeit von Diagnosen geht. Mehr als 2.000 Studienteilnehmer erhielten im Rahmen des Experiments identische medizinische Ratschläge und sollten diese auf ihre Verlässlichkeit, Verständlichkeit und Empathie bewerten. 

Der einzige Unterschied: Während eine Gruppe die Information erhielt, diese Ratschläge stammten von einem Arzt, hieß es für die zweite Gruppe, ein KI-gestützter Chatbot sei dafür verantwortlich. Die dritte Gruppe wurde in dem Glauben gelassen, ein Arzt habe die Empfehlung unter Zuhilfenahme einer KI erstellt.

Die Ergebnisse sind eindeutig: Menschen vertrauen medizinischen Empfehlungen weniger, wenn sie vermuten, dass Künstliche Intelligenz beteiligt ist. Das gilt auch dann, wenn sie glauben, dass ärztliches Personal daran mitgewirkt hat. Auch in der Kategorie „Empathie“ schneidet der ärztliche Rat besser ab als die beiden KI-Varianten. Einzig unter dem Aspekt der Verständlichkeit zeigen sich kaum Unterschiede zwischen den drei Gruppen. Anscheinend haben Menschen unter diesem Gesichtspunkt keine Vorbehalte gegen die Technik.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung