Laut einer Umfrage des TÜV-Verband sind 75 Prozent der Nutzer von KI-Tools mit den Ergebnissen zufrieden, aber jeder dritte Nutzer findet Fehler bei ChatGPT & Co. Dies erfordert einen kritischen Umgang mit generativer KI.
(Bild: Supatman/Adobe Stock)
Generative künstliche Intelligenz wie ChatGPT, Claude, LeChat oder DeepSeek wird immer beliebter. Viele Nutzer sind jedoch kritisch gegenüber den Ergebnissen. Zwar geben 75 Prozent der Nutzer an, mit den Ergebnissen der KI-Tools zufrieden zu sein, jedoch überprüfen knapp vier von fünf (78 Prozent) die KI-Inhalte durch eigene Recherchen. Das geht aus einer repräsentativen Forsa-Umfrage im Auftrag des TÜV-Verbands unter 1.001 Personen ab 16 Jahren hervor.
Um sich abzusichern, fragen 44 Prozent der Nutzer KI-Tools explizit nach Quellenangaben. Des Weiteren empfinden 48 Prozent die KI-Antworten als oberflächlich und 43 Prozent kritisieren mangelnde Konkretheit. Jeder dritte KI-Nutzer (31 Prozent) gibt an, dass die Anwendungen häufig fehlerhafte oder falsche Informationen liefern.
KI-Tools sind im Erstaufschlag alles andere als perfekt
Patrick Gilroy, Referent für Künstliche Intelligenz und Bildung beim TÜV-Verband, erklärt: „Die Ergebnisse generativer KI-Tools sind in der Regel als Erstaufschlag hilfreich aber alles andere als perfekt. KI-Nutzer sollten die Antworten der KI kritisch hinterfragen, Quellen checken und mit eigenen Erkenntnissen verknüpfen, um optimale Ergebnisse zu erzielen.“
Nur so könnten Fehler vermieden und die Potenziale der Technologie voll ausgeschöpft werden. „Im beruflichen Kontext zählt der kompetente und reflektierte Umgang mit KI-generierten Inhalten zu den wichtigsten Future Skills“, ist Gilroy überzeugt. Laut den Ergebnissen der KI-Umfrage des TÜV-Verbands wird generative KI derzeit von 53 Prozent der Bundesbürger genutzt.
Herausforderungen generativer KI-Modelle
Die Qualität der KI-Ergebnisse hängt maßgeblich von den zugrundeliegenden Trainingsdaten ab, die lücken- oder fehlerhaft sein können. Die Datenbasis ist aber für die Nutzenden nur selten transparent. Darüber hinaus können algorithmische Verzerrungen oder gezielte Manipulationen durch politische oder wirtschaftliche Interessen bereits in der Entwicklung die Ergebnisse beeinflussen. So liefert beispielsweise das chinesische KI-Modell DeepSeek keine Antworten zu oppositionellen Bewegungen in China oder dem Tiananmen-Massaker. Auch das Grok-Modell von Elon Musks xAI zensierte zeitweise kritische Antworten des eigenen Modells, welche ihn und Donald Trump in ein schlechtes Licht rückten.
Die Art der Programmierung und das Design der Modelle spielen eine Rolle, etwa wenn Systeme bestimmte Inhalte und Quellen priorisieren oder filtern. „Grundsätzlich sind inhaltliche Leitplanken für die Ausgaben leistungsstarker Allzweck-KI-Modelle sinnvoll und wünschenswert, um beispielweise diskriminierende Antworten oder Anleitungen zum Bau von Bomben zu verhindern“, sagt Gilroy. „Die Frage ist, wer diese Regeln nach welchen Vorgaben festlegt.“
KI-Tools wegen Halluzinationen in der Kritik
KI-Tools wie ChatGPT stehen auch in der Kritik, weil sie immer wieder erfundene („halluzinierte“) Informationen ausgeben oder sogar Quellen erfinden, anstatt Nichtwissen einzugestehen. Anstatt Lücken oder mögliche Fehler kenntlich zu machen, „dichtet“ die KI zunächst überzeugend klingende Antworten hinzu. Mittlerweise bieten viele KI-Anbieter verbesserte „Deep Research“-Funktionen, die detailliertere Analyseaufgaben mitsamt Internetrecherchen ermöglichen.
Patrick Gilroy ist Referent für Künstliche Intelligenz und Bildung beim TÜV-Verband e.V.
(Bild: Tobias Koch/TÜV-Verband)
„Nutzer sollten sich bewusst machen, dass KI-Tools nicht neutral sind, sondern von den verwendeten Trainingsdaten, den zugrundeliegenden Algorithmen und der Zusammensetzung der Entwicklungsteams beeinflusst werden“, sagt Gilroy. „Damit KI langfristig Vertrauen gewinnt, müssen Transparenz und Verlässlichkeit der Systeme weiter verbessert werden. Und auf Seiten der Nutzer darf zunehmende Vertrautheit mit generativer Ko-Intelligenz nicht das eigene kritische Denken ausschalten.“ Die bald erwarteten Leitlinien für Allzweck-KI (GPAI Codes of Practice) des europäischen KI-Büros, die im Rahmen des EU AI Acts formuliert werden, könnten hier einen Fortschritt bringen.
Damit künstliche Intelligenz langfristig Vertrauen gewinnt, müssen Transparenz und Verlässlichkeit der Systeme weiter verbessert werden.
Patrick Gilroy, TÜV-Verband
Sechs Tipps für den sicheren Umgang mit generativer KI
Um generative KI-Tools sinnvoll und sicher einzusetzen, empfiehlt der TÜV-Verband folgende Maßnahmen:
Quellen prüfen: Inhalte mit verlässlichen Nachrichtenportalen, wissenschaftlichen Publikationen oder offiziellen Dokumenten abgleichen. Denn KI-Chatbots durchsuchen je nach Anbieter und Modell teils keine externen Quellen in Echtzeit – sie verarbeitet bestehende Daten aus ihrem Training oder vordefinierten Datenquellen.
Faktencheck nutzen: Spezialisierte Websites wie FactCheck.org oder Snopes zur Überprüfung heranziehen. Auch eine herkömmliche Internetsuche kann helfen, Falschinformationen aufzudecken und Fakten zu verifizieren.
Quellen vergleichen: Informationen aus unabhängigen Quellen gegeneinander abwägen, bei Unsicherheiten Expert:innen befragen. Ein breiter Quellensatz verringert das Risiko einseitiger oder verzerrter Darstellungen.
Aktualität sicherstellen: Veröffentlichungsdatum und Relevanz der Informationen überprüfen. Veraltete Daten können zu falschen Schlussfolgerungen führen.
Logik und Konsistenz prüfen: Widersprüche oder nicht plausible Aussagen erkennen. Fehlerhafte oder unschlüssige Inhalte deuten darauf hin, dass eine Information nicht zuverlässig ist.
Bias hinterfragen: Entstehung, Perspektiven und mögliche Verzerrungen der KI-generierten Inhalte bedenken. KI-Chatbots spiegeln oft vorhandene Vorurteile aus Trainingsdaten wider.
Der TÜV-Verband engagiert sich für den Auf- und Ausbau von KI-Kompetenzen, unter anderem als Partner der „AI Skilling Alliance Deutschland“. Die Allianz bietet kostenlose IT-Fitness - Künstliche Intelligenz sowie weiterführende KI-Seminare bei den TÜV-Akademien
Stand: 16.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die WIN-Verlag GmbH & Co. KG, Chiemgaustraße 148, 81549 München einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://kontakt.vogel.de/de/win abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Zur Methodik der Studie: Grundlage der Angaben in der KI-Studie ist eine repräsentative Umfrage von Forsa im Auftrag des TÜV-Verbands unter 1.001 Personen zwischen 16 und 75 Jahren. Die Umfrage wurde im Oktober 2024 durchgeführt. Die Frage lautete: „Inwieweit stimmen Sie den folgenden Aussagen über die Qualität der Ergebnisse von generativer KI wie Chat GPT zu?“. Der TÜV-Verband e.V. vertritt die politischen Interessen der TÜV-Prüforganisationen. Der Verband setzt sich für die technische und digitale Sicherheit sowie die Nachhaltigkeit von Fahrzeugen, Produkten, Anlagen und Dienstleistungen ein. Grundlage dafür sind allgemeingültige Standards, unabhängige Prüfungen und qualifizierte Weiterbildung.