Eine neue Umfrage von Applause zeigt, dass die größte Unsicherheit in der Nutzung von künstlicher Intelligenz die Voreingenommenheit der Technologie ist. 90 Prozent der Befragten befürchten, dass dies die Genauigkeit der Ergebnisse beeinflusst. Und 67 Prozent glauben, dass generative KI den Datenschutz verletzen kann.
(Quelle: stnazkul - adobe.stock.com)
Applause hat über 3.000 Fachleute weltweit zu ihrer Nutzung und ihren Bedenken von Nutzung generativer KI am Arbeitsplatz befragt.
90 Prozent der Teilnehmer befürchten, dass die Voreingenommenheit der KI die Genauigkeit der Antworten beeinträchtigen könnte.
67 Prozent glauben, dass generative KI-Dienste den Datenschutz verletzen.
Applause, Anbieter für Software-Testing und digitale Qualitätssicherung, hat die Ergebnisse einer Umfrage zum Thema generative KI veröffentlicht. Die im August 2023 durchgeführte Umfrage sammelte die Erkenntnisse von mehr als 3.100 Fachleuten (davon 600 aus Europa) für digitale Qualitätstests aus der ganzen Welt über ihre Erfahrungen mit Diensten, die generative KI enthalten. Die Mehrheit der Nutzenden ist besorgt über Verzerrungen, Urheberrechtsprobleme und Halluzinationen bei von KI generierten Inhalten.
Bereits im März 2023 veröffentlichte Applause eine Umfrage, die die Stimmung der Nutzer bei Sprachanwendungen, Chatbots und ChatGPT untersuchte. Wie in zahlreichen aktuellen Berichten zu lesen war, ist Voreingenommenheit (auch Bias genannt) nach wie vor ein Problem bei KI-gestützten Technologien. Die Experten wurden gefragt, inwieweit sie sich Sorgen über die Voreingenommenheit bei KI-generierten Inhalten machen:
90 Prozent äußerten sich besorgt, wobei 25 Prozent „sehr besorgt“ darüber waren, dass sich Voreingenommenheit auf die Genauigkeit, den Ton oder die Relevanz der erstellten Inhalte auswirken könnte. Dies ist ein Anstieg um 24 Prozent gegenüber der Umfrage vom März 2023. 47 Prozent gaben an, dass sie Antworten oder Inhalte erlebt haben, die sie für voreingenommen hielten. 18 Prozent der Befragten haben Antworten erhalten, die sie als beleidigend empfanden.
Herausforderungen durch generative KI-Dienste
Generative KI am Arbeitsplatz: Trotz der zahlreichen Bedenken gaben mehr als die Hälfte (59 Prozent) der Befragten an, dass ihr Arbeitsplatz die Nutzung von generativen KI-Diensten unterstützt. 23 Prozent dieser Gruppe gaben an, dass es Einschränkungen für die Nutzung der Technologie gibt. Von den übrigen Befragten gaben 19 Prozent an, dass ihr Arbeitsplatz den Einsatz dieser Technologie nicht unterstützt. 21 Prozent der Befragten waren sich nicht sicher.
Fragen des Datenschutzes: 69 Prozent glauben, dass es „sehr“ (35 Prozent) oder „äußerst“ (34 Prozent) wichtig ist, bei der Entwicklung neuer KI-Technologien den Datenschutz zu berücksichtigen. 67 Prozent sind der Meinung, dass die meisten generativen KI-Dienste derzeit gegen den Datenschutz verstoßen.
Fragen des Urheberrechts: 91 Prozent äußerten die Befürchtung, dass mit generativer KI produzierte Inhalte gegen das Urheberrecht oder den Schutz des geistigen Eigentums verstoßen könnten. Ein Viertel dieser Gruppe war „äußerst besorgt“ über eine mögliche Verletzung des Urheberrechts.
Zufriedenheit mit Chatbots: Ein Zeichen dafür, dass sich generative KI positiv auf die Interaktionen der Nutzer mit Chatbots auswirkt, ist der Rückgang der Unzufriedenheit mit Chatbots um 30 Prozent im Vergleich zur Umfrage im März. Nur 21 Prozent gaben an, dass sie entweder „etwas“ oder „äußerst unzufrieden“ mit ihrer Nutzung von Chatbots sind. Gegenüber 30 Prozent bei der Umfrage im März.
Generative KI kann äußerst hilfreich sein
„Wie die Umfrage zeigt, werden generative KI-Dienste immer häufiger eingesetzt, auch am Arbeitsplatz. Die Technologie kann äußerst hilfreich sein und für eine Vielzahl von Aufgaben eingesetzt werden. Dies reicht von der Bewertung von Bewerbungen bis hin zum Verfassen von Geschäftsverträgen. Oder, wie ein Teilnehmer antwortete, zum Schreiben von elektronischer Tanzmusik. Doch es ist wichtig zu erkennen, dass sich die Technologie noch weiterentwickelt. Voreingenommene, falsche und schädliche Inhalte sind eine große Hürde, die es zu überwinden gilt. Um die künstliche Intelligenz zu verbessern, müssen wir in Strategien investieren – in Bezug auf Datenerfassung, Schulung und Tests – um schlechte Inhalte zu identifizieren und Schritte zur Behebung der Probleme zu unternehmen. Das Testen der Ergebnisse mit echten Menschen liefert das nötige Feedback, um diese Feinheiten zu verstehen“, erklärt Rob Mason, CTO bei Applause.
Stand: 16.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die WIN-Verlag GmbH & Co. KG, Chiemgaustraße 148, 81549 München einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://kontakt.vogel.de/de/win abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
(Rob Mason ist CTO bei Applause. (Bild: Applause))
Zur Methodik der Umfrage
Die „Generative AI Survey“ ist eine von mehreren Umfragen, die Applause in diesem Jahr durchgeführt hat. Neben der Umfrage zu Sprach- und Chatbots im März veröffentlichte das Unternehmen im Mai 2023 seinen zweiten jährlichen „State of Digital Quality Report“. Die Studie analysiert eine repräsentative Stichprobe seiner Testdaten sowie berichtet über die häufigsten Fehler in digitalen Erlebnissen in verschiedenen Branchen. Später in diesem Jahr wird das Unternehmen die fünfte jährliche globale Umfrage zu den Trends beim Weihnachtsshopping durchführen.
Applause ist tätig im Bereich Testen und digitale Qualität. Das Unternehmen liefert authentisches Feedback zur Qualität digitaler Assets und Erfahrungen, das von echten Nutzern in realen Umgebungen bereitgestellt wird. Applause liefert umsetzbare Testergebnisse, die direkt in die Entscheidung für oder gegen eine Freigabe einfließen können und den Entwicklungsteams helfen, besser zu entwickeln und schneller zu veröffentlichen. Applause bietet Dienstleistungen zur Bewertung der Effektivität von großen Sprachmodellen (LLMs) sowie generativen KI-Modellen. Auf der Grundlage von Verbesserungsrichtlinien setzt Applause generative KI ein. Ziel ist es, die Qualität der geschriebenen Testfälle mit der neuen Smart-Suggestion-Funktion innerhalb von Applause Test Case Management zu verbessern. (sg)