Das Bayerische Forschungsinstitut für Digitale Transformation startet in diesem Jahr einen neuen Forschungsschwerpunkt und zwölf innovative Forschungsprojekte. Mit dem Schwerpunkt „Mensch und generative KI: Trust in Co-Creation“ will das bidt sein Profil schärfen.
(Bild: Studio_East/Adobe Stock)
Generative KI revolutioniert Lebensbereiche wie Bildung, Arbeit oder Wissenschaft, bringt jedoch auch Herausforderungen mit sich, etwa die Gewährleistung von Qualität und Wahrheitsgehalt. Bei den drei internen und sieben externen Forschungsvorhaben widmet sich das Bayerische Forschungsinstitut für Digitale Transformation, ein Institut der Bayerischen Akademie der Wissenschaften, der Frage, wann und wie viel Vertrauen in Bezug auf generative KI angebracht ist, sei es bei der Erstellung, Interaktion oder der Bewertung von KI-generierten Produkten. Das bidt fördert ab 2025 gezielt Projekte, die diese Thematik aus verschiedenen Blickwinkeln beleuchten.
Neuer Forschungsschwerpunkt "Mensch und generative KI"
Hannah Schmid-Petri ist Direktorin des bidt.
(Bild: bidt)
Die Leitung des neuen Forschungsschwerpunkts „Mensch und generative KI: Trust in Co-Creation“ übernimmt die Hannah Schmid-Petri, Direktorin des bidt und Inhaberin des Lehrstuhls für Wissenschaftskommunikation an der Universität Passau. „Vertrauen ist der Dreh- und Angelpunkt für den erfolgreichen Einsatz von generativer KI. Mit unserem neuen bidt-Schwerpunkt wollen wir herausfinden, wie wir die Interaktion von Mensch und KI so gestalten können, dass sie langfristig dem Menschen und der Gesellschaft dienlich ist“, erklärt Schmid-Petri. Sie forscht zudem an einem eigenen Projekt rund um Vertrauen und KI. Die drei internen Projekte haben im Jahr 2024 begonnen. Die Forschungsvorhaben im Überblick:
„KI im Journalismus: Der Einfluss generativer KI auf Objektivität und Dialogbereitschaft in der Debatte um Klimaschutz“ unter Leitung Prof. Dr. Hannah Schmid-Petri, bidt/Universität Passau. Das Projekt erforscht, inwiefern KI in journalistischen Berichten dazu beitragen kann, die Annahmebereitschaft von Botschaften zu erhöhen und die sachliche Auseinandersetzung mit Gegenargumenten zu befördern.
„Mensch-KI-Co-Creation von Programmcode bei unterschiedlichen Vorkenntnissen – Effekte auf Performanz und Vertrauen“ unter Leitung: Prof. Dr. Ute Schmid, bidt/Universität Bamberg. Dieses Projekt untersucht den Co-Creation-Prozess von Mensch und KI im Kontext der Erstellung von Programmcode, indem es KI-Methoden und Ansätze der experimentellen Kognitionsforschung kombiniert.
„Rechtsunsicherheit durch generative KI? Reformüberlegungen zur Förderung von Systemvertrauen an Hochschulen“ unter Leitung: Prof. Dr. Dirk Heckmann, bidt/TU München. In dem Projekt soll neben der rechtlichen Analyse im Hochschul- und Prüfungsrecht auch untersucht werden, wie Hochschulen in der Prüfungspraxis auf die Nutzung generativer KI reagieren könnten und wo sie sich anpassen sollten.
Forschungsvorhaben: Generative KI in Wahlen bis AI-Aided Design
Dr. Christoph Egle ist Geschäftsführer des bidt.
(Bild: bidt)
Die sieben externen Forschungsvorhaben wurden im Rahmen der bidt-Jahresausschreibung ausgewählt und starten im ersten Quartal 2025. Sie sind alle an bayerischen Hochschulen und Forschungseinrichtungen angesiedelt und haben sich in einem kompetitiven Verfahren aufgrund ihrer exzellenten Qualität, Aktualität und Relevanz durchgesetzt.
„Die große Resonanz auf unsere Jahresausschreibung hat uns überwältigt. Sie zeigt, dass unser Forschungsthema Vertrauen und KI den Zahn der Zeit trifft. Wir gratulieren den Projekten, die aus einem Pool von 147 Bewerbungen hervorstechen konnten und erhoffen uns von ihnen wertvolle Impulse und Handlungsempfehlungen für eine gemeinwohlorientierte digitale Zukunft“, berichtet Dr. Christoph Egle, Geschäftsführer des bidt. Dies sind die externen Forschungsvorhaben:
„Generative Artificial Intelligence in Elections: Uses, Preferences, and Trust“, Prof. Dr. Andreas Jungherr (Universität Bamberg). Die Forschenden untersuchen, wie deutsche Parteien generative KI nutzen, und welchen Einfluss dies auf Wahlkampagnen und das Vertrauen der Öffentlichkeit hat. Damit siedelt das Projekt an der Schnittstelle von KI, Demokratie und politischem Wettbewerb an.
„Selbstreguliert und kompetent mit generativer KI interagieren: Diagnostik und Förderung“, Prof. Dr. Marion Händel (Hochschule Ansbach). Das Projekt befasst sich mit der Interaktion von Studierenden mit KI und beleuchtet das selbstregulierte Lernen. Es zielt darauf ab, Diagnoseverfahren und Fördermaßnahmen zu entwickeln, die zu einem reflektierten Umgang mit generativer KI beitragen.
„Algorithmische Darstellungsverzerrungen aus Userperspektive: Bewertung, Auswirkungen, Interventionen“, Prof. Dr. Markus Appel (Universität Würzburg). Die mit generativer KI erstellten Texte und Bilder stellen Frauen und Minderheiten oft unausgewogen dar. Ziel des Projekts ist es, dieses Phänomen, seine Auswirkungen und mögliche Gegenmaßnahmen besser zu verstehen.
Stand: 16.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die WIN-Verlag GmbH & Co. KG, Chiemgaustraße 148, 81549 München einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://kontakt.vogel.de/de/win abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
„Wie ‚menschlich‘ muss Gerechtigkeit sein? Psychologische Determinanten von Vertrauen in Ko-Kreation im Kontext Rechtssystem“, Prof. Dr. Friederike Funk (LMU München). Das Projekt analysiert psychologische Prozesse, die das Vertrauen in die Zusammenarbeit mit generativer KI fördern oder hemmen. Im Fokus stehen die richterliche Urteilsfindung, die Zuverlässigkeit von Zeugenaussagen und die Identifizierung von Tatverdächtigen.
„Trustworthy Generative AI Copilots for Data Analytics in Business Decision-Making“, Prof. Dr. Ulrich Gnewuch (Universität Passau). Wie treffen Nutzende bei der Interaktion mit einem KI-Copiloten Entscheidungen? Das Projekt untersucht die Gestaltung vertrauenswürdiger generativer KI-Copiloten und deren Einfluss auf die Geschäftsentscheidungen von Nutzenden ohne technischen Hintergrund.
„AI-Aided Design: Generative AI as a Co-Creation Tool“, Prof. Dr.-Ing. Klaus Diepold (TU München). Dieses Projekt erforscht, wie generative KI eingesetzt werden kann, um Designerinnen und Designer beim Entwurf von 3D Objekten zu unterstützen. Ziel ist ein co-kreativer Prozess zwischen Software und Mensch.
„Human-Centered Specification-Driven Software Engineering with Generative AI“, Prof. Dr. Albrecht Schmidt (LMU München). Das Projekt soll die digitale Souveränität von Individuen und Gesellschaft stärken. Es basiert auf einem spezifikationsgetriebenen Ansatz für die Softwareentwicklung ohne Programmierkenntnisse und soll einen breiteren Zugang zur Gestaltung digitaler Technologien ermöglichen.
Konsortialprojekte zu Deepfakes in der Strafverfolgung und autoritäre KI
Ergänzend zu den Projekten des Forschungsschwerpunkts wurden im Rahmen der Jahresausschreibung zwei weitere Konsortialprojekte aus Bayern ausgewählt, die 2025 anlaufen werden. Die Vorhaben verstärken vorhandene Forschungsfelder und erweitern das Themenportfolio des bidt:
„For the Greater Good? Deepfakes in der Strafverfolgung“unter Leitung von Prof. Dr. Lena Kästner (Universität Bayreuth), Prof. Dr. Niklas Kühl (Universität Bayreuth), Prof. Dr. Christian Rückert (Universität Bayreuth), OStA Miriam Margerie (ZAC NRW). Der Einsatz moderner KI birgt auch für die Strafverfolgung enormes Potenzial. Doch unter welchen Umständen und in welchem Maße ist der Einsatz von Deepfakes gesellschaftlich akzeptabel? Das Projekt bezieht Strafrecht und Strafverfolgung, Wirtschaftsinformatik und Philosophie ein.
„Autoritäre KI: Wie große Sprachmodelle (LLMs) an Russlands Propaganda angepasst werden“ unter Leitung von Prof. Dr. Florian Toepfl (Universität Passau), Prof. Dr. Andreas Jungherr (Universität Bamberg), Prof. Dr. Florian Lemmerich (Universität Passau). Das Projekt wirft zwei Fragen auf: Wie und mit welchen Konsequenzen werden LLMs unter strenger Aufsicht und Zensur im heutigen Russland entwickelt? Und welche Auswirkungen haben autoritäre Daten, wenn sie in demokratische LLM-gestützte Systeme eingespeist werden?