DB Podcast

Mensch-Maschine Social Loafing: „Es besteht eine Art Übervertrauen in die Technik“

Das Gespräch führten Heiner Sieger und Professorin Dr. Linda Onnasch 5 min Lesedauer

Anbieter zum Thema

Eine Studie der TU Berlin stellt fest, dass Menschen fauler werden, wenn sie mit Robotern im Team arbeiten. Die Studienleiterin, Professorin Dr. Linda Onnasch, Leiterin des Fachgebiets „Handlungs- und Automationspsychologie“, erklärt, wie es zu diesem Social Loafing kommt und wie Unternehmen darauf reagieren sollten.

(Bild:  fledermausstudio – stock.adobe.com)
(Bild: fledermausstudio – stock.adobe.com)

Social Loafing: Wie kommt der in der Ihrer Untersuchung erkannte „Faulenzer-Effekt“ zustande?

Gesprächspartnerin Professorin Dr. Linda Onnasch ist Leiterin des Fachgebiets „Handlungs- und Automationspsychologie an der TU Berlin.(Bild: Professorin Dr. Linda Onnasch)
Gesprächspartnerin Professorin Dr. Linda Onnasch ist Leiterin des Fachgebiets „Handlungs- und Automationspsychologie an der TU Berlin.
(Bild: Professorin Dr. Linda Onnasch)

Der Social-Loafing-Effekt ist nicht spezifisch für die Zusammenarbeit mit Robotern, sondern bereits aus Mensch-Mensch-Teams bekannt. Wenn Menschen im Team arbeiten und die eigene Leistung nicht mehr identifizierbar ist, da sie in einem Teamergebnis zusammenläuft, dann tendieren Menschen dazu, sich etwas zurückzulehnen und sich weniger anzustrengen. Erst recht, wenn einer der Teampartner als besonders leistungsstark empfunden wird. Oder wenn die Arbeit als wenig sinnstiftend, nicht motivierend oder monoton wahrgenommen wird. Daraus resultiert eine schlechtere Leistung auf individueller Ebene. 

Ähnliches hat sich auch bereits bei der Nutzung von Assistenzsystemen gezeigt. Es besteht eine Art Übervertrauen in die Technik, da die Erfahrung zeigt, dass fast immer stimmt, was die Maschinen leisten. Denken Sie zum Beispiel an das Navi im Auto, dem wir auch häufig einfach blind folgen. Diese Problematik findet sich überall dort, wo Menschen von Assistenzsystemen unterstützt Entscheidungen treffen oder automatisierte Prozesse überwachen sollen.

Was genau haben Sie untersucht?

Wir haben untersucht, ob typische gruppenpsychologische Phänomene wie das Social Loafing in der Zusammenarbeit mit Robotern auftreten können. Um das herauszufinden, teilten wir 42 Studierende in zwei Gruppen ein. Beide mussten elektronische Bauteile auf sogenannten Leiterplatten auf Qualitätsmängel inspizieren. Die Leiterplatten waren dabei auf einem Bildschirm als Ganzes nur verschwommen zu sehen – erst wenn die Versuchsperson mit der Maus über bestimmte Bereiche fuhr, war dieser scharf zu erkennen. Auf diese Weise war es uns möglich, das Vorgehen der Teilnehmenden im Detail zu verfolgen.

Während die eine Gruppe die Fehlersuche allein bewältigen musste, bekam die andere Unterstützung von dem einarmigen Industrieroboter Panda. Er fotografierte und untersuchte die Leiterplatten mit hörbaren Geräuschen hinter einer Trennwand, bevor die Bildaufnahmen inklusive der von Panda gesetzten Fehlermarkierungen dann auf dem Bildschirm der Probanden erschienen. 
Panda fand fast alle Fehler. Nur im letzten Viertel des Versuches wurden fünf Fehler von Panda nicht detektiert. Beide Gruppen wurden nach dem Experiment gefragt, wie sie ihr eigenes Engagement bei der Arbeit einschätzen, wie verantwortlich sie sich für die Aufgabe gefühlt und wie gut sie ihrer Meinung nach gearbeitet hatten. Außerdem ermittelten wir, wie viele der Fehler, die von Panda nicht detektiert wurden von den Teilnehmenden gefunden wurden und wie häufig dies in der Vergleichsgruppe, die allein arbeitete, der Fall war.

Auf den ersten Blick sah es so aus, als ob die Anwesenheit von Panda keinen Unterschied gemacht hätte – es gab keinen statistisch signifikanten Unterschied zwischen den Gruppen in Bezug auf die Zeit, die für die Inspektion der Leiterplatten aufgewendet wurde, und die prozentual inspizierte Fläche der Leiterplatten lag in beiden Gruppen bei rund 90 Prozent. Die Teilnehmenden beider Gruppen bewerteten auch ihr Verantwortungsgefühl für die Aufgabe, die aufgewendete Mühe und die Leistung ähnlich hoch. Als wir die Fehlerquoten jedoch genauer untersuchten, stellten wir fest, dass die Versuchspersonen, die mit Panda arbeiteten und bereits gesehen hatten, dass der Roboter viele Fehler erfolgreich markiert hatte, die später auftre­tenden vom Roboter verpassten Fehler seltener fanden als die Vergleichsgruppe, die alleine arbeitete. Sie leisteten also deutlich schlechtere Arbeit obwohl sie dachten, sie würden gleich viel Aufmerksamkeit aufbringen. Offenbar gingen sie unbewusst davon aus, dass Panda keine Fehler übersehen hatte, und nahmen ihre mentale Anstrengung bei der Suche zurück.

Social Loafing: Worin unterscheidet sich das Mensch-Maschine loafing vom Mensch-Mensch loafing?

Das ist durchaus eine relevante Fragestellung, wäre aber noch weiter zu untersuchen. Vor allem, um die Frage zu beantworten: „Was machen wir dagegen?“ Bislang gibt es bereits verschiedene Maßnahmen, die in Mensch-Mensch-Teams gut wirken. Zum Beispiel konnten wir schon zeigen, dass die Leistung der Person auf Position 1 im Team deutlich besser ist, wenn sie weiß, dass ihr Ergebnis an die zweite Person weitergegeben wird. 
Das ist ein hochsozialer Effekt, der auf der Erwartung einer Bewertung durch den Teamkollegen beruht. Dies führt zu einer Motivationssteigerung. In Mensch-Maschine-Teams ist das aber eher unwahrscheinlich, da der Roboter nicht dieses Evaluationspotenzial hat. Der sagt ja nicht: Ist der oder die blöd, dass das Übersehen wurde! Man muss sich als Mensch nicht rechtfertigen. Also braucht es neue Maßnahmen, um dem entgegenzuwirken. Vor allem, da das soziale Faulenzen in Mensch-Maschine-Teams erst in den Anfängen der Untersuchungen steht.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Ist diese Erkenntnis besorgniserregend in einer zunehmend automatisierten bzw. roboterisierten Arbeitswelt?

Teils, teils. Die Idee der redundanten Teamarbeit, ist ja auch: Vier Augen sehen mehr als zwei. Und wir konnten zeigen, dass trotz eines individuellen Leistungsverlusts die summierte Teamleistung insgesamt immer noch besser ist, als die Leistung eines Individuums. Das Vier-Augen-Prinzip funktioniert also. Das trifft auch zu, wenn eine Partei der Roboter ist. Etwas kritischer ist es bei der automationsgestützten Diagnostik. Hier kann es zu einem zu starken Verlassen auf die Leistung der Technik kommen, die aber eigentlich nur als Unterstützung gedacht ist. In diesen Fällen kann es sein, dass Menschen dem Vorschlag des Systems blind folgen, ohne die Diagnose zu verifizieren. Damit können Fehler in der Produktion übersehen werden.

Social Loafing: Was bedeutet das insgesamt für die Entwicklung der Arbeitswelt in der Industrie und das Zusammenwirken von Mensch und Maschine?

Gerade im Rahmen der Digitalisierung entwickeln wir sehr technikgetriebene ­Arbeitswelten. Dabei wird sich wenig darum gekümmert, wo der Mensch bleibt bzw. wie seine Aufgaben sich durch zunehmende Digitalisierung und Automatisierung verändern. ­Alles, was nicht automatisiert werden kann, verbleibt einfach beim Menschen. Dieses „Resteprinzip“ ist allerdings nicht im Sinne einer menschzentrierten Systementwicklung.

Es wäre notwendig, für die Entwicklung der Arbeitswelt auch Psychologen und Human Factors-Experten hinzu­zuziehen, wenn man als Unternehmen neue Produktionen oder die Digitalisierung plant. In einem soziotechnischen System können wir nicht eine Komponente ändern und erwarten, dass die andere Seite davon nicht betroffen ist. Wir müssen überlegen, welche Anpassungen es insgesamt braucht, damit das System aus Mensch und Technik effektiv funktioniert. Soziotechnische Sys­teme müssen besser beachtet und verstanden werden und nicht nur die Technik geplant werden. Nicht von ungefähr steigen nach Einführungen von neuen Technologien sehr oft die Krankheitsraten, aber auch die Kündigungsraten. Da gibt es eine Reihe Indikatoren, die zeigen, dass ein rein technikorientierter Ansatz problematisch ist.