Kitabı oku: «Mensch. Maschine. Kommunikation.», sayfa 17
6 Fazit
Im Beitrag wurde dargelegt, dass die Vermenschlichung (im Sinne einer Zuschreibung von menschlichen Eigenschaften wie Intentionalität und Handlungsfähigkeit) dazu führt, dass zumindest auf einer Metaebene von ‹VertrauenVertrauen in MaschinenMaschine› gesprochen werden kann. Die Linguistik kann und sollte diese (sprachlichen) Zuschreibungen und ihre (Aus-)Wirkungen kritisch unter die Lupe nehmen, denn nicht zuletzt sind damit auch ethischeEthik und rechtliche Fragen verbunden. Weiter wurde anhand eines Beispiels erläutert, inwiefern eine (sprachliche) Vermenschlichung ein Mittel zur Förderung von Vertrauenswürdigkeitvertrauenswürdig sein kann. Zur Illustration diente eine Werbebroschüre über den RoboterRoboter Lio. Wie menschenähnlichmenschenähnlich dieser RoboterRoboter beschrieben wird, zeigte sich in diesem Prospekt auf verschiedenen sprachlichen Ebenen. So wurde herausgearbeitet, dass dem Namen Lio, d.h. der Benennung des RobotersRoboter, eine bedeutende Rolle zukommt. Das sieht man auch an anderen Beispielen: PepperPepper, Paro, Nao, AIBO, HOBBIT, Buddy, Heasy, Rhoni, Reeti – diese eigennamenähnliche Auswahl für RoboterRoboter im Alltags- und Pflegebereich verweist auf die Relevanz der Roboter-Namengebung. Forschungen dazu, wer welcher Art von MaschinenMaschine welche (Art von) Namen verleiht und welche Absichten dabei verfolgt werden bzw. welche Wirkung damit erreicht wird, bieten zweifellos ein grosses Erkenntnispotenzial (siehe Nübling et al. 2012: 191).1
Halten wir abschliessend fest: Rund um das Thema VertrauenVertrauen in MaschinenMaschine stellen sich viele Fragen. Eine vertiefte Diskussion dieser Fragen ist notwendig, um den Entwicklungen und Herausforderungen in unserer digitalisierten Gesellschaft Rechnung zu tragen. Dies kann freilich nicht nur auf linguistischer Ebene geschehen, eine Zusammenarbeit mit anderen Wissenschaftsdisziplinen ist unabdingbar.
Bibliographie
Atallah, Marc (2019). Der Roboter: Eine Figur der Menschheit. In: TA-Swiss (Hrsg.). Schlussbericht Focus Robots. Bern: Jordi AG.
Bahner, Jennifer Elin (2008). Übersteigertes Vertrauen in Automation: Der Einfluss von Fehlererfahrungen auf Complacency und Automation Bias. Dissertationsschrift Technische Universität Berlin.
Becker, Heidrun/Scheermesser, Mandy/Früh, Michael/Treusch, Yvonne/Auerbach, Holger/Hüppi, Richard A./Meier, Flurina (2013). Robotik in Betreuung und Gesundheitsversorgung. Zürich: vdf Hochschulverlag AG an der ETH Zürich. Abrufbar unter: https://doi.org/10.3929/ethz-a-007584670 (Stand: 28.12.2020)
Bendel, Oliver/Gasser, Alina/Siebenmann, Joel (2020). Co-Robots as Care Robots. Accepted paper of the AAAI 2020 Spring Symposium. ArXiv Cornell University, Ithaca.
Bendel, Oliver (2018). Roboter im Gesundheitsbereich. In: Bendel, Oliver (Hrsg.): Pflegeroboter. Wiesbaden: Springer Fachmedien, 195–212.
Budnik, Christian (2016). Schwerpunkt: Vertrauen und Vertrauenswürdigkeit. Deutsche Zeitschrift für Philosophie 64:1, 68–72.
Elsen, Hilke (2014). Linguistische Theorien. Tübingen: Narr.
Fink, Robin D. (2014). Vertrauen in autonome Technik; Modellierung und Simulation von Mensch-Maschine-Interaktion in experimentell-soziologischer Perspektive. Dissertationsschrift Technische Universität Dortmund. Abrufbar unter: https://eldorado.tu-dortmund.de/handle/2003/33469 (Stand: 28.12.2020)
Früh, Michael/Gasser, Alina (2018). Erfahrungen aus dem Einsatz von Pflegerobotern für Menschen im Alter. In: Bendel, Oliver (Hrsg.): Pflegeroboter. Wiesbaden: Springer Fachmedien, 37–62.
Janowski, Kathrin/Ritschel, Hannes/Lugrin, Birgit/André, Elisabeth (2018). Sozial interagierende Roboter in der Pflege. In: Bendel, Oliver (Hrsg.): Pflegeroboter. Wiesbaden: Springer Fachmedien, 63–88.
Krummheuer, Antonia (2011). Künstliche Interaktion mit Embodied Conversational Agents. Eine Betrachtung aus Sicht der interpretativen Soziologie. Technikfolgenabschätzung – Theorie und Praxis 20:1, 32–39.
Luhmann, Niklas (2000). Vertrauen. Ein Mechanismus der Reduktion sozialer Komplexität. 4. Aufl. Stuttgart: UTB.
Nübling, Damaris/Fahlbusch, Fabian/Heuser, Rita (2012). Namen. Eine Einführung in die Onomastik. Tübingen: Narr.
Schäfer, Pavla (2016). Linguistische Vertrauensforschung. Eine Einführung. Mit einem Kapitel «Vertrauen und Gespräch» von Martha Kuhnhenn. Berlin/Boston: de Gruyter.
TA-Swiss (Hrsg.) (2019). Schlussbericht Focus Robots. Bern: Jordi AG.
Weber, Karsten (2019). Autonomie und Moralität als Zuschreibung. Über die begriffliche und inhaltliche Sinnlosigkeit einer Maschinenethik. In: Rath, Matthias/Krotz, Friedrich/Karmasin, Matthias (Hrsg.). Maschinenethik. Normative Grenzen autonomer Systeme. Wiesbaden: Springer Fachmedien Wiesbaden, 193–208.
Mit welchen Strategien erzeugen Pflegeroboter VertrauenVertrauen?
Analyse aktueller Beispiele
Andrea Knoepfli
1 Einleitung
ComputerComputer werden wütend beschimpft, dem ChatbotChatbot das tiefste Innere anvertraut. Unser Verhalten zeigt, dass MaschinenMaschine nicht mehr nur funktionale Entitäten verkörpern, sondern in uns ein soziales Gefühl auslösen. In Japan, wo RoboterRobotersozialer bereits vielfach zum Einsatz kommen, ist das Phänomen so weit fortgeschritten, dass Menschen eine (Liebes-)Beziehung mit ihnen eingehen und sie sogar als Lebenspartner oder Kind betrachten.1 Dieser Trend wird sich in Zukunft aller Wahrscheinlichkeit nach noch verstärken, da RoboterRobotersozialer immer mehr auf die InteraktionInteraktion mit Menschen abgestimmt werden. Das Interesse an einer solchen Konzeption von RoboternRoboter ist deshalb so gross, da soziale RoboterRobotersozialer in vielen Einsatzbereichen grossen Nutzen bringen können. Dazu gehört beispielsweise die Pflege, in der humanoidehumanoid RoboterRoboterPflege- in der Zukunft vermehrt zum Einsatz kommen sollen, aber auch Servicedienstleistungen zählen dazu: Die Deutsche Bahn experimentiert beispielsweise mit einem RoboterRoboterService- namens Semmi, der als Auskunftsschalter fungiert. Allerdings waren die Testläufe bisher wenig erfolgreich, da der RoboterRoboterService- die Kunden selten richtig versteht (Schröter 2019).
Nebst der technologischen Herausforderung müssen RoboterRoboter in Situationen, die Interaktionen erfordern, eine Vertrauensbasis schaffen können. Besonders in der Pflege ist dies essenziell: Wenn mehr VertrauenVertrauen vorhanden ist, steigt die Persuasionskraft des RobotersRoboterPflege-, was bedeutet, dass der NutzerNutzer*in seinen Instruktionen eher folgt und ihn eher als Interaktionspartner auf gleicher Ebene sieht (vgl. Hammer et al. 2016; Skalski und Tamborini 2007). So kann das Vertrauen darüber entscheiden, ob ein Patient die angebotenen Medikamente einnehmen möchte oder nicht. Um RoboterRoboterPflege- für die Pflege zu entwickeln, ist das Herstellen einer Vertrauensbasis zwischen Mensch und MaschineMaschine also unabkömmlich. Wie aber schafft man dies? Das ist Thema der vorliegenden Arbeit.
2 Soziale Roboter in der Pflege
In Deutschland könnten bis zum Jahr 2030 ca. 500000 Pflegekräfte fehlen (Zukunftsinstitut, o.J.). Dieser Umstand sowie die Überalterung der Gesellschaft verlangen nach neuen Lösungen, die den Pflegestandard für ältere Menschen weiterhin gewährleisten, im besten Falle sogar verbessern. In Japan kommen in der Altenpflege deshalb bereits jetzt PflegeroboterRoboterPflege- zum Einsatz. Doch nicht nur dort, weltweit sollen vermehrt PflegeroboterRoboterPflege- Aufgaben wie Aufräumen, Hilfe bei der Hygiene, kognitiveKognition/kognitiv Stimulation und Putzen übernehmen (Janowski et al. 2018: 64). Für das Jahr 2022 prognostizierte die International Federation of Robotics einen Umsatzanstieg für ServiceroboterRoboterService- von 35 % auf 11.5 Mrd. und eine Steigerung von 40 % an in Betrieb genommenen Geräten (IFR, 2019).
Die potenziellen Einsatzbereiche von PflegeroboternRoboterPflege- sind in Abb. 1 ersichtlich.
Abb. 1:
Funktionsbereiche von PflegeroboternRoboterPflege- (Janowski et al. 2018, S. 64)
Dabei fällt auf, dass ein Grossteil der Aufgabenbereiche eine soziale Komponente beinhalten. Allerdings ist der Einsatzbereich von PflegeroboternRoboterPflege- in Europa bisher noch vorwiegend auf standardisierte Aufgaben ausgerichtet (wie das Hochheben oder die Nahrungsaufnahme), wohingegen die sozialen Interaktionen mit RoboternRobotersozialer erst noch getestet werden. Oliver Bendel deutet in seiner Definition von PflegeroboternRoboterPflege- an, dass sich dies in Zukunft ändern wird und vermehrt soziale RoboterRobotersozialer zum Einsatz kommen werden (Bendel 2020; Choudhury et al. 2018). Dass RoboterRoboter auch in diesen Bereich vordringen sollen, wird als kritisch betrachtet, denn die Kommunikation mit einer MaschineMaschine, so wird argumentiert, kann die InteraktionInteraktion mit einem Menschen niemals ganz ersetzen (vgl. Frennert und Östlund 2014; Sharkey und Sharkey 2012; Körtner 2016; Baisch et al. 2018). Die Mensch-Maschine-KommunikationMensch-Maschine-Kommunikation sei hier vor allem deshalb problematischKommunikationsproblem, da die Pfleger oftmals der einzige regelmässige soziale Kontakt für ältere Menschen sind, der sie vor Vereinsamung bewahrt (vgl. Losada et al. 2012). Allerdings zeigen Umfragen, dass ältere Menschen PflegeroboternRoboterPflege- durchaus positiv gegenüberstehen, bspw. wenn es ihnen durch deren Assistenz möglich wäre, länger in ihrem Zuhause leben zu können (vgl. Forsa. Politik- und Sozialforschung GmbH 2016). Weiter kann man argumentieren, dass der RoboterRoboterPflege- den Pfleger ja nicht ganz ersetzen soll, sondern ihm Aufgaben abnimmt, sodass mehr Zeit für die Mensch-Mensch-Kommunikation bleibt. Ausserdem lassen Studien vermehrt den Schluss zu, dass auch RoboterRoboterPflege- selbst ein wirksames Mittel gegen die Einsamkeit darstellen (vgl. Broekens et al. 2009). Ein Beispiel hierfür ist die Roboterrobbe Paro. Diese reagiert auf Streicheleinheiten und gibt Tiergeräusche als emotionales Feedback von sich. In der Folge zeigt sich, dass sich der psychische Zustand der Pflegepatienten deutlich verbessert (vgl. Baisch et al. 2018).
Bei Paro handelt es sich um einen vergleichsweise passiven, einfachen RoboterRobotersozialer, der keine physische Pflegearbeit übernehmen kann, sondern für die soziale Betreuung zuständig ist. Andere, sog. PflegeroboterRoboterPflege-, sind als Assistenten in die Pflege integriert und nehmen den Pflegern z.B. das Hochheben, Baden, Füttern etc. des Patienten ab. Aber auch dadurch wird die Effizienz der Pflege nur wenig gesteigert, denn ein Pfleger muss anwesend sein, um den RoboterRoboterPflege- zu unterstützen. Ziel ist es daher, dass der PflegeroboterRoboterPflege- die gesamte Pflege übernehmen kann, dass er sich also durch künstliche IntelligenzKünstliche Intelligenz selbst steuern lernt und für ausreichend mentale Anregung sorgt. Darin freilich besteht eine grosse Herausforderung. Zudem muss beim Patienten die Offenheit vorhanden sein, sich von einem RoboterRoboterPflege- körperlich und geistig betreuen zu lassen. Um dies zu erreichen, ist VertrauenVertrauen besonders wichtig, denn der PflegeroboterRoboterPflege- dringt in intime Bereiche vor, und dies sowohl physisch als auch psychisch.
Was einen guten sozialen RoboterRobotersozialer ausmacht, ist beispielsweise, dass er den Patienten nicht einfach wortlos umbettet, sondern ihn fragt, ob er auch bequem liegt (Janowski, 2018: 65). Aber auch die äussere Gestaltung des RobotersRoboter spielt eine Rolle. Das zeigen Modelle wie P-Care, Care-O-BotBot oder der Nursebot Pearl, deren Gestalt als humanoidhumanoid zu beschreiben ist. Sie verfügen über bestimmte Merkmale hinsichtlich Sprachfähigkeit, Alter, Geschlecht, Aussehen, Mimik und Gestik, welche die Akzeptanz des RobotersRoboter als Interaktionspartner erhöhen (Bendel 2018: 198; Janowski et al. 2018). Doch weshalb kann gerade ein humanoides Äusseres und adäquates soziales Verhalten das VertrauenVertrauen zum PflegeroboterRoboterPflege- steigern? Auch wenn die Antwort auf der Hand zu liegen scheint, muss geklärt werden, weshalb MaschinenMaschine überhaupt als soziale Akteure wahrgenommen werden und wo die Grenzen sind.
3 Theoretische Grundlagen
Um erklären zu können, weshalb sowohl die äusserliche Gestalt als auch das Verhalten des RobotersRoboter eine so grosse Rolle in der Mensch-Maschine-KommunikationMensch-Maschine-Kommunikation spielen und welche Faktoren diese bestimmen, werden drei Ansätze näher beleuchtet, die aus dem Forschungsbereich der Human-Robot-Interaction (HRI) stammen. Die erste Theorie bezieht sich auf den Effekt der Social PresenceSocial Presence und stellt das Vokabular zur Verfügung, auf dem die beiden weiteren Theorien aufbauen. Die CASA-Theorie zeigt auf, wie sich die Verhaltenskomponente und weitere Medieneigenschaften von Computern generell auf die Social PresenceSocial Presence von MaschinenMaschine auswirken, was sich in einem weiteren Schritt auch auf RoboterRoboter übertragen lässt. Beim dritten theoretischen Ansatz geht es um den sog. Uncanny ValleyUncanny Valley Effekt (siehe auch die Beiträge von Jenni und Staubli i.d.B.). Aus diesen drei Punkten leiten sich Gestaltungsempfehlungen für PflegeroboterRoboterPflege- ab, die in Kapitel 4 an realen Beispielen geprüft werden sollen.
3.1 Roboter erzeugen Social Presence
Die Social Presence-TheorieSocial Presence beschreibt das Phänomen, dass künstliche Agenten wie RoboterRobotersozialer als reale soziale Entitäten wahrgenommen werden. Die aus der Kommunikationswissenschaft stammende Theorie beschreibt künstliche Agenten wie RoboterRoboter als ein MediumMedium/Medien, mit dem interagiert wird. Obwohl es sich bei diesen nur um MedienMedium/Medien handelt, werden sie oft nicht als solche wahrgenommen. Eher beschleicht einen das «Gefühl, mit jemandem oder etwas anderem im (medialen) Raum anwesend zu sein» (Hofer 2016: 13). Bei diesem sogenannten Non-Mediationsphänomen (Lombard et al. 2000: 77) tritt in der InteraktionInteraktion die Tatsache in den Hintergrund, dass es sich beim Gegenüber um einen künstlichen Agenten handelt. Die MaschineMaschine wird vielmehr als sozialer Interaktionspartner mit eigenen Gedanken, Emotionen und sogar Willen wahrgenommen.
Die Social Presence-TheorieSocial Presence bezieht sich sowohl auf RoboterRoboter als auch auf Präsenzen im virtuellenvirtuell Raum wie Charaktere in Games oder sog. Chatbots. Das gemeinsame Merkmal ist, dass der künstliche, mediale AkteurAkteur als realer, sozialer Akteur erlebt und auch so behandelt wird. Heerink et al. (2008) haben die Relevanz dieses Ansatzes für die Akzeptanz von PflegeroboternRoboterPflege- in einer Studie bestätigt. Weist der PflegeroboterRoboterPflege- eine hohe Social PresenceSocial Presence auf, ist es für den Patienten beispielsweise weniger wichtig, ob er von einem Menschen oder RoboterRoboterPflege- gepflegt wird, da die Künstlichkeit des RobotersRoboter in den Hintergrund tritt. Dies ermöglicht eine InteraktionInteraktion mit dem PflegeroboterRoboterPflege-, die der Interaktion mit einem menschlichen Pfleger beinahe ebenbürtig sein kann. Damit steigert sich auch die Chance, dass eine Vertrauensbasis zwischen Mensch und MaschineMaschine hergestellt werden kann. Darin liegt ein Ansatzpunkt für die Entwicklung von PflegeroboternRoboterPflege-. Doch welche Faktoren können manipuliert werden, um die Social PresenceSocial Presence und damit das VertrauenVertrauen zu erhöhen?
Die Antwort darauf mag überraschen: Social PresenceSocial Presence korreliert nicht immer mit dem Grad der Menschenähnlichkeitmenschenähnlich des RobotersRoboter. Zu starke Menschenähnlichkeit kann die Social PresenceSocial Presence sogar ins Negative wenden (siehe weiter unten zum Uncanny ValleyUncanny Valley Effekt). Die Social PresenceSocial Presence kann aber nicht nur durch das Aussehen, sondern auch durch das Verhalten eines RobotersRoboter beeinflusst werden. In der CASA-Forschung wurde dies anhand von Computern erprobt; die Erklärungen dazu lassen sich auf RoboterRoboter übertragen. Dies sei im Folgenden genauer erläutert.
3.2 CASA – Computers As Social Actors
Wie sich Computer ›verhalten‹, beeinflusst, ob und wie stark diese als soziale Akteure wahrgenommen werden. Dieses Phänomen nennt sich «CASA», Computers As Social Actor, und es zeigt, dass Social PresenceSocial Presence offensichtlich nicht nur von Äusserlichkeiten abhängt. Die Forschung dazu beginnt bei Reeves und Nass (1996), die aufzeigten, dass Probanden sprechenden Computern in der nachgehenden Befragung menschliche Eigenschaften wie «nett» oder «attraktiv» zugeordnet haben. Eine weitere Studie von Nass et al. (1997) zeigte zudem, dass sogar Gender-StereotypenStereotyp auf sprachfähige ComputerComputer angewendet werden. Diese Wahrnehmung wird nach Reeves und Nass anhand von «Anthropomorphicantropomorph Cues» ausgelöst, die sich vor allem auf das Verhalten der ComputerComputer zurückführen lassen. Solche Cues aktivieren Heuristiken, welche die Einordnung des Interaktionspartners leiten und vorgeben, wie dieser behandelt werden soll (vgl. analog dazu die Befunde von Nass et al. 1997). In einer späteren Studie von Kim und Sundar aus dem Jahr 2012 wurde das Verhalten von MedienMedium/Medien wie Computern mit dem MAIN-Model verglichen, wonach jedes MediumMedium/Medien hinsichtlich seiner vier Grundcharakteristika Modalität, Repräsentation (Agency), Interaktivität und Navigierbarkeit unterschiedlich ausgeprägt sein kann. Diese vier Merkmale beeinflussen am Ende, wie glaubwürdig das MediumMedium/Medien empfunden wird (Abb. 2).
Die Affordance beschreibt eine Merkmalskategorie des Computers (wie z.B. Interaktivität). Diese wird durch den Cue Customization (= individuelle Anpassung) aktiviert. Wie die InteraktionInteraktion des Computers auf den User abgestimmt ist, bestimmt, welche Heuristiken auf den ComputerComputer angewendet werden. Es kann so durch die Interaktion zu einem verbesserten Flow-Erlebnis kommen. Unter Flow wird das vollständige Aufgehen in einer Tätigkeit verstanden (Csikszentmihalyi 1987). Da das Flow-Erlebnis eine positive Heuristik aktiviert, kann in diesem Fall ein positiver Rückschluss auf die aufgelisteten Qualitäten des Computers angenommen werden. Diese Qualitäten sind es, die schliesslich das Credibility Judgement lenken und beeinflussen, wie glaubwürdig die Interaktion mit dem Computer eingestuft wird.
Abb. 2:
MAIN-Model (Kim und Sundar 2012: 243)
In der Studie von Kim und Sundar (2012) wurde zudem der Frage nachgegangen, wie die Antropomorphisierung von Computern verursacht wird und ob es sich dabei um einen bewussten oder unbewussten Prozess handelt. Die Probanden, welche 93 Undergraduate Students waren, verneinten die Vermutung, dass sie die getestete Webseite wie einen Menschen behandelt hätten. In einem weiteren Schritt aber schrieben sie der Webseite doch unbewusst menschliche Attribute wie freundlich oder hilfsbereit zu. Diese Diskrepanz zwischen bewusster Wahrnehmung und unbewusstem beobachtbaren Verhalten zeigt auf, dass die Einstufung von Computern als soziale Akteure unbewusst geschieht. Allerdings kann dieser Prozess durch die ungeschickte Manipulation von Eigenschaften zunichte gemacht werden. Bei der Testgruppe, bei welcher auf der Webseite ein Agent hinzugefügt wurde, also die Agency-Eigenschaft manipuliert wurde, steigerte sich die Diskrepanz zwischen bewusster und unbewusster Einordnung. Die Antropomorphic Cues wurden zu salient und die Anthropomorphisierungantropomorph wirkte aufgezwungen. Dies zeigt, dass der CASA-EffektCASA-Effekt nur dann eintritt, wenn die Anthropomorphicantropomorph Cues, wie der Name auch sagt, Cues bleiben und nicht zu stark in den Vordergrund treten. Die Studie fand aber nicht nur hinsichtlich der Agency heraus, dass diese die Wirkung des CASA-Effekts beeinflusst, sondern überraschenderweise kam auch der Interaktivität eine tragende Rolle zu. Die Probanden, welche die Möglichkeit hatten, selbstständig auf der Webseite zu navigieren, bewerteten die menschlichen Eigenschaften des Computers viel höher.
Am CASA-EffektCASA-Effekt wird deutlich, dass Verhaltensfaktoren die Wahrnehmung von Computern als soziales Gegenüber begünstigen können. Diese Erkenntnisse lassen sich auf PflegeroboterRoboterPflege- übertragen. Bei der ProgrammierungProgrammierung von PflegeroboternRoboterPflege- können ebenfalls die vier Komponenten aus dem MAIN-Model als Anthropomorphic Cues manipuliert werden. Besonders die Interaktivitätskomponente begünstigt die Anthropomorphisierungantropomorph, wie sich nicht nur in Kim und Sundars Studie zeigte, sondern auch bei Nass und Moon (2000). Dies könnte in der Kommunikation mit PflegeroboternRoboterPflege- so umgesetzt werden, dass PflegeroboterRoboterPflege- dem Patienten immer eine Wahl lassen: «Möchten Sie lieber ein Glas Wasser, um die Tablette zu schlucken, oder ein Glas Orangensaft?» Damit wird in der Kommunikation keine Top-Down-Anweisung gegeben, sondern eine Möglichkeit zur InteraktionInteraktion; der Patient hat dadurch das Gefühl, die Situation selbst kontrollieren zu können und mit einem sozialen Gegenüber zu interagieren. Die bisher eingesetzten, rein funktionalen RoboterRobotersozialer lassen dagegen einen solchen ‘sozialen Feinschliff’ vermissen, was der Akzeptanz abträglich ist.
