Kitabı oku: «Mensch. Maschine. Kommunikation.», sayfa 19
C Mensch-Maschine-Kommunikation II: Kommunikation mit Assistenzsystemen
Der wütende Mann, die höfliche Frau – und die Frage nach dem Dazwischen
Wie spricht eine genderneutrale SprachassistenzSprachassistenz?
Julia Degelo
1 Einleitung
Sprechen Frauen anders als Männer? Diese Frage beschäftigt die Linguistik schon seit der feministischen Bewegung in den 1970er Jahren. Die Meinungen gehen nicht nur auseinander, sondern haben sich auch verändert, seit die Debatte angestossen wurde. Ist diese binäre Vorstellung von zwei möglichen Sprechweisen nicht veraltet? Und wie stellt sich das Thema Frauen- und Männersprache vor dem Hintergrund neuer Technologien dar? SprachassistenzenSprachassistenz beispielsweise sind heute alltäglich. Jedes SmartphoneSmartphone hat eine solche Funktion. Auch Smart HomesSmart Home mit integrierten SprachassistenzenSprachassistenz sind in den letzten 20 Jahren für die breite Öffentlichkeit interessant geworden (vgl. o.A., infineon 2017). Solche Sprachassistenzen bieten die Möglichkeit, zwischen einer weiblichen und einer männlichen Stimme auszuwählen. Auch hier zeigt sich das binäre Geschlechterdenken deutlich.
Was würde nun aber passieren, wenn man sich nicht mehr nur zwischen männlicher und weiblicher Stimme entscheiden müsste? Der vorliegende Beitrag setzt sich mit der Frage auseinander, wie eine genderneutrale SprachassistenzSprachassistenz aussehen könnte. Dazu werden in einem ersten Schritt anhand ausgewählter Forschungsliteratur zentrale Positionen der feministischen Linguistik zusammengefasst. Danach folgt ein Kapitel zur Geschichte von Sprachassistenzen und über den Aufbau von Künstlicher IntelligenzKünstliche Intelligenz. In einem letzten Schritt sollen GenderGender als Konzept reflektiert und die Vorzüge einer genderneutralen SprachassistenzSprachassistenz diskutiert werden.
2 Forschungsliteratur zum geschlechtsspezifischen Sprechen
Eine wichtige Vertreterin der feministischen Linguistik ist Robin Lakoff. In ihrem Werk Language and Woman’s Place, das 1975 in der ersten Auflage erschien, betrachtet sie die Unterschiede zwischen (vermeintlicher) Frauen- und Männersprache. Sie hält fest, dass beispielsweise Fluchwörter eher mit dem Sprachgebrauch der Männer assoziiert werden (vgl. 2004: 44). Ausserdem würden Frauen höflicher sprechen als Männer. Lakoff nennt in dem Zusammenhang einen wichtigen Aspekt: die sogenannten Question tags1: Man soll dem Gegenüber keine Entscheidung oder Meinung auferlegen, sondern ihm – zum Beispiel durch Question tags – die Möglichkeit lassen, sich zu entscheiden bzw. sich eine eigene Meinung zu bilden. Lakoff bezeichnet ein solch höfliches Sprechen als Absenz von starken Stellungnahmen. Gerade Frauen würden dazu erzogen, keine starken Aussagen zu tätigen (vgl. 2004: 55f.). Ein weiteres typisches Merkmal für ‹Frauensprache› ist laut Lakoff der vermehrte Gebrauch von relativierenden oder abschwächenden Ausdrücken, sog. Hedges2.
Lakoffs Fokus liegt zwar auf weiblichen Sprecherinnen, sie hält aber auch fest, dass jede Person diese Art der Abschwächung verwendet, wenn sie sich unsicher ist (vgl. 2004: 79). Die Möglichkeit, dass all diese Merkmale nicht zwingend einem Geschlecht zugeordnet werden können, wird hier also bereits angedeutet. Lakoff führt später selbst noch aus, dass die verschiedenen Arten des Sprechens womöglich eher auf Machtverhältnisse in der realen Welt zurückzuführen sind als auf ein Geschlecht. Frauen hätten aber oft das Gefühl, sie hätten weniger Macht, und bedienten sich deshalb dieser ‹typisch weiblichen› Sprechmerkmale (vgl. Lakoff 2004: 81f.). Es werden also die klassischen StereotypeStereotyp des dominanten, mächtigen Mannes und der schwachen, machtlosen Frau durch diesen Sprachgebrauch zusätzlich verfestigt.
Marlis Hellinger nennt in Kontrastive feministische Linguistik ein Erklärungsmodell für ‹männliches› und ‹weibliches› Sprechverhalten: Die sprachliche Relativitätstheorie besage, dass die Sprache das Denken beeinflusst und somit Einfluss auf die Wahrnehmung der Wirklichkeit nimmt. Die Theorie geht davon aus, dass Kinder durch den alltäglichen Sprachgebrauch (z.B. durch Alltagsmetaphern wie ‹eines Problems Herr werden› oder durch eingefrorene Ausdrücke wie ‹Adam und Eva›) lernen, dass Männer eine vorherrschende Stellung in der Gesellschaft einnehmen (vgl. 1990: 42f.). Diese Theorie scheint jedoch eher eine Erklärung dafür zu sein, wie Sprache die Wahrnehmung der Welt bzw. die Gesellschaft verändern kann, und keine Erklärung dafür, wieso unterschiedliche Sprechweisen existieren. Weil aber Sprache in bestimmter Weise verwendet wird, werden Ungleichheiten zementiert. Hellinger macht also deutlich, dass die Unterteilung in ‹männliches› und ‹weibliches› Sprechen nicht die Wurzel der Ungleichstellung ist bzw. das Problem nicht gänzlich erfasst. Vielmehr gibt es Ungleichgewichte, welche unsere Gesellschaft und unsere Wahrnehmung stark prägen und dazu führen, dass die StereotypeStereotyp sich noch mehr verfestigen. Eine genderneutrale SprachassistenzSprachassistenz könnte dazu beitragen, diese verfestigten Vorstellungen aufzuweichen.
Auch Sara Mills schreibt in ihrem Werk Gender matters, dass Höflichkeit stereotypischStereotyp als etwas Weibliches betrachtet wird. Die Annahme, dass Frauen kooperativer sprechen und Konflikte verhindern wollen, gehe davon aus, dass Frauen weniger Macht als Männer hätten. Diese Machtlosigkeit würden sie in ihrer Sprache abbilden. Bestimmte Arten der Höflichkeit – z.B. kooperatives Sprechen oder Konfliktvermeidung – seien ein Zeichen der Unterordnung (vgl. Mills 2012: 174). Mills verweist aber auch deutlich darauf, dass es sich hier um StereotypeStereotyp handelt. Dieses stereotype Denken habe sich mit den Jahren verändert, wie sich auch die Rolle der Frau in der Gesellschaft verändert habe. Es könne nicht davon ausgegangen werden, dass alle Menschen dieselbe Auffassung eines StereotypsStereotyp hätten (vgl. Mills 2012: 175). Dieser Gedanke scheint in Hinblick auf die Frage nach Frauen- und Männersprache besonders interessant. Wenn Stereotype nicht mehr klar umrissen sind, wird es schwieriger, bestimmte Verhaltensweisen einzuordnen, demzufolge werden ‹typisch weibliches› oder ‹typisch männliches› Sprechverhalten durchmischt. Interessant ist weiter Mills Einschätzung, dass diese StereotypisierungenStereotyp vor allem auf bestimmte soziale Schichten anzuwenden seien. So wird als Inbegriff des stereotypen männlichen Sprechverhaltens die weisse Arbeiterklasse und für stereotypes weibliches Sprechverhalten die weisse Mittelschicht genannt. Diese Zuordnungen seien mit weiteren StereotypenStereotyp verbunden, welche die Wahrnehmung typisch weiblichen und männlichen Sprechverhaltens zusätzlich beeinflussen (vgl. Mills 2012: 175f.). Wie daraus ersichtlich, ist das als typisch betrachtete Sprechverhalten nicht im grösseren Rahmen anwendbar. Umso überraschender ist es, dass diese klischierten Wahrnehmungen immer noch bestehen. Zusätzlich werden sie durch andere, in der Gesellschaft verankerte Vorurteile verstärkt, was die Aufhebung solcher StereotypeStereotyp schwieriger macht. Gerade deshalb ist es wichtig, über die stereotypen Verhaltensweisen zu sprechen und diese bewusst zu machen. Sobald sie sichtbar sind, können sie hinterfragt und im besten Fall abgeschafft werden.
Halten wir fest: Die Debatte darum, was Frauen- bzw. Männersprache ist und ob diese Unterscheidung tatsächlich möglich ist, ist eine schwierige. Klar ist, dass sich die Idee einer fixen Zweiteilung und den daraus resultierenden StereotypenStereotyp im Laufe der Zeit geändert hat und nun weit entfernt von der Starrheit ist, mit der sie früher belegt war. Die Frage stellt sich, ob und woran Unterschiede im Sprechverhalten festgemacht werden können. Wenn erstens kein festes StereotypStereotyp mehr vorliegt bzw. jeder Mensch StereotypeStereotyp anders wahrnimmt und wenn zweitens vermeintlich ‹typisch weibliches› Sprechverhalten auch bei Männern beobachtet werden kann, wird es schwierig, genderbasierte Unterschiede nachzuweisen. Dazu kommt, dass diese Unterscheidung nicht hilfreich ist, wenn die Binarität der Geschlechter und die dazugehörenden Rollen in Frage gestellt werden. Geschlechtsspezifisches Sprechverhalten ist, wenn überhaupt – so viel lässt sich festhalten – nur ein Symptom von binärem, heteronormativen Denken. Will man diese Binarität auch bei SprachassistenzenSprachassistenz beseitigen, sind technischeTechnik Aspekte zu berücksichtigen. Darauf soll im folgenden Kapitel eingegangen werden.
3 Künstliche Intelligenz
3.1 TechnischeTechnik Entwicklungen auf dem Weg zur SprachassistenzSprachassistenz
Bereits im Jahr 1791 soll der ungarische Gelehrte Wolfgang von Kempelen eine Sprechmaschine entworfen haben. Die MaschineMaschine hätte menschliche Sprachlaute hervorbringen sollen, wurde allerdings nie gebaut – und der Entwurf gilt als verschollen (vgl. Dernbach 2016). 1877 entwickelte Thomas Alva Edison ein Diktiergerät. Dieses Gerät konnte Geräusche aufnehmen und wieder abspielen. Der sogenannte Phonograph arbeitete rein mechanisch und verkaufte sich bis in die 1920er Jahre (vgl. o.A., tiarda 2020). Damit war ein wichtiger Schritt auf dem Weg zur heutigen SprachassistenzSprachassistenz getan: Der Phonograph konnte aufgenommene Sprache reproduzieren. Er war aber selbst nicht produktiv. In den 1930er Jahren wurde der sogenannte Voder entwickelt, der zum ersten Mal menschliche Sprache elektronisch erzeugen konnte. Der Voder wurde an der Weltausstellung 1939 vorgestellt und soll gut verständlich gewesen sein (vgl. Dernbach 2016). Audrey brachte 1952 den Durchbruch: Diese MaschineMaschine konnte die Ziffern von 0 bis 9 verstehen und auswerten. Die Genauigkeit lag bei etwa 90 % und war stark abhängig von Redegeschwindigkeit, Dialekt und Stimme der sprechenden Person. Audrey war somit die erste MaschineMaschine, die Sprachsignale erkennen konnte. Zehn Jahre später stellte IBM auf der Weltausstellung in Seattle die Shoebox vor, welche ebenfalls die Ziffern von 0 bis 9 und grundlegende mathematische Anweisungen verstand, also rechnen konnte (vgl. o.A., tiarda 2020). 1991 brachte IBM Tangora heraus. Diese MaschineMaschine konnte Sätze erkennen und ein Vokabular von etwa 20000 Begriffen in Echtzeit verarbeiten. Dabei basierte sie auf einer rein statistischen Methode ohne linguistisches Wissen (vgl. o.A., tiarda 2020).
In den 2000er Jahren wurde die Spracherkennung zum Standard im ComputerComputer (vgl. o.A., tiarda 2020). Wichtig ist in dem Zusammenhang auch das Jahr 2011; hier brachte das SprachverarbeitungssystemSprachverarbeitung SiriSiri von Apple eine neue Entwicklung auf dem Gebiet der SprachassistenzSprachassistenz. Siri wurde mit den zentralen iOS-Apps verknüpft, wie zum Beispiel dem Kalender, dem Wetter oder den Kontakten (vgl. Dernbach 2016). Es hiess, die Assistenz könne «einfache Aufgaben auf gesprochene Anweisungen ausführ[en]» (Huq 2011). Siri ist als neuronales Netzneuronales Netz aufgebaut und lernt ‹selbstständig›. Die Assistenz ist in der Lage, durch ‹TrainingTraining› immer genauere Ergebnisse zu liefern (vgl. o.A., Digital Guide IONOS 2020). Auch andere SprachassistenzenSprachassistenz von Microsoft, Google oder Amazon funktionieren mit einem neuronalen Netzneuronales Netz (vgl. Nicholson 2020). Im folgenden Kapitel soll erklärt werden, wie ein solches Netz aufgebaut ist und was eine Künstliche IntelligenzKünstliche Intelligenz ausmacht.
3.2 Künstliche Intelligenz – Was ist das?
Künstliche IntelligenzKünstliche Intelligenz ist eine Fähigkeit von MaschinenMaschine. Eine Künstliche IntelligenzKünstliche Intelligenz (KI) scheint in erster Linie eine gewisse Eigenleistung erbringen zu müssen, zum Beispiel muss sie etwas erkennen oder selbst etwas lernen.Software1 Bei klassischer ProgrammierungProgrammierung wird das Wissen aus den Köpfen der Programmierenden in die MaschineMaschine übertragen. Bei einer KI gibt der Mensch nur noch den Rahmen vor, in welchem eine MaschineMaschine das Lernen lernen soll. Dafür werden Ziele festgelegt, die die MaschineMaschine am Schluss erreichen soll. Um diese Ziele zu erreichen, werden von den Programmierenden Beispiele ausgewählt, mit welchen die KI trainiert wird. Zusätzlich erhält die KI in der Trainingsphase Feedback zu den gelieferten Ergebnissen (vgl. Ramge 2018: 17f.).
KI bezeichnet also die Fähigkeit, sich etwas selbst anzueignen – ähnlich der menschlichen Intelligenz. Doch was ist Intelligenz? Um Intelligenz zu definieren, kann beispielsweise auf das 4-Stufen Entwicklungsmodell von Jean Piaget verwiesen werden. Damit wird erklärt, wie Kinder ihre ‹Intelligenz› entwickeln. Auf der ersten Stufe steht die sensomotorische Intelligenz, mit welcher Kleinkinder ihre Umgebung über die Sinne erfahren. Auf einer weiteren Stufe werden die ersten Wörter gelernt, und auf Stufe drei sind Kinder in der Lage, vorauszudenken und ihre Handlungen zu planen. Auf der vierten und letzten Stufe ist das Kind dazu fähig, über sein eigenes Denken nachzudenken. Dies ist die höchste Form des logischen Denkens.2 All diese Schritte sind allerdings nur möglich, wenn das Kind von anderen Menschen umgeben ist, die ihm unter anderem vorleben, wie es sich verhalten soll. Dass sich menschliche Intelligenz entwickelt, ist also nur mit Mitmenschen möglich (vgl. Eberl 2016: 65). Ähnlich verhält es sich (vorerst) mit der KI. Noch braucht sie Menschen, die ihr Vorgaben machen, ein Ziel setzen, die passende Methode bzw. das passende Verfahren auswählen etc. (vgl. Westerheide und Kaczmarek 2016).
3.3 Deep LearningDeep Learning
Die wichtigste Vorlage für die KI ist das menschliche Gehirn. Die Neuronen in unserem Gehirn haben Verbindungen (Synapsen) zu anderen Neuronen. Sie besitzen einen kleinen ‹Speicher› für elektrische Impulse. Mit jedem Impuls (bzw. jeder Information) wird die Spannung erhöht. Sobald ein gewisser Schwellenwert erreicht ist, schickt das Neuron einen Spannungsimpuls an weitere Neuronen los (vgl. Ertel 2016: 266). Wird eine Verbindung zu selten benutzt, wird sie unterbrochen. Die Wiederholung ist demnach ein zentraler Bestandteil im Lernprozess eines Menschen. Je öfter eine Verbindung erzeugt wird, desto mehr wird das Wissen gefestigt und die Verbindung bleibt bestehen (vgl. Ramge 2018: 44f.). Für das Deep-Learning-Verfahren, das vielen KIs zugrunde liegt, sind sogenannte künstliche neuronale Netzeneuronales Netz massgeblich. Der ComputerComputer simuliert dafür ein Nervensystem mit Knoten. Diese Systeme liegen in vielen Schichten hinter- oder übereinander. Die Knoten sind miteinander verbunden und das Signal bzw. der Impuls wird durch die verschiedenen Schichten weitergegeben (vgl. Ramge 2018: 46).
Ramge führt ein anschauliches Beispiel an, das deutlich macht, wie diese Schichten zusammenspielen: Die Aufgabe des Computers ist es, auf Fotos Pferde zu erkennen. Als Trainingsdaten werden ihm mehrere Bilder mit Pferden gezeigt. Das Netzwerk extrahiert nun mithilfe dieser Bilder das Feature-Set eines Pferdes (Körperform, Augen, Fell etc.). Dies geschieht Schicht für Schicht. Die erste Schicht überprüft beispielsweise nur die Helligkeit der Pixel, die zweite Schicht überprüft Linien, die dritte Kreisformen etc., bis schliesslich die letzte Schicht alle gewonnen Daten zu einem Gesamtbild zusammenfügt. Das Programm wird so mit jedem Beispiel und mit jeder Wiederholung besser darin, ein Pferd zu erkennen (vgl. Ramge 2018: 47).
Es gibt drei verschiedene Arten, wie eine solche KI lernen kann. Eine davon ist das Supervised Machine Learning. Dabei bekommt das Computerprogramm bekannte Beispieldaten und wird damit auf eine bestimmte Interpretation und einen gewünschten Output trainiert. Das Programm soll Regeln entdecken und diese selbstständig auf neue Daten übertragen und anwenden. Beim sog. Unsupervised Machine Learning hingegen muss das Programm ohne Beispieldaten und Zuordnungen Datenstrukturen erkennen und diese in interpretierbare Informationen verwandeln (vgl. Kirste und Schürholz 2019: 25f.). Die Methode ist vor allem dann interessant, wenn der Mensch selbst nicht weiss, wonach er suchen soll. Dieses Verfahren kommt beispielsweise in der ITIT-Sicherheit zur Abwehr von Hacker-Angriffen zum Einsatz, wo die KI unbekannte Anomalien in einem Computernetzwerk finden und danach Alarm schlagen soll. Allerdings steht das Unsupervised Machine Learning noch ganz am Anfang der Entwicklung (vgl. Ramge 2018: 48). Und schliesslich gibt es das Reinforcement Machine Learning. Hier lernt das Programm aus Erfahrungen und erhält für richtige Ergebnisse ein positives Feedback (vgl. Kirste und Schürholz 2019: 29).
3.4 Was sind die Grenzen einer KI?
Die Möglichkeiten einer KI sind dadurch eingeschränkt, dass sich nicht jede Art von Wissen formalisieren lässt. So ist es beispielsweise nicht möglich, intuitives Metawissen zu verbalisieren und an eine KI weiterzugeben. Denn Intuition ist nicht programmierbar (vgl. Ertel 2016: 71). In diesen Bereich fällt auch das sog. Polanyi-Paradoxon, welches die Unfähigkeit meint, gewisse Fähigkeiten zu beschreiben (vgl. Ramge 2018: 17). Solange der Mensch eine Fähigkeit nicht formalisieren kann, wird sich diese auch nicht einer MaschineMaschine vermitteln lassen.
Eine weitere Grenze bezieht sich auf ethischeEthik Fragen. Es besteht grundsätzlich die Möglichkeit bzw. Gefahr, dass eine KI Vorurteile entwickelt. Dies kann geschehen, wenn die KI in den Trainingsdaten Regelmässigkeiten erkennt und anhand dieser anschliessend beispielweise ethnische Minderheiten oder GenderGender kategorisiert. Das ist insbesondere deshalb gefährlich, weil die KI die Grundlage für die Kategorisierung nicht offenlegt. Dazu kommt, dass die Lernvorgänge oft derart komplex sind, dass die MaschineMaschine sie dem Menschen nicht erklären kann bzw. der Mensch sie möglicherweise nicht verstehen würde, da die Entscheidungsfindung auf Abermillionen Verknüpfungen beruht. Ergo ist es quasi unmöglich, die Grundlage für die Kategorisierung zu finden und den Fehler zu beheben (vgl. Ramge 2018: 26f.). Gerade in Bezug auf Geschlecht und GenderGender können sich hier Probleme ergeben: Denn es soll auf keinen Fall passieren, dass die MaschineMaschine gesellschaftlich verankerte StereotypeStereotyp weiter verfestigt.
4 Genderneutrales Sprechen
Was diese Überlegungen zu KI in Bezug auf geschlechtsspezifisches wie auch auf genderneutrales Sprechverhalten bedeuten, wird im Folgenden erörtert. Grundsätzlich gilt: Männer und Frauen sollten nicht nur gleichgestellt sein; anzustreben wäre, das Konzept von geschlechtlicher Binarität überhaupt aufzugeben und somit nicht nur Frauen und Männer, sondern alle GenderGender gleichzustellen. Es stellt sich nun die Frage, wie man eine solche Gleichstellung in Bezug auf SprachassistenzenSprachassistenz erreichen könnte.
4.1 SprachassistenzSprachassistenz und Gender
SprachassistenzenSprachassistenz können nützlich sein, lösen aber auch wichtige und kontroverse Debatten aus. Immer wieder im Fokus steht die Frage nach dem Geschlecht. SiriSiri beispielsweise stellt sich in den Werkseinstellungen mit einer weiblichen Stimme vor.Sprachassistenz1 Die herstellenden Unternehmen sprechen allerdings von der SprachassistenzSprachassistenz als it, also geschlechtlich neutral. Marie Kilg beschreibt in ihrem Artikel Siri, ficken? den Versuch einer historischen Erklärung dafür, weshalb Sprachassistenzen oft eine weibliche Stimme als Werkseinstellung vorprogrammiert haben: Die meisten Aufgaben, welche eine Sprachassistenz übernehmen kann (Termine vereinbaren, etwas nachschlagen, Anrufe tätigen etc.), waren und sind meistens mit Frauen assoziiert. Oft wurden diese Arbeiten von Sekretärinnen erledigt. Allerdings bestreiten die herstellenden Firmen verschiedener Sprachassistenzen dezidiert, dass damit Genderklischees bedient werden sollen. Vielmehr sollten die Stimmen den Eindruck von Hilfsbereitschaft vermitteln und sympathisch und kompetent wirken. Ausserdem dürften die Sprachassistenzen zwar proaktiv reagieren, aber auf keinen Fall aufdringlich sein (vgl. Kilg 2017). Die Nutzenden hätten – einem Sprecher von Amazon zufolge – selbst entschieden, dass die SprachassistenzSprachassistenz mit einer weiblichen Stimme sprechen solle, das Ergebnis basiere auf Marktforschung (vgl. ebd.). Allerdings waren die Ergebnisse einer Umfrage des ITIT-Verbands Bitkom nicht ganz so eindeutig. Hier zeigte sich folgendes Bild: 53 % der befragten Männer würden eine weibliche Stimme bevorzugen, von den Frauen waren dies nur 32 %. Eine männliche Stimme fänden 42 % der befragten Frauen gut, bei den Männern waren dies nur 21 % (vgl. Paulsen und Klöss 2016).
Technikexpert*innenTechnik bieten eine pragmatische Erklärung dafür, warum die SprachassistenzSprachassistenz oft eine weibliche Stimme besitzt: Die weibliche Stimme sei besser zu verstehen, da sie sich in einem anderen Frequenzbereich befindet. Die britische Autorin Laurie Penny nennt einen anderen Grund: Obwohl viele KIs nicht zwingend ein binäres Geschlecht benötigen, würden sie oft als weiblich dargestellt. Dies geschehe «in part so that users, who were presumed to be male, could exploit them without guilt» (Penny 2016). Sie verweist dabei auf die KI Tay, die im April 2016 von Microsoft auf den Markt gebracht wurde. Die KI sollte im Verhalten und im Erscheinungsbild an eine junge Frau erinnern. Microsoft stellte die KI als weiblichen AvatarAvatar auf TwitterTwitter und forderte die User*innen auf, sich mit ihr zu unterhalten, damit sie so lernen könne. Innert kurzer Zeit soll die KI gelernt haben, Hitler zu verteidigen, und erhielt mehrfach sexuell belästigende Kommentare (vgl. Penny 2016). Ob und wie stark Pennys Annahme stimmt, müsste ausführlich diskutiert werden. Wichtig ist die von ihr aufgeworfene Frage, wie Technologie unsere ErwartungenErwartungshaltung an GenderGender und Geschlecht widerspiegelt (vgl. Penny 2016) und schliesslich auch beeinflusst. Im folgenden Kapitel soll dieser Frage nachgegangen werden.