Technically Wrong Bücher auf weißem Grund.

Von sexistischen Apps und toxischen Technologien

Dieser Artikel ist Teil 1 von 3 in der Serie Technologie und Gesellschaft

Auch der zweite Teil unserer Serie Technologie und Gesellschaft dreht sich um ein Buch. In Technically Wrong beleuchtet Sara Wachter-Boettcher den Zustand alltäglich genutzter Technologien und Applikationen. Sie macht sichtbar wo diese gegenüber Nutzer*innen versagen.

Die von der Autorin thematisierten Probleme springen den betroffenen Nutzer*innen direkt ins Gesicht. Sie kommen ohne Vorankündigung und vermitteln: du gehörst hier nicht dazu. Es geht um in Produkte integrierte Mikroagressionen. Entwickelt von einer Industrie, die nach Disruption und Begeisterung strebt und sich dabei wenig dafür interessiert, welche Personen auf dem Weg dorthin abgehängt, vor den Kopf gestoßen oder beleidigt werden.

Ein Beispiel für das Potential für algorithmische Grausamkeit, ist Facebooks Jahresrückblick, der aus den eigenen Beiträgen eine Rückschau zusammenstellt. Dieser wurde unter der Annahme entwickelt, dass Menschen positive Dinge erleben und auf Facebook teilen. Eric Meyer wurde durch dieses Feature Ende 2014 jedoch nach einem tragischen Jahr ungefragt und unangemessen feierlich an den Tod seiner Tochter erinnert.

Aus Sicht vieler Designer*innen sind Fälle wie dieser Edge Cases (Grenzfälle). Doch sowohl der Betroffene, als auch Sara Wachter-Boettcher sehen das anders. Wenn Produktfeatures die Identität von Menschen adressieren, ist es unangebracht von Edge Cases zu sprechen. Denn das suggeriert, dass es tatsächlich sowas wie eine*n Durchschnittsbenutzer*in gibt. Das Einzige was jedoch normal ist, ist dass Benutzer*innen verschieden sind.

Standardeinstellungen. Wer oder was ist eigentlich die Norm?

Die meisten Menschen tendieren dazu die Standardeinstellungen von Produkten beizubehalten, da oft unklar ist, dass es Alternativen gibt oder es zu viel Aufwand bereitet diese durchzugehen (Default-Effekt). An sich sind Standardeinstellungen nicht automatisch schlecht, so schreibt Wachter-Boettcher:

Default settings can be helpful or deceptive, thoughtful or frustrating. But they’re never neutral. They’re designed.

Übersetzt: Standardeinstellungen können hilfreich oder irreführend sein, durchdacht oder frustrierend. Doch sie sind niemals neutral. Sie sind vorbestimmt.

Das Buch thematisiert unter anderem folgende Defaults, die bis zur Unbenutzbarkeit von Apps führen:

  • Nutzer*innen von Menstruationstrackern haben Sex der zu Schwangerschaft führt.
  • Menschen mit Doktortiteln sind männlich.
  • Fotofilter, die die Haut von Personen aufhellen, machen diese damit schöner.
  • Namen, die für Betreiber eines Dienstes nicht echt klingen, können keine echten Namen sein.
  • Gewichtsverlust ist gut, an Gewicht zuzunehmen ist schlecht.

Wie kommt es dazu?

Wie Cathy O’Neil, sieht auch Sara Wachter-Boettcher die Ursache der im Buch diskutierten Probleme mitunter in der Personalzusammensetzung von Technologie-Firmen. Produkte und Dienste werden in einer Umgebung entwickelt, die vorwiegend aus weißen Männern besteht. Diesen wird darüber hinaus ein Umfeld geboten, in dem ihnen laufend versichert wird, sie seien die Besten und Intelligentesten. Durch den Mangel an Konfrontation mit vielseitigen Perspektiven, fehlt die notwendige Reibung, die zu besser durchdachten Lösungen führen könnte. Es wird ignoriert, wie schwierig das Leben für Menschen werden kann. Und anstatt wenigstens im Laufe der Entwicklung mit echten Personen zu sprechen, werden oft nur Datenmassen erhoben und automatisch verarbeitet. Teams entwickeln durch diese Aspekte teilweise eine eine paternalistische Haltung gegenüber der Nutzer*innen: Aus ihrer Sicht wissen sie als Entwickler*innen am besten was die Nutzer*innen wollen und brauchen.

Es gibt also einiges zu verändern, damit die Welt durch Technologie zu einem inklusiveren Ort werden kann. Eine bessere Interaktion von Produkten und Diensten mit Nutzer*innen ist ein wichtiger Teilaspekt. Sorgfältiger gewählte Defaults wären zumindest ein Anfang.


Titelfoto: Sara Wachter-Boettcher (http://www.sarawb.com/technically-wrong/)

Weitere Artikel in dieser SerieKalkulierte Ungerechtigkeit: Weapons of Math Destruction >>