Algorithms of Oppression – Über Rassismus in Suchergebnissen

Dieser Artikel ist Teil 3 von 3 in der Serie Technologie und Gesellschaft

Bereit für einen neuen Blickwinkel auf den Einfluss von Algorithmen auf Menschen und Gesellschaft? In dieser Serie haben wir euch bereits zwei Bücher vorgestellt die sich mit dem Thema beschäftigen. Hier folgt ein weiteres!

Autorin und Forscherin Safiya Umoja Noble hat sich im Buch Algorithms of Oppression mit (Google) Suchergebnissen beschäftigt. In ihrer Arbeit beleuchtet sie, wie tief Rassismus und Sexismus in Suchergebnissen und damit den dahinterliegenden Algorithmen verankert sind.

Das Buch bietet viele Beispiele für sexistische und rassistische Suchergebnisse, Autovervollständigungen und Bildklassifikationen die die Google-Suche bisher produzierte. Noble beschäftigte sich unter anderem mit Suchergebnissen, die sie 2011 und in den Jahren darauf für den Suchbegriff „black girls“ erhielt: Sämtliche Ergebnisse führten zu pornografischen Inhalten. Dass Google bereits auf personifizierte Suchergebnisse setzte und einer Person, die sich mit feministischen Inhalten beschäftigt, solche Ergebnisse lieferte, macht das ganze nicht besser.

Warum sind (bzw. waren) Suchergebnisse voller Sexismus und Pornografie, wenn es um Frauen und insbesondere Women of Color geht? Wie kann es sein, dass solche Ergebnisse als Spiegel der Gesellschaft, als beliebt oder gar objektiv gelten können? Für wen soll das das beste Ergebnis darstellen? Wie kann es sein, dass wir uns auf Suchergebnisse verlassen und oftmals schon gar von ihnen abhängig sind? Fragen wie diesen geht die Autorin nach. Sie zeigt dabei unter anderem auf, wie es die Missrepräsentation Schwarzer Frauen aus traditionellen Medien und Datenbeständen in heutige Suchergebnisse geschafft hat.

Das darunterliegende Problem ist weitreichend und Nachbessern (was Google getan hat) ist nicht genug. Die Autorin stellt klar: Marginalisierte Personen können sich nicht wehren. Ihnen fehlt das ökonomische, politische und soziale Kapital um den weitreichenden Konsequenzen von Missrepräsentation entgegenzutreten. Intransparente Algorithmen und werbegetriebene Geschäftsmodelle sind ein großes Problem. Eine App wird es nicht lösen („An app will not save us“).

Weitere Artikel in dieser Serie<< Kalkulierte Ungerechtigkeit: Weapons of Math Destruction