2017-12-04

#rp18-Speakerin Safiya Umoja Noble: Warum Autocomplete nur für diejenigen lustig ist, die es sich leisten können

#rp18 speaker Safiya Umoja Noble

#rp18 speaker Safiya Umoja Noble; credit: Safiya Noble

Wie erschließen sich Menschen ihre Umwelt und welche Probleme stellen sich ihnen dabei insbesondere beim Einsatz von Technologien? Genau dazu, ganz verkürzt dargestellt, forscht Safiya Umoja Noble an der USC Annenberg in Kalifornien.

Womit wir schon beim Kernproblem wären: Verkürzte Darstellungen müssen nicht sein – auch nicht bei verkürzten Aufmerksamkeitsspannen im Digitalen. Mit einem informationswissenschaftlichen Hintergrund erforscht Safiya Noble die Falschrepräsentation von Personen, insbesondere schwarzen Frauen, und Konzepten wie etwa "Schönheit" durch Suchmaschinen-Algorithmen und die Datensätze, aus denen diese sich bedienen. In der aktuellen Informationslandschaft sind kommerzielle Plattformen heute der primäre Zugriffspunkt auf Wissen geworden. Nur, dort ist Technologie in etwa so neutral wie ein Butterfly-Messer. Was dort von Suchmaschinen gefunden und gelesen wird, das bestimmen Algorithmen. Wie bereits Frank Pasquale, Kate Crawford oder Caroline Sinders in den Vorjahren auf der re:publica-Hauptbühne klar machten: Die übernehmen aus unseren Datenspuren vor allem unsere Vorurteile – und setzen sie unhinterfragt fort.

Für ihr gerade erscheinendes Buch "Algorithms of Oppression" hat Safiya Noble unter anderem untersucht, was in unserem Browser passiert, wenn wir nach den Schlagworten "black girls" suchen: "big booty" und andere sexuell explizite Begriffe werden sehr wahrscheinlich als Top-Suchbegriffe erscheinen – auch wenn SEO sich durch unsere vorherigen Suchen an uns und unseren aufgeklärten Werten orientiert. Tippen wir hingegen "weiße Frau" ein, sind die Ergebnisse weit weniger sexualisiert und gehen offenkundig von ganz unterschiedlichen Vorstellungsmustern von "Frau" aus. Vor den Augen der Maschine sind nicht alle Menschen gleich: Man kann technologisch verstärken, was trotzdem eine Fehlannahme bleibt. Indem uns die Suchmaschinen-Funktion Autocomplete beim Eingeben von Suchbegriffen ergänzende Vorschläge unterbreitet, kann sie unsere Vorstellungswelt nachhaltig mitprägen. Was als fesche Formatidee eines Redakteurs sehr witzig erscheint (siehe die Clip-Reihe "Autosuggest Interviews"), kann sich für stärker von Diskriminierung betroffene Gruppen zu einem echten Nachteil entwickeln.

In einer Gegenwart, in der rechte, gesellschaftsspaltende Tendenzen merklich zunehmen, sind verzerrte Darstellungen etwa von ethnischen Stereotypen ein ausgesprochenes Problem. Nicht nur Linguisten verstehen, dass Vorstellungswelten auch unseren täglichen Umgang miteinander bestimmen. So belegen wissenschaftliche Daten, dass etwa "russische" Desinformations-Kampagnen in den USA ganz bewusst auf ethische Stereotype aufgebaut waren (siehe hier).

Safiya Noble arbeitet an verbesserten Rahmenbedingungen, um die Rolle der Technologie in Verbindung mit Grund- und Menschenrechten neu zu verhandeln – und darüber, wie digitale Medienplattformen in die Natur menschlicher Beziehungen eingreifen und diese verlagern. Sie argumentiert, dass Deep Learning und Künstliche Intelligenz in den kommenden Jahren die entscheidenden Themen werden. Zur Betrachtung des Phänomens nimmt sie eine dezidiert  feministische und politisch-ökonomische Perspektive ein. Denn angesichts all dieser theoretischen Genese-Geschichten sind Plattformen und Software so zu untersuchen.

Vorher war sie Assistenzprofessorin am Department of Information Studies der UCLA, wo Safiya Lehraufträge in African American Studies und Gender Studies innehatte. Derzeit arbeitet sie als Associate Editor für das Journal of Critical Library und Information Studies und ist Mitherausgeberin von zwei Büchern: "The Intersectional Internet: Race, Sex, Culture and Class Online" (Peter Lang, Digital Formations, 2016) und "Emotionen, Technik & Design" (Elsevier, 2015). Sie ist Partnerin bei dem Netzwerk Stratelligence, das sich auf die Erforschung von Herausforderungen im Bereich der Informations- und Datenwissenschaft spezialisiert hat. Und sie ist Mitbegründerin des Information Ethics & Equity Institute (IEEI), das Organisationen bei der Umstellung ihrer Informationsmanagement-Praktiken hin zu ethischeren und (gender-)gerechteren Prozessen berät. Wir freuen uns auf Safiya Umoja Noble auf der #rp18!

@safiyanoble
Webseite: safiyaunoble.com