Diversitätssensible Technik für mehr soziale Gerechtigkeit in der digitalen Gesellschaft

Forschungsfrage / These

Wissenschaftler*innen haben in den letzten Jahren vermehrt auf die unfaire Diskriminierung von Frauen und Minderheiten in und durch technische Lösungen hingewiesen (Stichwort „algorithmic and data bias“). Wie kann Diversität in digitalen Angebote erhöht werden? Wie sähen diversitätssensible Algorithmen aus? Welche Methoden benötigt es für eine diversitätssensible Technikentwicklung?

Beschreibung

Dieses Projekt beschäftigt sich mit Fragen von sozialer Gerechtigkeit und Teilhabe in der digitalen Gesellschaft. Dabei werden Diskriminierung und Diversität in sozialen Netzwerken beleuchtet und neue Methoden wie die Entwicklung diversitätssensibler Technik erörtert. Zunehmend warnen Wissenschaftler*innen vor Diskriminierung durch Algorithmen. Dies betrifft Frauen und Minderheiten, insbesondere aber Menschen, die einer doppelten oder mehrfachen Marginalisierung ausgesetzt sind (z.B. schwarze Frauen oder Personen, die sich nicht mit einer bestimmten Geschlechterrolle identifizieren). Da Algorithmen zunehmend unser Leben strukturieren, darf Technik strukturelle Ungleichheiten nicht reproduzieren oder gar verstärken. Für die Technikentwicklung ist es wichtig, Vorurteile und Ungleichheiten (z.B. in Bezug auf Geschlecht und Hautfarbe) in Daten und Computermodellen zu minimieren. Eine Möglichkeit ist dahingehend die Entwicklung diversitätssensibler Technik, also solcher Designs, welche die Diversität der Nutzer*innen einbeziehen. Doch was genau sind Kriterien einer diversitätssensiblen Technik? Diese Frage wird das Projekt unter Rückgriff auf schwarzfeministische Theorien und Methoden beantworten. 

Betreuung der Promotion durch Prof. Dr. Astrid Franke (Amerikanistik, Uni Tübingen) und Prof. Dr. Daniel Gatica-Perez (Social Computing, EPFL Schweiz)

Partner

Gefördert vom Ministerium für Wissenschaft, Forschung und Kunst Baden-Württemberg aus
Mitteln der Landesdigitalisierungsstrategie digital@bw.