Meetdigilog | Ist dieses System voreingenommen? – Wie Nutzer:innen auf Gender Bias in einem erklärbaren KI-System reagieren
17:30 Uhr–18:00 Uhr
Blick mit unserem Experten Miguel Angel Meza Martínez vom Karlsruher Institut für Technologie (KIT) hinter die Kulissen der Wissenschaft!
Aufgrund ihres Potenzials, die Entscheidungsfindung effizienter und zuverlässiger zu machen, unterstützt Künstliche Intelligenz (KI) zunehmend auch folgenreiche menschliche Entscheidungen. Es wurde jedoch festgestellt, dass KI-Systeme soziale Stereotypen replizieren und verstärken, indem sie Vorurteile gegenüber Minderheiten, Frauen und Farbigen (ev. People of Colour?) durchsetzen. Insbesondere wurde wiederholt festgestellt, dass KI-Systeme geschlechtsspezifische Vorurteile verstärken, indem sie Männer gegenüber Frauen bevorzugen.
Ein Ansatz zur Minderung der negativen Auswirkungen von Gender Bias besteht darin, die Transparenz von KI-Systemen zu erhöhen, indem Erklärungen mit neuartigen Methoden der Explainable Artificial Intelligence (XAI) bereitgestellt werden. Erläuterungen helfen, die Benutzer:innenbeteiligung zu erhöhen und können Benutzer:innen dabei unterstützen, voreingenommene Entscheidungsempfehlungen von KI-Systemen zu erkennen und abzulehnen. Es gibt jedoch mehrere Herausforderungen bei der Forschung aus Benutzer:innenperspektive in XAI. Erstens wurden die entwickelten Erklärungs-XAI-Methoden durch Studien mit Benutzer:innen nicht ausreichend evaluiert. Daher ist unklar, wie Benutzer:innen die Erklärungen dieser Methoden verstehen und verwenden. Zweitens sind die Auswirkungen unklar, die XAI-Erklärungen eines verzerrten KI-Systems auf die Wahrnehmung der Benutzer:innen wie das Vertrauen haben könnten.
Mit unserer Forschung wollen wir untersuchen, wie Benutzer:innen XAI-Erklärungen bewerten und ob diese Erklärungen ihnen helfen könnten, Verzerrungen in KI-Systemen zu erkennen. Wir sind insbesondere daran interessiert, den Trade-off zwischen positiven Effekten der Erhöhung der Transparenz durch XAI-Erklärungen und negativen Effekten der Bias-Erkennung mithilfe von XAI-Erklärungen zu untersuchen.
Unser Gast bei #meetdigilog:
Seit Juni 2018 forscht Miguel Angel Meza Martínez für die Promotion am Institut für Wirtschaftsinformatik und Marketing (IISM) des Karlsruher Instituts für Technologie. Seine Forschung konzentriert sich auf Interactive Machine Learning und Explainable Artificial Intelligence (XAI). Das übergeordnete Ziel seiner Forschung ist es zu verstehen, wie KI-Systeme besser gestaltet werden können, damit Benutzer:innen mit dem System interagieren können, um es zu verbessern. Damit diese Zusammenarbeit erfolgreich ist, müssen KI-Systeme darin transparent sein, wie sie Entscheidungen treffen. Aus diesem Grund ist es wichtig, den Benutzer:innen Erklärungen zu geben. Die Gestaltung transparenterer KI-Systeme stärkt das Vertrauen der Nutzer:innen in sie und beeinflusst langfristig ihre Akzeptanz.
Moderation:
Sabine Faller ist wissenschaftliche Mitarbeiterin in der Abteilung Museumskommunikation am ZKM | Karlsruhe. Ihr Schwerpunkt liegt in der Konzeption und Umsetzung von Workshops, Projekten und Bildungsprogrammen in den Bereichen Medienkunst, Digitale Bildung sowie Online Lernen – aktuell für das Forschungsprojekt »Digitalisierung im Dialog - digilog@bw«.
#meetdigilog ist unser Format auf Insta-Live! Seien Sie live dabei, treffen Sie unsere Wissenschaftler:innen und teilen Sie Ihre Gedanken und Ideen direkt im Chat. Erhalten Sie praktische Tipps sowie spannendes Wissen rund um die Digitalisierung!
Ein weiterer Termin ist am 02. Dezember geplant.