Ethische und gesellschaftliche Implikationen von „Deepfakes“ und Chancen ihrer Regulierung

Forschungsfrage / These

„Deepfakes“ bezeichnen in der Regel einen Teilbereich synthetischer Audio- und audiovisueller Medien: die Manipulation von Abbildungen, Videos und/oder Audiospuren menschlicher Gesichter, Körper oder Stimmen mithilfe künstlicher Intelligenz. Das Projekt untersucht, welche gesellschaftlichen und ethischen Implikationen Deepfakes in unterschiedlichen Kontexten (potenziell) entfalten. Es analysiert zudem, wie verschiedene Mechanismen der Steuerung und Regulierung auf (supra-)nationaler Ebene ihre Entwicklung und Anwendung beeinflussen. Wie könnte und sollte diese „Governance“ in Zukunft ausgestaltet werden, damit die negativen Folgen von Deepfakes abgemildert werden und die Gesellschaft gleichzeitig von ihren potenziellen Vorteilen profitieren kann?

Beschreibung

Mithilfe von Deep Learning, einem Verfahren des maschinellen Lernens, können Audio-Medien, Bilder und Videos immer einfacher manipuliert oder sogar synthetisch erzeugt werden. Diese synthetischen Medien können zunehmend nicht mehr von authentischen Aufnahmen unterschieden werden. „Deepfakes“ als Teilbereich synthetischer Medien können in verschiedenen Bereichen von Nutzen sein (z.B. für Satire, die Film- und Unterhaltungsindustrie, Kunst- und Bildungsprojekte oder zur synthetischen Stimmerzeugung für Stimmlose). Sie bergen aber auch große gesellschaftliche Herausforderungen, die das Projekt in den Blick nimmt: Als Form der Fake News/Desinformation könnten sie demokratische Meinungsbildungsprozesse und Institutionen wie Wahlen bedrohen oder sogar politische Unruhen und Konflikte auslösen. Pornographische Deepfakes verletzen massiv Persönlichkeitsrechte und werden häufig zur Ausübung von Gewalt gegen Frauen genutzt. Deepfakes können Erpressung, Betrug und Identitätsdiebstahl dienen und stellen zudem die Strafverfolgung vor neue Herausforderungen. 

Ein schlichtes Verbot von Deepfakes ist aufgrund ihrer positiven Anwendungsmöglichkeiten nicht zielführend (und auch nicht umsetzbar) und widerspricht zudem der Meinungsfreiheit. Das Projekt untersucht daher verschiedene Formen der „Governance“, also der Regulierung und Steuerung synthetischer Medien, auf nationaler und europäischer Ebene. Dazu gehören neben Gesetzen und Normen unter anderem die Medienselbstregulierung, technische Entwicklungen zur Detektion von Deepfakes, Forschungsförderung, Entwicklungsinfrastrukturen, der Kontext der Verbreitung in sozialen Medien und Bildungsinitiativen für mehr Medienkompetenz. Das Projekt analysiert, wie stark diese Governancemechanismen jeweils sind und inwiefern sie auf eine ethisch wünschenswerte Entwicklung und Anwendung von Deepfakes hinwirken (können).

Partner

  • GESIS - Leibnitz-Institut für Sozialwissenschaften
  • IDS - Leibnitz-Institut für Deutsche Sprache
  • Internationales Zentrum für Ethik in den Wissenschaften (IZEW)
  • IWM – Leibniz-Institut für Wissensmedien
  • KIT – Karlsruher Institut für Technologie
  • Universität Mannheim
  • ZEW – Leibniz-Zentrum für Europäische Wirtschaftsforschung
  • Logo ZKM | Zentrum für Kunst und Medien

Partner

Gefördert vom Ministerium für Wissenschaft, Forschung und Kunst Baden-Württemberg aus
Mitteln der Landesdigitalisierungsstrategie digital@bw.

  • Ministerium für Wissenschaft, Forschung und Kunst Baden-Württemberg
  • Landesdigitalisierungsstrategie digital@bw