digitale Pictogramme
© Mika Baumeister on Unsplash

Manipulation und Stimmungsmache

Frederic Bartscherer und Michael Färber, KIT

Media Bias: Manipulation und Stimmungsmache in digitalen Medien

Einleitung

Das öffentliche Meinungsbild wird auf immer breitere Art und Weise geformt. Dabei ist festzustellen, dass das Internet den Medienkonsum der BürgerInnen massiv verändert und digitale Medien das Meinungsbild in zunehmendem Maße beeinflussen. Verzerrungen in Medien, im englischen Media Bias, tritt in der Berichterstattung etwa durch gezielte Wort- und Themenwahl auf und zwingt mittlerweile auch große Internetkonzerne wie Facebook zum Handeln (Görz et al., 2020).

Media Bias steht daher im Forschungsfokus vieler Disziplinen (Hamborg, 2019). In den Geistes- und Sozialwissenschaften werden beispielsweise Inhalts- und Meta-Analysen in einem ganzheitlichen Ansatz durchgeführt, um verschiedene Arten von Verzerrungen in Nachrichtentexten offenzulegen (D’Alessio et al., 2000). Angesichts der Flut an Nachrichtentexten in digitalen Medien ist eine manuelle Analyse durch ExpertInnen nicht möglich. In der Informatik steht hingegen die Erkennung von Media Bias mittels maschineller Lernverfahren im Vordergrund, die automatische Analysen über eine große Anzahl an Nachrichtentexten möglich machen.

In Abgrenzung zu Fake-News-Analysen, die sich meist auf die inhaltliche Prüfung von Fakten beschränken, widmet sich der vorliegender Spotlight-Text dem Themenkomplex Manipulation und Stimmungsmache, der im Rahmen des digilog@bw-Teilprojekts Automatische Erkennung von Verzerrungen in Nachrichtentexten erforscht wird. In Zusammenarbeit von Informatik und den Geistes- und Sozialwissenschaften werden Kriterien erarbeitet, anhand derer Verzerrungen in Nachrichtentexte bewertet werden können. Darüber hinaus wird untersucht, ob Methoden der künstlichen Intelligenz geeignet sind, Media Bias in Nachrichtentexten für BürgerInnen verständlich und nachvollziehbar offenzulegen und sowohl eine ausgewogene Berichterstattung als auch die Medienmündigkeit der BürgerInnen zu fördern.


Diskussion

Die meisten computergestützten Ansätze zur Bewertung von Media Bias verwenden Text-Mining-Methoden, wie etwa die lexikalische Analyse von Wortgruppen (Recasens et al., 2013). Methoden der künstlichen Intelligenz, etwa tiefe neuronale Netze, können darüber hinaus auch komplexe Zusammenhänge erkennen und Wissen aus Nachrichtentexten extrahieren. Durch die Forschung könnte es somit in Zukunft möglich werden, Media Bias in Nachrichtentexten automatisch zu erkennen und eine quantitative Bewertung durchzuführen.

Im Folgenden werden drei Handlungsfelder vorgestellt, die beim Einsatz maschineller Lernverfahren zur Erkennung von Media Bias in dem Teilprojekt untersucht werden:

Handlungsfeld 1:

Bewertungsgrundlagen von Media Bias

Methoden der künstlichen Intelligenz, wie etwa tiefe neuronale Netze, lernen Zusammenhänge anhand von Trainingsdaten, die je nach Anwendungsfall unterschiedlich ausgeprägt sein können. Bei Nachrichtentexten werden etwa Texte zu einem bestimmten Thema nach vorgegebenen Kriterien oft zeitaufwändig annotiert.

Es lassen sich hieraus zwei Herausforderungen ableiten:

  1. Annotationsschema: Geeignete Kriterien zur Bewertung von Media Bias müssen identifiziert und in einem Annotationsschema zusammengefasst werden.
  2. Annotationsprozess: Eine Vielzahl unterschiedlicher Themen steigert den Annotationsaufwand und erfordert einen skalierbaren Annotationsprozess.

Unsere Forschung zeigt auf, dass annotierte Datensätze zur feingranularen Erkennung von Media Bias in Nachrichtentexten bislang fehlen. Da die Annotation durch ExpertInnen zeitaufwändig und teuer ist, stellen wir in dem Forschungspapier (Färber et al., 2020) eine skalierbare Vorgehensweise vor, die Crowdsourcing einsetzt, um die Annotation von Media Bias in Nachrichtentexten zu erzielen. Die Vorgehensweise wird im Rahmen der Berichterstattung zur Ukraine-Krise in 2014 und 2015 angewendet, um einen neuartigen Media Bias Datensatz zu erstellen, der die Verzerrungen anhand eine Annotationsschemas auf Satzebene erfasst: versteckte Annahmen, Subjektivität und Framing.

Handlungsfeld 2:

Informationspräsentation von Media Bias

BürgerInnen sehen sich einer Flut an Nachrichten gegenüber und bei einer Vielzahl kontrovers diskutierter Themen ist es immer schwieriger, einen Überblick über kontrovers diskutierte Themen zu erhalten. Darüber hinaus müssen Ergebnisse intuitiv und verständlich präsentiert werden, um eine ausgewogene Berichterstattung und die Medienmündigkeit der BürgerInnen zu fördern.

Es lassen sich hieraus zwei Herausforderungen ableiten:

  1. Kontroverse Themen: Offenlegung verschiedener Positionen zu einem Thema.
  2. Verständliche Präsentation: Bereitstellung intuitiver Hilfsmittel zur Analyse von Media Bias in Nachrichtentexten.

Verzerrungen in der Berichterstattung können anhand einer Analyse kontroverser Themen offengelegt werden, indem vorherrschende Positionen durch Methoden der künstlichen Intelligenz extrahiert werden. Hierzu können Text-Mining-Systeme Diskussionsportale analysieren, wie etwa Debatepedia.org. Dadurch können kontroverse Themen erkannt und gegensätzliche Positionen in Nachrichtentexten hervorgehoben werden, etwa durch einen Hinweisbanner.

Die Informationsrezeption von Media Bias hängt von der Art und Weise ab, wie die Informationen präsentiert werden. Dabei müssen Informationssysteme nicht nur intuitiv zu bedienen sein, sondern die Ergebnisse auch verständlich präsentieren. Gegenstand unserer Forschung ist hierbei, wie dies für den alltäglichen Nachrichtenkonsum der BürgerInnen erfolgen kann, zum Beispiel durch eine Internetbrowser-Anwendung zur visuellen Hervorhebung relevanter Informationen.

Handlungsfeld 3:

Transparenz der Bewertung von Media Bias

Beim Einsatz maschineller Lernverfahren besteht die Gefahr, dass komplexe Zusammenhänge nicht ausreichend durch die künstliche Intelligenz erfasst werden und so selbst Einfluss auf die Meinungsbildung genommen wird. Entsprechend muss eine Bewertung durch Methoden der künstlichen Intelligenz nachvollziehbar sein und weder diskriminieren noch verzerren.

Es lassen sich hieraus zwei Herausforderungen ableiten:  

  1. Erklärbarkeit der Methoden: Ergebnisse müssen durch Erklärungen nachvollziehbar sein.
  2. Faire Methoden: Methoden müssen frei von Verzerrung sein und nicht diskriminieren.

Die Informationspräsentation muss nicht nur verständlich sein, sondern für die BürgerInnen auch nachvollziehbar und vertrauenswürdig sein. Entsprechend ist eine transparente Präsentation der Ergebnisse von maschinellen Lernverfahren wichtig, z.B. durch Visualisierung. Erklärungen können dabei sowohl selbsterklärend sein als auch durch weiterführende Informationen die Ergebnisse nachvollziehbar machen.

Fair bezeichnet in der Informatik Methoden, die frei von Verzerrung sind und nicht diskriminieren. Durch Eingriffe im Annotations- und Lernverfahren können etwa Ausreißer herausgefiltert werden und eine ausgewogene Bewertungsgrundlage erzielt werden. In unserem dem Forschungspapier (Färber et al., 2020) zeigen wir beispielhaft, dass das Ursprungsland der CrowdworkerInnen im Annotationsprozess einen Einfluss auf die Wahrnehmung von Media Bias haben kann.


Fazit

Dieser Spotlight-Text beschäftigt sich in dem übergeordneten Thema Manipulation und Stimmungsmache mit der Fragestellung, wie künstliche Intelligenz zur Erkennung von Media Bias genutzt werden kann und zeigt drei Handlungsfelder auf, die sich aus dem Einsatz maschineller Verfahren zur Analyse von Media Bias ergeben.

Praktische Anwendung unserer Forschungsergebnisse ergeben sich sowohl im beruflichen Umfeld für JournalistInnen und Verlagen als auch im alltäglichen Umfeld für BürgerInnen. Erstens könnten automatische Analysen genutzt werden, um unmittelbare Textanalysen durchzuführen und eine ausgewogene Berichterstattung zu fördern. Zweitens könnte eine intuitive Internetbrowser-Anwendung bestehende Verzerrungen in Nachrichtentexten für BürgerInnen verständlich und nachvollziehbar offenlegen und so die Medienmündigkeit fördern. Im Weiteren sehen wir auch in der Pädagogik ein weiteres Anwendungsfeld unserer Forschungsergebnisse, z.B. damit SchülerInnen Media Bias und den Umgang mit künstlicher Intelligenz praktisch erfahren und so etwaigen Schwächen in der Entwicklung der Medienmüdigkeit schließen können.

Bitte finden Sie weitere Informationen zu unserem digilog@bw-Projekt "Automatische Erkennung von Verzerrungen in Nachrichtentexten" hier


Literatur:

Hamborg, F., Donnay, K. and Gipp, B: “Automated identitcation of media bias in news articles: an interdisciplinary literature review”. In: International Journal on Digital Libraries, 2019, pp. 391–415, https://doi.org/10.1007/s00799-018-0261-y

D’Alessio, D. and Allen, M. S: “Media bias in presidential elections: a meta-analysis”. In: Journal of Communication, Volume 50, Issue 4, 2000, pp. 133–156, https://doi.org/10.1111/j.1460-2466.2000.tb02866.x

Recasens, M., Danescu-Niculescu-Mizil, C. and Jurafsky, D.: “Linguistic Models for Analyzing and Detecting Biased Language”. In: Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (ACL), 2013. pp. 1650–1659.

Görz, M. and Kolvenbach, M. (2020). Facebook verstärkt Kampf gegen Fake News. URL: https://www.tagesschau.de/investigativ/swr/facebook-corona-103.html

Färber, M., Burkard, V., Jatowt, A., Lim, S. (2020): “A Multidimensional Dataset for Analyzing and Detecting News Bias based on Crowdsourcing”. In: Proceedings of the 29th International Conference on Information and Knowledge Management (CIKM’20), pp. 1–8, https://doi.org/10.1145/3340531.3412876

Partner

Gefördert vom Ministerium für Wissenschaft, Forschung und Kunst Baden-Württemberg aus
Mitteln der Landesdigitalisierungsstrategie digital@bw.