Nachrichten
© Matthew Guay on Unsplash

Automatische Erkennung von Verzerrungen in Nachrichtentexten

Michael Färber und Frederic Bartscherer, KIT

Das öffentliche Meinungsbild wird auf immer breitere Art und Weise geformt. Dabei ist festzustellen, dass digitale Medien das Meinungsbild in zunehmendem Maße beeinflussen und immer öfters Debatten über eine verzerrte Berichterstattung geführt werden. In diesem Zusammenhang sind insbesondere die Lügenpresse- und Fake-News-Debatten der letzten Jahre nennenswert, die sowohl die Objektivität von JournalistInnen und Verlagen als auch die Verzerrungen in digitalen Nachrichtenkanälen kritisieren. 2014 wurde im Rahmen der damaligen Pegida-Demonstrationen die Lügenpresse-Debatte geführt, die auf eine Diffamierung der Medien und Medienvertreter abzielte, indem Medien die vorsätzliche Meinungsmanipulation unterstellt wurde beziehungsweise Medienvertreter als Lügner beschuldigte wurden. Der Begriff „Lügenpresse“ hat seinen Ursprung in der rechten Propaganda des Ersten Weltkriegs und wurde 2014 schließlich auch zum „Unwort des Jahres“ gewählt. Im Weiteren hat sich in den letzten Jahren, insbesondere seit der US-Präsidentschaftswahl 2016, durch diverse Fake-News-Debatten eine kritische Haltung der Öffentlichkeit gegenüber Nachrichteninhalten manifestiert. Es scheint, dass sich insbesondere im Internet der Vorwurf der verzerrten Berichterstattung zu einer weit verbreiteten Meinung entwickelt hat, die zwischenzeitlich auch große Internetkonzerne wie Facebook zum Handeln zwingt (Görz 2020). Zusätzlich ist zu bedenken, dass die Veröffentlichung und Verbreitung von Informationen durch digitale Medien erheblich vereinfacht wird, sodass über eine Vielzahl von digitalen Nachrichtenkanälen beliebige Personenkreise eine hohe Reichweite erzielen können. Es ist offensichtlich, dass hierbei nicht immer eine objektive und neutralen Sichtweise gewährleistet ist und den ethischen Standards für den Journalismus nicht unbedingt Rechnung getragen wird.

Verzerrungen in Nachrichtentexten stehen im Forschungsfokus vieler Disziplinen. Bedeutend sind hierbei insbesondere die Sozial- und Geisteswissenschaften, in denen ExpertInnen meist in einem ganzheitlichen Ansatz beispielsweise Inhalts- und Meta-Analysen durchführen, um verschiedene Arten von Verzerrungen in Nachrichtentexten offenzulegen. In der Informatik hingegen steht die automatische Erkennung durch maschinelle Lernverfahren im Vordergrund. Die automatische Erkennung von Verzerrungen ist ein aufstrebender Forschungsbereich im Bereich der natürlichen Sprachverarbeitung, der eng mit der Erkennung von Fake-News und Gerüchten verbunden ist. Mit einem computergestützten System könnte beispielsweise ein Hilfsmittel bereitgestellt werden, das Verzerrungen unmittelbar offenlegt und zeitintensive Analysen ergänzt. Nicht nur JournalistInnen und Verlage könnte hiervon profitieren, sondern insbesondere auch BürgerInnen, denen ein Hilfsmittel zur Verfügung stünde, um etwaige Verzerrungen in Nachrichtentexten anzuzeigen.

Im Rahmen von digilog@bw beschäftigen wir uns im Teilprojekt „Automatische Erkennung von Verzerrungen in Nachrichtentexten“ mit der Fragestellung, wie verschiedene Arten von Verzerrungen in Nachrichten – etwa eine einseitige Berichterstattung über Personen und Ereignisse  – mittels maschineller Lernverfahren identifiziert werden können. Hierzu wird in Zusammenarbeit von Informatik und den Geistes- und Sozialwissenschaften erforscht, welche Kriterien von Algorithmen berücksichtigt werden müssen, um Verzerrungen in Nachrichtentexten für BürgerInnen offenzulegen und einen konstruktiven Diskurs in zukünftigen Debatten zu fördern.

Unsere Forschung zeigt auf, dass annotierte Datensätze zur feingranularen Erkennung von Verzerrungen in Nachrichtentexten (im Englischen „News Bias“) bislang fehlen. Datensätze beschreiben die Grundwahrheit (im Englischen „ground truth“) für einen spezifischen Fall und werden durch neue Forschungsansätze verarbeitet, z.B. künstliche neuronale Netzwerke. Damit sind annotierte Datensätze ein wesentlicher Aspekt für das Training und die Evaluation von maschinellen Lernverfahren. Da die Annotation durch ExpertInnen zeitaufwändig und teuer ist, stellen wir in dem Forschungspapier (Färber et al. 2020 a) eine skalierbare Vorgehensweise vor, die Crowdsourcing einsetzt, um eine feingranulare News Bias Annotation zu erzielen. Die Vorgehensweise wird im Rahmen der Berichterstattung zur Ukraine-Krise in 2014 und 2015 angewendet, um einen neuartigen News Bias Datensatz zu erstellen, der die Verzerrungen anhand der folgenden drei Kategorien erfasst: versteckte Annahmen, Subjektivität und Framing. Der veröffentlichte Datensatz besteht aus 90 Nachrichtenartikeln, 2.057 Sätzen und insgesamt 44.547 Annotationen. Der Datensatz bildet die Grundlage für die weitere Forschung im Rahmen des Teilprojekts, etwa dem Training von maschinellen Lernverfahren, und steht darüber hinaus unter einer freien Lizenz zum Download zur Verfügung (Färber et al. 2020 b), um die Forschung anderer WissenschaftlerInnen im Bereich News Bias zu fördern.

 

Literatur:

Görz, M., Kolvenbach, M. (2020). Facebook verstärkt Kampf gegen Fake News. URL: https://www.tagesschau.de/investigativ/swr/facebook-corona-103.html

Färber, M., Burkard, V., Jatowt, A., Lim, S. (2020 a). A Multidimensional Dataset for Analyzing and Detecting News Bias based on Crowdsourcing. Proceedings of the 29th International Conference on Information and Knowledge Management (CIKM’20), online, 1-8 (in Veröffentlichtung)

Färber, M., Burkard, V., Jatowt, A., Lim, S. (2020 b). A Multidimensional Dataset for Analyzing and Detecting News Bias based on Crowdsourcing

.

Partner

Gefördert vom Ministerium für Wissenschaft, Forschung und Kunst Baden-Württemberg aus
Mitteln der Landesdigitalisierungsstrategie digital@bw.