Als Senior Lecturer
am Department of Sociology der City,
University of London hat Dr. Marco
Bastos im Februar 2022 die Studie
“Fact-Checking Misinformation: Eight
Notes on Consensus Reality”
mitverfasst. Diese Studie kombiniert
Datenanalyse mit mehrstufiger
Verarbeitung visueller
Kommunikation, um die visuellen
Rahmen staatlich geförderter
Propaganda in sozialen Medien zu
klassifizieren. Die Autoren stützen
sich auf die Wahlintegritätsdaten
von Twitter, um fünf Propagandaziele
der Internet Research Agency zu
untersuchen, darunter russische und
amerikanische Partisanengruppen. Sie
prüfen, inwieweit ihre Operationen
von der kanonischen Staatspropaganda
abweichen, die durch Symbole der
nationalen Identität und heroische
Männlichkeit gekennzeichnet ist. Die
Ergebnisse zeigen, dass die von der
Internet Research Agency verwendeten
visuellen Rahmen so gestaltet sind,
dass sie die Vox Populi mit
sympathischen, vertrauten oder
attraktiven Gesichtern von
gewöhnlichen Menschen verkörpern.
Die Studie legt nahe, dass sich die
staatlich geförderte Propaganda auf
die subkulturellen und visuellen
Möglichkeiten sozialer Plattformen
eingestellt hat. Die
Berichterstattung über den Krieg in
der Ukraine in sozialen Medien
bestätigt nachträglich diese
Analyse, so Dr. Bastos.
|
|
|
Flagge der
Solidarität, April 2022 |
"Es überrascht nicht, dass
polarisierende Inhalte in den
sozialen Medien während des
russisch-ukrainischen Krieges
florieren. Zermürbungskriege werden
unweigerlich von Propaganda
begleitet, die versucht, so
wahrheitsgetreu wie möglich zu
erscheinen. Dieser Kampf um das
hegemoniale Narrativ wurde deutlich,
als die russische Regierung
beschlossen hat, den Begriff
"spezielle Militäroperation"
durchzusetzen, um die russische
Invasion in der Ukraine zu
beschreiben. Der Streit wird
wahrscheinlich immer
unzusammenhängender werden, da
Russen und Ukrainer Kriegsnarrative
vorantreiben, in denen Fakten
umstritten, nicht nachprüfbar sind
oder allgemein als unrechtmäßig
gelten.
In dieser brenzligen Situation ist
es problematisch, dass soziale
Plattformen keine externe Kontrolle
über die algorithmischen Routinen
bieten, die Inhalte auswählen,
welche den Benutzern angezeigt
werden sollen. Diese Algorithmen
sind optimiert, um Inhalte zu
priorisieren, die das Unternehmen
als wichtig für die Nutzer erachtet.
Die genaue Art dieser Optimierung
wird jedoch durch den geschützten
Charakter der Facebook-Algorithmen
verschleiert, wobei sowohl die Daten
als auch die Modelle, die den
Algorithmen zugrunde liegen, einer
Prüfung durch politische
Entscheidungsträger oder die
Forschungsgemeinschaft entzogen
sind.
Zu den Algorithmen gehören
Empfehlungssysteme, die auf
kollaborativer Filterung (Filterung
sozialer Informationen),
inhaltsbasierter Filterung,
einschränkungsbasierter Empfehlung
und kritikbasierter Empfehlung
basieren. Diese
Empfehlungsalgorithmen werden
kombiniert, um hochgradig
personalisierte Ergebnisse für den
einzelnen Nutzer zu erzielen. Die
Propaganda in den sozialen Medien
hat diese Hinweise natürlich
aufgegriffen und die
Beeinflussungsmaßnahmen so
angepasst, dass identifizierbare und
vertraute Gesichter gewöhnlicher
Menschen eingesetzt werden.
Ausgeklügelte
Beeinflussungsmaßnahmen in den
sozialen Medien sind praktisch nicht
von organischen Inhalten zu
unterscheiden, die durch Algorithmen
verstärkt werden.
Problematisch ist auch, dass
Facebook-Algorithmen einer
intrinsischen Heuristik folgen,
deren Ziele sich eher aus den
Prioritäten des Unternehmens als aus
den strengen Regeln der
journalistischen Praxis ergeben.
Dieser Prozess führt dazu, dass
Hunderte von Inhalten destilliert
werden, um dem Nutzer diejenigen
anzuzeigen, die ihn den Vorhersagen
zufolge am meisten interessieren
könnten. Leider sind die Inhalte,
mit denen die Nutzer am ehesten
etwas anfangen können, nicht die,
die am ehesten zutreffend sind.
Vielmehr handelt es sich dabei um
eine Untergruppe von Inhalten, die
eher emotionale Reaktionen auslösen.
Es gibt auch immer mehr Beweise
dafür, dass Facebook-Feed eine
übermäßige Auswirkung auf harte
Nachrichteninhalte hat, genau die
Untergruppe von Inhalten, die dazu
beitragen können, die Kluft zwischen
Propaganda und tatsächlicher
Realität zu überbrücken. Tageschehen
und Politik sind eher von
algorithmischen Änderungen betroffen
als Nachrichten rund um Lifestyle,
Sport und Kunst. Die asymmetrische
Macht, die soziale Plattformen in
den letzten zehn Jahren auf
Nachrichtenorganisationen ausgeübt
haben, ist eine weitere Kraft, die
die Integrität des
Informationsökosystems
beeinträchtigt, insbesondere im
Hinblick darauf, wie
vertrauenswürdige Informationen und
Nachrichten online abgerufen und
konsumiert werden. Leider wird sich
diese Kluft im Kontext eines
Zermürbungskrieges wahrscheinlich
nur noch weiter verschärfen. "
Siehe auch:
https://doi.org/10.1080/1461670X.2022.2031259
Siehe auch:
https://journals.sagepub.com/doi/full/10.1177/14614448211026580
Über Dr. Marco Bastos
Dr. Marco Bastos ist Senior Lecturer
in der Abteilung für Soziologie an
der City University of London, wo er
Medien- und Kommunikationstheorie
und Forschungsmethoden unterrichtet.
Zuvor hatte er Forschungspositionen
an der Universität von Sao Paulo,
der University of California in
Davis und der Duke University inne,
wo er Mitglied des Duke Network
Analysis Center ist.
Im Jahr 2017 zeigte Dr. Bastos'
Forschung Beweise für Netzwerke von
Tausenden von verdächtigen
Twitter-Bots, die im Vorfeld des
EU-Referendums daran arbeiteten, die
Brexit-Debatte zu beeinflussen. Die
Untersuchung wurde zu einer
wichtigen internationalen Nachricht,
die zunächst von Buzzfeed
veröffentlicht wurde.
Seine Untersuchungen befassen sich
mit den soziologischen Aspekten
digitaler Medien, wobei sein
Hauptinteresse den Wechselwirkungen
zwischen sozialen Online- und
Offline-Netzwerken gilt. Seine
Forschung verbindet Kommunikations-
und computergestützte
Sozialwissenschaften. Der Quellcode
seiner Projekte ist auf CRAN und
GitHub verfügbar.
Foto (c)
Kulturexpress, Meldung: Ida Junker,
Agentur PPOOL, Paris