Amerikaner, die auf Twitter nach politischen Erkenntnissen und Informationen suchen, sollten wissen, wie viel von dem, was sie sehen, das Ergebnis automatisierter Propagandakampagnen ist.
Fast vier Jahre nachdem meine Mitarbeiter und ich 2016 aufgedeckt haben, wie automatisierte Twitter-Konten die Online-Wahldiskussionen verzerrten, scheint die Situation nicht besser zu sein. Und das trotz der Bemühungen von politischen Entscheidungsträgern, Technologieunternehmen und sogar der Öffentlichkeit, Desinformationskampagnen in sozialen Medien zu unterbinden.
In unserer jüngsten Studie haben wir 240 Millionen wahlbezogene Tweets gesammelt, in denen Präsidentschaftskandidaten und wahlbezogene Schlüsselwörter erwähnt werden und die zwischen dem 20. Juni und dem 9. September 2020 gepostet wurden. Wir haben nach Aktivitäten von automatisierten (oder Bot-)Konten und nach der Verbreitung von verzerrten oder verschwörungstheoretischen Narrativen gesucht.
Wir fanden heraus, dass auf Twitter viele Verschwörungstheorien, darunter auch QAnon, unter echten Menschen nicht ganz so beliebt sind, wie Medienberichte vermuten lassen. Aber die Automatisierung kann die Verbreitung dieser Ideen erheblich steigern und ihre Macht aufblähen, indem sie ahnungslose Nutzer erreicht, die möglicherweise nicht durch Beiträge ihrer Mitmenschen, sondern durch Bots, die auf die Verbreitung des Wortes programmiert wurden, angelockt werden.
In der Regel werden Bots von Personen oder Gruppen erstellt, die bestimmte Ideen oder Standpunkte verbreiten wollen. Wir haben festgestellt, dass Bots in Online-Diskussionen über rechte und linke Ansichten ungefähr gleich aktiv sind und etwa 5 % der in diesen Threads aktiven Twitter-Konten ausmachen.
Bots scheinen sich in politischen Gruppen, die Verschwörungstheorien diskutieren, besonders wohl zu fühlen, denn sie machen fast 13 % der Konten aus, die Beiträge mit verschwörungstheoriebezogenen Hashtags und Schlüsselwörtern tweeten oder retweeten.
Anschließend haben wir uns drei Hauptkategorien von Verschwörungen genauer angesehen. Die eine war eine Kategorie von angeblichen Skandalen, die mit dem Suffix „-gate“ beschrieben wurden, wie „Pizzagate“ und „Obamagate“. Die zweite Kategorie waren politische Verschwörungen im Zusammenhang mit COVID-19, wie z. B. die voreingenommene Behauptung, dass das Virus absichtlich von China verbreitet wurde oder dass es über aus China importierte Produkte verbreitet werden könnte.
Die dritte Kategorie war die QAnon-Bewegung, die als „kollektive Wahnvorstellung“ und „virtueller Kult“ bezeichnet wurde. Diese drei Kategorien überschneiden sich: Konten, die über Material aus einer dieser Kategorien twitterten, tweeteten wahrscheinlich auch über Material aus mindestens einer der anderen Kategorien.