19.12.2020 Polarisierung, Verschwörungstheorien, Fake News: Für demokratische Gesellschaften ist es eine bedenkliche Entwicklung, wenn intransparente Algorithmen einiger weniger Konzerne entscheiden, was wir im Internet zu sehen bekommen. Dabei könnten wir das Internet auch so gestalten, dass Autonomie und Transparenz gefördert und damit das positive Potenzial des Internets verstärkt wird.
Ein Forscherteam des Max-Planck-Instituts für Bildungsforschung in Berlin, der University of Bristol und der Harvard Law School hat sich mit diesem Thema aus verhaltenswissenschaftlicher Perspektive beschäftigt und Vorschläge für Interventionen zugunsten eines demokratischeren Internets erarbeitet. Die Ergebnisse wurden im Journal Nature Human Behaviour veröffentlicht.
Da taucht plötzlich in unserem Feed auf YouTube, Facebook oder Twitter ein Video auf, in dem jemand von Geheimabsprachen in der Politik, von Verschwörungen der Medien oder gefälschten Studien berichtet. Alles untermauert er oder sie mit angeblichen Fakten. Das Video hat hunderttausende Klicks und scheint sich weltweit zu verbreiten. Und einer größeren Zahl der Zuschauer*innen scheint es zu gefallen, sie haben „Daumen nach oben“ hinterlassen.
Doch was heißt das jetzt genau? Ist es deshalb glaubwürdig? Wie viele der Zuschauer*innen haben sich überhaupt das gesamte Video angesehen, wie viele sind abgesprungen? Und warum kriege ich das Video überhaupt zu sehen? Die Plattform kennt viele der Antworten, aber wir erhalten diese Informationen nicht. Auch sonst gibt es keine weiterführenden Informationen, die uns helfen könnten, den Inhalt, seine Qualität und Glaubwürdigkeit einzuschätzen.
Um sich über die aktuelle Nachrichtenlage zu informieren, greifen mehr als die Hälfte (55 Prozent) der weltweiten Internet-Nutzer*innen heute auf soziale Medien oder Suchmaschinen zurück, so das Ergebnis des Reuters Institute Digital News Report 2019. Die öffentliche Meinung wird somit zu einem erheblichen Teil durch Online-Inhalte geprägt, die wiederum von Algorithmen kuratiert werden.
„Mit dem Ziel, die Nutzer*innen möglichst lange bei Laune und somit auf der jeweiligen Plattform zu halten, geht es darum, zu unterhalten und ein Wohlfühlgefühl zu etablieren. Daher gibt es bei vielen Plattformen wohl auch keine Bewertungsknöpfe, die Ablehnung gegenüber Inhalten zum Ausdruck bringen. Es wird das Gefühl vermittelt: Du hast recht. Das mag beim Teilen von privaten Inhalten wie Urlaubsgrüßen harmlos sein, bei radikalen Meinungen und der Verbreitung von Unwahrheiten verzerrt es jedoch das Bild“, sagt Co-Autor Stephan Lewandowsky, Professor für Kognitive Psychologie an der University of Bristol.
Ein weiteres Problem ist, dass News-Feed-Algorithmen den Nutzer*innen nur die Inhalte zeigen, denen sie – basierend auf ihrem vergangenen Nutzerverhalten – eher zustimmen würden. Andere Standpunkte bekommen sie meist gar nicht erst zu sehen. So bilden sich Netzwerke von gleichgesinnten Nutzer*innen, die die gleiche Meinung teilen, diese verstärken und so die Illusion bekommen, dass ihre eine Mehrheitsmeinung sei, auch wenn das in Relation zu allen anderen Nutzer*innen nicht stimmt.
Doch wie schaffen wir es, Fake News von Fakten zu unterscheiden? Und wie müsste das Internet aussehen, um uns dabei zu unterstützen? „Wir schlagen Interventionen vor, die in erster Linie darauf abzielen, die individuellen Internetnutzer zu ermächtigen, informierte und autonome Entscheidungen in Online-Umgebungen zu treffen – im besten Fall, ohne sich auf externe Faktenprüfer verlassen zu müssen. Schließlich beeinflusst die Architektur der Online-Umgebungen unser Verhalten. Wenn wir das Internet anders denken wollen, müssen wir das menschliche Verhalten daher verstehen und bei der Gestaltung des Internets berücksichtigen“, sagt Philipp Lorenz-Spreen, Erstautor und Wissenschaftler am Max-Planck-Institut für Bildungsforschung.
Das Forscherteam identifizierte technologisch verfügbare, aber bisher weitgehend unerschlossene Möglichkeiten, die genutzt werden können, um das Bewerten von Inhalten und ihrer Qualität zu erleichtern und die Mechanismen der Algorithmen besser zu verstehen. Und das, ohne die ursprüngliche freiheitliche Grundphilosophie des Internets zu beschneiden. Auf dieser Basis erarbeitete das Forscherteam konkrete Empfehlungen und nutzte dabei zwei mögliche Ansätze aus den Verhaltenswissenschaften, mit denen das Individuum in seiner Online-Umgebung gestärkt werden könnte: Nudging (Stupsen) und Boosting (Stärken).
Der Nudging-Ansatz zielt darauf ab, das Verhalten von Menschen ohne explizite Regeln oder Verbote in eine bestimmte Richtung zu lenken, indem auf wichtige Informationen hingewiesen wird. Boosting möchte die Entscheidungskompetenz von Menschen so stärken, dass sie in der Lage sind, sich besser zurechtzufinden und bessere Entscheidungen zu treffen. Letztlich sei es aber wichtig, gleichzeitig verschiedene Ansätze zu verfolgen, um möglichst viele verschiedene Menschen zu erreichen.
Nudging könnte zum Beispiel zum Einsatz kommen, wenn es darum geht zu kennzeichnen, ob Inhalte bestimmte Qualitätskriterien erfüllen – so zum Beispiel, ob es ausreichende Quellangaben gibt oder nicht. Das würde einerseits daran erinnern, diese Inhalte gründlicher zu prüfen, und gleichzeitig einen Anreiz für Produzent*innen schaffen, die geforderten Kriterien der Plattform zu erfüllen.
Einen Schritt weiter ginge das Hinzufügen von Hyperlinks zu überprüften Quellen. Vorbildcharakter könnte hier die Plattform Wikipedia mit ihren Quellangaben und Querverweisen haben. Sie ermöglichen den Leser*innen, den gesamten Kontext leichter zu verstehen. Twitter hat vor kurzem einen Schritt in diese Richtung gemacht und damit angefangen, bestimmte Tweets mit einem Hinweis zu markieren und zu einem Faktencheck zu verlinken – beispielsweise auch bei einem Tweet von Donald Trump zum Thema Briefwahl.
Nudges könnten auch zusätzliche Informationen darüber vermitteln, was andere tun, wie sie es bewerten und wie dies im Zusammenhang zu betrachten ist. So kann zum Beispiel die Anzahl der Likes ins Verhältnis zu den Leser*innen insgesamt gesetzt werden: 4.287 von 1.5 Millionen Leser*innen mochten diesen Artikel. Wurde ein Artikel zum Beispiel zwar 44.000 Mal angeklickt, aber – mit Blick auf die Verweildauer – nur 3.000 Mal bis zum Ende gelesen, könnte das ein Hinweis auf seine Qualität sein, die über die bloße Information zu den Klicks und Likes hinausgeht.
Es hat sich bereits gezeigt, dass solche transparenten Angaben medizinische Entscheidungen verbessern können. Warum nicht auch im Internet. Dies könnte verhindern, dass sich Echokammern in Gruppen bilden und diese fälschlicherweise glauben, ihre Meinung sei im Internet weit verbreitet und akzeptiert.
In ähnlicher Weise könnte es Nutzer*innen etwas erschwert werden, Informationen mit wenigen Quellangaben zu teilen. So zum Beispiel, indem die Freigabe einen weiteren Mausklick in einem Popup-Fenster erfordert und zusätzlich darauf hingewiesen wird, dass Informationen fehlen. Eine andere Art von Stupsern zielt darauf ab, wie Inhalte in Browsern angeordnet sind, das heißt wie unser Nachrichten-Feed gestaltet ist. Einfacher wäre es für die Nutzer*innen, wenn zwischen Inhaltstypen, wie Meinungen und Nachrichten, unterschieden würde oder auch Beiträge von Freund*innen als solche gekennzeichnet wären.
Boosting hingegen zielt darauf ab, die Nutzer*innen langfristig kompetenter zu machen. Mit Blick auf den Nachrichten-Feed könnte dies bedeuten, dass Nutzer*innen befähigt werden, selbst anpassen zu können, wie eigene Nachrichten-Feeds gestaltet und sortiert sind. Das heißt, die Nutzer*innen entscheiden durch eigene Einstellungen, welche Faktoren ihnen am wichtigsten sind und was sie zuerst sehen möchten. Soziale Netzwerke könnten darauf hinweisen, warum ein Inhalt wie gewichtet und uns zuerst gezeigt wird, während andere Inhalte nachrangig behandelt werden.
Ein anderes Beispiel für eine Boosting-Maßnahme wäre es, Informationen darüber zu geben, von wem ein Inhalt ursprünglich stammt und wie genau er sich verbreitet hat. Um Herkunft, Kontext und Qualität von Online-Inhalten besser einschätzen zu können, könnten auch Entscheidungsbäume zum Einsatz kommen. Diese würden den Nutzer*innen Prüfkriterien an die Hand geben, mit deren Hilfe sie selbst Inhalte systematisch prüfen und somit sozusagen zum Faktenchecker in eigener Sache werden können. Auf längere Sicht könnten Nutzer*innen so Muster erkennen, den kritischen Umgang mit Inhalten lernen sowie Manipulationen schneller erkennen.
„Der interaktive Charakter der sozialen Medien könnte genutzt werden, um einen vielfältigen demokratischen Dialog und die kollektive Intelligenz zu fördern. Es geht darum, neue Wege zu finden, um das Potenzial des Internets mit Blick auf demokratische Gesellschaften und deren Entscheidungsprozesse zu stärken, anstatt diese zu untergraben. Globale Probleme wie der Klimawandel oder die Coronavirus-Pandemie erfordern koordinierte, kollektive Lösungen. Dafür brauchen wir eine demokratisch-vernetzte Online-Welt“, sagt Ralph Hertwig, Direktor des Forschungsbereichs „Adaptive Rationalität“ am Max-Planck-Institut für Bildungsforschung.
Quellenangabe: Max-Planck-Institut für Bildungsforschung – Lorenz-Spreen, P., Lewandowsky, S., Sunstein, C. R., & Hertwig, R. (2020). How behavioural sciences can promote truth, autonomy and democratic discourse online. Nature Human Behaviour. doi: 10.1038/s41562-020-0889-7
Ähnliche Artikel / News / Themen
- News aus der Forschung zur Psychologie der sozialen Medien