Narrativ, kreativ – immersiv? Das immersive Potenzial rechtsextremer Kommunikation in den sozialen Medien

Sandra Kero
Center for Advanced Internet Studies (CAIS), Bochum


Josephine B. Schmitt 
Center for Advanced Internet Studies (CAIS), Bochum 


Soziale Medien sind allgegenwärtig. Ob Facebook, Instagram oder TikTok – immer mehr Menschen nutzen diese Plattformen, um ihre Erlebnisse, Meinungen und Interessen direkt mit anderen zu teilen. Doch was bedeutet das für unsere Erfahrungen in diesen digitalen Räumen – und welche Effekte hat dies auf unsere politische Meinungsbildung? Insbesondere immersive Erfahrungen, die Nutzer:innen in diesen Medienumgebungen erleben, können starke emotionale Wirkungen hervorrufen und politische oder ideologische Einstellungen beeinflussen. In diesem Blogbeitrag beschäftigten wir uns mit diesen immersiven Effekten von Social-Media-Plattformen. Neben einer detaillierten Auseinandersetzung mit der Frage, was Immersivität in diesem Zusammenhang genau bedeuten kann, stellen wir vor dem Hintergrund medien- und kommunikationswissenschaftlicher sowie psychologischer Konzepte und Theorien Mechanismen vor, die zur Immersivität rechter Kommunikation in sozialen Medien beitragen. Basierend auf diesen Erkenntnissen geben wir abschließend Handlungsempfehlungen, die darauf abzielen, präventive und repressive Maßnahmen gegen den missbräuchlichen und antidemokratischen Einsatz immersiver Umgebungen zu entwickeln.

EINFÜHRUNG

Social-Media-Plattformen wie Instagram oder TikTok sind ein beliebtes Tool rechtsextremer Akteur:innen. Als politische Außenseiter:innen machen sie sich die Möglichkeiten sozialer Medien zunutze, sich als ein unabhängiges Sprachrohr jenseits journalistischer Medien zu etablieren, um so ihre Narrative zu inszenieren, politische Meinungen und ideologische Einstellungen zu kanalisieren sowie neue Mitglieder zu rekrutieren (Fielitz & Marcks, 2020; Rau et al., 2022; Schmitt, Harles, et al., 2020; Schwarz, 2020). Auf Instagram setzt die rechte Szene gezielt auf Creator:innen, Lifestyle und Naturverbundenheit, um die Ideologie leichter „verdaulich“ zu gestalten (Echtermann et al., 2020). Dabei werden ideologische Inhalte nicht nur subtil aufbereitet, oft werden die entsprechenden ideologischen Perspektiven explizit formuliert (Kero, im Druck). Aber auch TikTok, beliebt insbesondere bei jungen Nutzer:innen (mpfs, 2022), gewinnt als Plattform zunehmend an Bedeutung für die rechte Szene, um mit noch politisch wenig gefestigten Zielgruppen zu interagieren (pre:bunk, 2023). Auch hier ist die Bandbreite der Aufbereitung an Inhalten groß: Neben vermeintlich humoristisch und musikalisch aufbereiteten Content finden sich hier auch Formate von AfD-Politiker:innen, die ihre Überzeugungen zur Schau stellen. Durch Normalisierungsstrategien, z.B. pseudowissenschaftliche Falschinformationen oder Emotionalisierung, wird extrem rechtes Gedankengut anschlussfähig (Müller, 2022).

Social-Media-Plattformen bieten nicht nur jeder Person die Möglichkeit, in den öffentlichen politischen Diskurs einzutreten. Die verbreiteten Inhalte lassen zudem die Grenzen zwischen politischer Information, Unterhaltung und Sozialem verschwimmen. Gleichzeitig begünstigen unterschiedliche Funktionalitäten sozialer Medien immersive Erfahrungen der Nutzer:innen – ein Umstand, von dem insbesondere rechtsextremistische Akteur:innen im Rahmen ihrer Kommunikationspraktiken profitieren können. 

Dieser Beitrag hat zum Ziel, Immersivität rechtsextremistischer Inhalte in sozialen Medien zu kontextualisieren und ausgewählte immersive Mechanismen innerhalb dieser Umgebungen exemplarisch darzustellen. Aufbauend darauf sollen Präventionsmaßnahmen abgeleitet werden. 

WAS VERSTEHEN WIR UNTER IMMERSION?

Grundlegend bezieht sich Immersion auf das Eintauchen oder Vertiefen in eine bestimmte Umgebung, Aktivität oder Erfahrung (Murray, 1998). Immersion wird oft als Eigenschaft digitaler Technologien wie etwa Virtual Reality (VR), Augmented Reality (AR) oder im Gaming-Bereich diskutiert (Mühlhoff & Schütz, 2019; Nilsson et al., 2016). Aus medientheoretischer und medienpsychologischer Perspektive beschreibt der Begriff primär den Zustand der Auflösung physischer und fiktiver Grenzen; also die subjektiven Erfahrungen von Nutzer:innen, in eine fiktive Welt oder eine erzählerische Umgebung einzutauchen und in diese emotional involviert zu sein (z.B. E. Brown & Cairns, 2004; Haywood & Cairns, 2006). Damit verbunden ist in der Regel ein starkes Gefühl von Präsenz, bei dem die Wahrnehmung und Aufmerksamkeit auf die jeweiligen immersiven Inhalte gerichtet sind, die Aufmerksamkeit für Zeit und (realen) Raum dagegen sinkt für die Dauer der Immersion (Cairns et al., 2014; Curran, 2018). Immersive Umgebungen und Mechanismen können Engagement und Lernen (Dede, 2009), aber auch die ideologische Wirkung von Inhalten bei den Nutzenden begünstigen (Braddock & Dillard, 2016).

Losgelöst von einem Begriffsverständnis, das sich auf ein technik- oder kulturversiertes bzw. psychologisches Phänomen beschränkt, betrachten Mühlhoff und Schütz (2019) Immersion aus einer affekttheoretischen sowie sozialtheoretischen Perspektive. Immersion wird hier als eine dynamische Wechselwirkung zwischen (nicht-)menschlichen Individuen untereinander und ihrer Umgebung beschrieben, also als „einen bestimmten Modus emotionaler und affektiver Einbindung in ein gegenwärtiges oder mediatisiertes soziales Geschehen“ (S. 20). Affekte sind dabei spontane, instinktive Reaktionen, die sowohl individuell als auch sozial beeinflusst sein können und das Verhalten einer Person prägen (u.a. Strick, 2021). Die Gestaltung bestimmter (Medien-)Umgebungen kann gezielt affektive Reaktionen beeinflussen und somit auch Machtverhältnisse und soziale Dynamiken modulieren (Mühlhoff & Schütz, 2019). In diesem Sinne können bestimmte Immersionsangebote dazu beitragen, Verhalten zu steuern und zu regulieren – also eine „immersive Macht“ (S. 30) erzeugen. Immersion kann daher als eine Form situativer Einflussnahme auf das Denken und Fühlen des Individuums betrachtet werden. Sie stellt eine indirekte Ausübung von Macht dar, die hierarchiefrei und durch soziale Kontexte entsteht.

Immersion wird aus den unterschiedlichsten wissenschaftlichen Disziplinen (z.B. Psychologie, Computerwissenschaften, Kognitionswissenschaften, Design) betrachtet, ebenso vielfältig sind daher auch die Synonyme bzw. eng verwandten Konzepte. So findet man in der Literatur Begriffe wie Präsenz, Flow, Involvement und Engagement, welche ähnliche Phänomene beschreiben (siehe dazu z.B. Curran, 2018; Nilsson et al., 2016). Für die Umschreibung psychologischer Immersion im Rahmen der Rezeption narrativ gestalteter Medieninhalte wird in der medienpsychologischen und kommunikationswissenschaftlichen Forschung der Begriff Transportation verwendet (siehe z.B. Moyer-Gusé, 2008). Immersion als subjektive Erfahrung von Nutzer:innen ist dabei nicht auf ein spezifisches Medium oder auf eine spezifische Technologie limitiert. So kann neben einem Computerspiel oder einer VR-Anwendung auch eine Lernsituation, ein Buch, Film oder aber auch ein Social-Media-Angebot immersiv wirken.

Vor dem Hintergrund dieses integrativen Begriffsverständnisses befassen wir uns in dem vorliegenden Beitrag mit immersiven Mechanismen in und durch soziale Medien und ihren Inhalten. Dabei geht es uns vor allem um die soziale und psychologische Dimension von Immersivität.

IMMERSIVE MECHANISMEN IN DEN SOZIALEN MEDIEN

Soziale Medien können auf unterschiedliche Weise zu immersiven Mechanismen und Effekten beitragen. Vor dem Hintergrund des medientheoretischen und -psychologischen Verständnisses von Immersion betreffen diese Erfahrungen einerseits die stetige Präsenz von Smartphones und, mit ihnen, Applikationen sozialer Medien in unserem Alltag, welche zu einer Verschmelzung von virtuellem, physischem und sozialem Raum führt. Auch die primäre Nutzungsart von Social-Media-Plattformen, so etwa das direkte Teilen von Alltagserfahrungen, Interessen und Meinungen, sowie die (psychologische) Verbindung mit solchen individuellen Inhaltehersteller:innen, folgend „Creator:innen“, und ihren Postings verstärken die emotionale Involviertheit der Nutzer:innen. Aus sozialtheoretischer Perspektive entsteht hier ein Machtgefüge, in welchem affektive Dynamiken gezielt genutzt werden können, um Verhaltensweisen, Einstellungen und Wahrnehmungen von Individuen zu beeinflussen.

Im Folgenden wollen wir uns zugrunde liegenden Mechanismen eingehender widmen, um dem immersiven Potenzial sozialer Medien in der Kommunikation rechtsextremistischer Creator:innen auf den Grund zu gehen. Dabei soll folgend zwischen zwei Kontexten unterschieden werden: der Plattformumgebung als Umgebung des sozialen Geschehens sowie der Wechselwirkung zwischen Individuen und Inhalten in dieser Umgebung.

Die Inszenierung der eigenen Figur und Geschichte

Um die Konkurrenz um die uneingeschränkte Aufmerksamkeit der Nutzer:innen schalten sich in sozialen Medien auch diverse rechtsextremistische Akteur:innen ein. Der Anteil an rechtsextremem Content wächst seit Jahren stetig (siehe z.B. Munger & Phillips, 2022). Meinungen werden zum Verkaufsgegenstand. Social Media-Marketingstrategien werden dazu genutzt, um die Aufmerksamkeit der Nutzer:innen zu binden (Cotter, 2019) und Meinungsbildung im Sinne der rechten Ideologie zu betreiben. Dabei spielen die Inszenierung der eigenen Medienfigur und die Art und Weise, wie die Geschichten erzählt werden, eine wichtige Rolle für die Immersivität und Wirkung der bereitgestellten Inhalte.

Aus der rechten Szene heraus haben sich in den vergangenen Jahren eine Reihe von Creator:innen sowie auch Influencer:innen entwickelt. Sie sind eine wichtige Voraussetzung dafür, Nutzer:innen zu erreichen – v.a. solche, die sich sonst nicht für politische Inhalte interessieren. Im Allgemeinen handelt es sich bei den Influencer:innen um zuvor unbekannte Social Media-Nutzer:innen, die sich durch eine durchdachte Selbstinszenierung und das regelmäßige Verbreiten von Inhalten in den sozialen Medien zu bekannten Persönlichkeiten entwickeln und eine Bandbreite von Themen auf ihren Kanälen behandeln (Bauer, 2016). 

Insbesondere weibliche Aktivist:innen nutzen beliebte Social-Media-Plattformen, um die rechtsextreme Ideologie persönlich und emotional verpackt in Kochrezepten, Beauty-Tipps und inspirierenden Landschaftsbildern bei einem großen Publikum zu platzieren (Ayyadi, 2021; Echtermann et al., 2020; Kero, im Druck); die Grenzen zwischen Unterhaltung, Lifestyle und Politik sind dabei fließend. Die Creator:innen dienen als Rollenmodelle (Zimmermann et al., 2022), Meinungsführer:innen im Hinblick auf demokratiegefährdende Inhalte (Harff et al., 2022), können User:innen an Inhalte und Kanäle binden und über persönliche Bezüge zur Interaktion animieren (Leite et al., 2022). Je vertrauenswürdiger und zentraler Creator:innen wahrgenommen werden, desto mehr berichten Rezipient:innen über immersive Erfahrungen mit dem Medienangebot (Jung & Im, 2021).

Dabei sind es vor allem die kommunikativen Vermittlungsstile der Inhaltsproduzierenden, die die Rezipient:innen in ihre Alltagswelt regelrecht eintauchen lassen. Sie erzählen Geschichten von Natur, Heimat und einem souveränen deutschen Volk, geben einfache Antworten auf komplexe politische Fragestellungen, Feindbilder als Verantwortliche für gesellschaftliche Problemlagen sind schnell gefunden und anhand vermeintlich eindeutiger Charakteristiken schnell identifiziert (siehe Abbildung 1). Sie greifen durch ihre Narrative nicht nur identitäts- und sinnstiftend ein, sondern bieten Rezipient:innen eine starke Gruppe, die Interessierten einen Rahmen und (politische) Orientierung gibt. Humoristische sowie an Pop- und Jugendkultur orientierte Formate werden dafür genutzt, Inhalte leicht verdaulich zu gestalten und die Rezipient:innen an Kanäle und Creator:innen zu binden (Schmitt, Harles, et al., 2020, siehe auch Abbildung 2). Das Netz an rechten Akteur:innen in den sozialen Medien ist dicht, sie verweisen gegenseitig auf ihre Geschichten und Narrative – und das auch plattformübergreifend (Chadwick & Stanyer, 2022). Eine vermeintliche Konsistenz von Erzählungen, d.h. die gleiche Geschichte wird durch mehrere Akteur:innen erzählt, lässt eine Geschichte dadurch zusätzlich glaubwürdig erscheinen.

MECHANISMEN NARRATIVER PERSUASION WERDEN GEZIELT EINGESETZT

Die medienpsychologische und kommunikationswissenschaftliche Forschung identifiziert drei Mechanismen, die Geschichten überzeugend und rechtsextremistische Kommunikation damit besonders immersiv und wirksam machen: Transportation, Identifikation und parasoziale Interaktionen (siehe z.B. Braddock, 2020). 

Transportation beschreibt den Umstand, dass Menschen, um das in einer Geschichte präsentierte Narrativ zu verstehen, ihre Aufmerksamkeit von der realen, sie umgebenden Welt auf die in dem Narrativ konstruierten Welt richten müssen. Im Idealfall verlieren sie als Ergebnis einer solchen psychologischen Immersion das Bewusstsein für die reale Welt und tauchen vollständig in die fiktionale Welt ein (Braddock, 2020). Je größer das Engagement mit der narrativen Welt ist, desto weniger werden persuasive Informationen infrage gestellt (Igartua & Cachón-Ramón, 2023; Moyer-Gusé, 2008).

Mit Identifikation ist die Übernahme des Standpunktes bzw. einer Perspektive des medialen Charakters durch Rezipient:innen gemeint. Das geschieht z.B. dadurch, dass die Medienfigur als besonders ähnlich wahrgenommen wird. 

Die parasoziale Interaktion ist ein psychologischer Prozess, in dessen Rahmen Mediennutzer:innen eine Medienfigur so sehr mögen und/oder vertrauen, dass sie das Gefühl haben, sie wären mit ihr verbunden. Geschieht dies über einen längeren Zeitraum, z.B. über mehrere Videos, Beiträge usw. hinweg, spricht man auch von einer parasozialen Beziehung. Eine parasoziale Interaktion oder Beziehung zu einer Medienfigur verringert die Reaktanz gegenüber den von ihr präsentierten Inhalten auf Seiten der Nutzenden und das Bedürfnis, Inhalten widersprechen zu wollen. Das erleichtert die Übernahme von Überzeugungen, Einstellungen und Verhaltensweisen (Braddock, 2020).

Durch narratives Storytelling und die unmittelbare Präsentation von Alltagssituationen, Selbstoffenbarung oder Direktansprachen der Rezipient:innen können rechte Creator:innen den Grad ihrer Authentizität erhöhen und parasoziale Beziehungen mit ihren Follower:innen intensivieren. Je sozial attraktiver eine Medienfigur wahrgenommen wird (Masuda et al., 2022) und je größer die Identifikation der Rezipient:innen mit der Medienfigur (Eyal & Dailey, 2012), umso stärker ist die parasoziale Beziehung. Social-Media-Creator:innen bieten insbesondere jungen Nutzer:innen großes Identifikationspotenzial, indem sie sich als ihnen ähnlich und nahbar präsentieren (Farivar & Wang, 2022; Schouten et al., 2020). Beispielhaft dafür steht der Kanal von Freya Rosi, einen jungen rechten Creatorin. Mit Beauty-, Back- und Kochtipps sowie Naturaufnahmen inszeniert sie das Bild einer nahbaren, traditionellen und heimat-verbundenen jungen Rechten(eine detaillierte Analyse des Kanals findet sich auch bei Rösch, 2023). Eine besonders enge und überdauernde parasoziale Beziehung zu Social-Media-Protagonist:innen kann sogar zu suchtähnlichen Verhaltensweisen bei den Nutzenden führen (de Bérail et al., 2019). In anderen Worten: Die Nutzenden haben Schwierigkeiten, sich der fiktiven Welt, die durch die Social Media-Creator:innen erzeugt wird, zu entziehen – in diesem Kontext wirken ihre Inhalte also besonders immersiv.

Die Selbstoffenbarung von Creator:innen kann bei ihren Follower:innen über das Gefühl sozialer Präsenz – also der Wahrnehmung der medialen Figur als eine natürliche Person – zu einem höheren Maß an parasozialen Interaktionen und Beziehungen (Kim et al., 2019; Kim & Song, 2016)sowie zu mehr Engagement und Commitment mit Kommunikator:innen und ihren Inhalten führen (Osei-Frimpong & McLean, 2018). Das Gefühl sozialer Präsenz wiederum macht es unwahrscheinlicher, dass Menschen den Wahrheitsgehalt von Informationen prüfen (Jun et al., 2017). Das ist insbesondere problematisch im Umgang mit rechtsextremistischem Content, z.B. Desinformationen oder Verschwörungserzählungen. 

EMOTIONALISIERUNG VON INHALTEN

Im Kontext ihrer Kommunikation adressieren radikalisierte Kommunikator:innen Ängste, Unsicherheiten und Entwicklungsaufgaben, außerdem nutzen sie emotionalisierende Inhalte und Bilder, um ihre Inhalte anschlussfähig zu machen und ihre Follower:innen von ihrem Weltbild zu überzeugen (Frischlich, 2021; Frischlich et al., 2021; Schmitt, Harles, et al., 2020; Schneider et al., 2019). Im sogenannten postfaktischen Zeitalter werden Emotionen neben gefühlten Wahrheiten zu einem zentralen Manipulations-Tool rechtsextremistischer Creator:innen. Eine experimentelle Studie von Lillie und Kolleg:innen (2021) deutet darauf hin, dass narrative Inhalte, die Angst bei den Rezipient:innen auslösen, zu mehr Flow-Erleben – also dem vollkommenes Aufgehen der Nutzer:innen in die Rezeption der Inhalte – führen und Handlungsintentionen begünstigen; auf der anderen Seite reduziert Angst die Bereitschaft, Inhalten zu widersprechen. Sie wirken dadurch überzeugender. 

Die Entwicklung sozialer Medien hin zu Plattformen für die Erstellung, Veröffentlichung und Interaktion mit (audio-)visuellen Inhalten unterstützt die Vermittlung und Wirkung derartiger Inhalte. Insbesondere (audio-)visuell aufbereitete Inhalte sind geeignet, um emotionale Botschaften zu übermitteln (Houwer & Hermans, 1994) und damit entsprechende emotionale Antworten zu erzeugen. Diese wiederum beeinträchtigen die Informationsverarbeitung, da das Gehirn größere Aufmerksamkeit auf die Verarbeitung der emotionalen Reaktion als auf die Information richtet (Yang et al., 2023). Laut Tritt et al. (2016) scheinen politisch konservativ eingestellte Menschen leichter auf emotionale Stimuli anzusprechen als liberal einstellte.

Die bis hierhin skizzierten immersiven Effekte können dazu führen, dass die Follower:innen verstärkt in die dargestellte Welt der Creator:innen involviert werden, sie eine tiefere emotionale Verbindung herstellen sowie sich verstärkt mit den präsentierten Inhalten identifizieren (Feng et al., 2021; Hu et al., 2020; Slater & Rouner, 2002; Wunderlich, 2023).

DIE ROLLE VON PLATTFORMFUNKTIONALITÄTEN 

Zeit spielt in den sozialen Medien eine wichtige Rolle. In kurzer Zeit muss die Aufmerksamkeit der Nutzenden gebunden werden, um sie in die Plattform reinzuziehen. Es ist anzunehmen, dass immersive Effekte der Kommunikation auf sozialen Medien durch Gestaltung und Funktionslogiken der Plattformen verstärkt werden. Dabei spielen plattformspezifische Algorithmen und sogenannte Dark Patterns eine besondere Rolle. 

Algorithmen entscheiden über Relevanz und Bedeutung

Neben der Hervorhebung von Relevanz und Bedeutung bestimmter Inhalte fördern Algorithmen die emotionale Involviertheit der Nutzenden, indem sie ihnen bevorzugt diejenigen Inhalte zeigen, die sie bzw. ähnliche Nutzer:innen potenziell präferieren. Es geht darum, die Nutzenden so lange wie möglich an die Plattform und die Inhalte zu binden; schließlich ist das Teil des Geschäftsmodells der Plattformen. Damit lassen die Plattformen die Nutzenden stetig tiefer in die virtuellen Welten „eintauchen“. Sie werden dadurch zu einem immersiven und wirksamen Rekrutierungstool. Die algorithmische Auswahl und Sortierung bestimmter Inhalte hängt dabei von verschiedenen Faktoren ab, z.B. der Art des Inhalts, seiner Platzierung, der verwendeten Sprache, vom Grad der Vernetzung derjenigen, die ihn verbreiten, sowie von den Reaktionen der Nutzer:innen (Peters & Puschmann, 2017).

Kommerzielle Plattformen priorisieren Beiträge, die emotionale Reaktionen hervorrufen, polarisieren oder eine intensive Kommunikation der Mitglieder fördern (Grandinetti & Bruinsma, 2023; Huszár et al., 2022; Morris, 2021). Insbesondere visuelle Darstellungen wie Bilder, Videos oder Memes erzeugen affektive Emotionen sowie Reaktionen der Rezipient:innen und ziehen diese in ihren ‚Bann‘ (Maschewski & Nosthoff, 2019). Die emotionale Bindung und Involviertheit der Nutzenden mit den Inhalten wird durch die algorithmische Vernetzung technisch verstärkt. Das gilt auch für den Kontakt zu antidemokratischen Inhalten. Studien legen nahe, dass Social-Media-Algorithmen die Verbreitung rechtsextremistischer Aktivitäten begünstigen können (Whittaker et al., 2021; Yesilada & Lewandowsky, 2022) – zuweilen genügen ähnliche Keywords wie bei unproblematischen Inhalten (Schmitt et al., 2018). Insbesondere Personen, die sich für Nischenthemen (z.B. Verschwörungserzählungen) interessieren (Ledwich et al., 2022) und lange den Plattform-Empfehlungen (M. A. Brown et al., 2022) folgen, werden durch die Algorithmen in entsprechende Filterblasen manövriert. Gleichzeitig bekommt aber der Großteil der Nutzenden moderate Inhalte zugespielt (M. A. Brown et al., 2022; Ledwich et al., 2022).

TikTok rückte in den vergangenen Jahren v.a. wegen seiner besonders starken algorithmischen Steuerung in den Fokus. Diese macht es noch wahrscheinlicher, unintentional mit radikalisierten Inhalten in Kontakt zu kommen (Weimann & Masri, 2021). Gleichzeitig sorgt die Tatsache, dass der Stream ständig weiterläuft, wenn man ihn als Nutzende:r nicht aktiv unterbricht, für eine deutlich größere Immersivität der Plattform im Vergleich zu anderen sozialen Medien (Su, Zhou, Gong, et al., 2021; Su, Zhou, Wang, et al., 2021). Zuweilen wird der Plattform aufgrund ihrer Funktionalitäten sogar Suchtpotenzial zugeschrieben (siehe z.B. Qin et al., 2022). Der „Absprung“ fällt schwer, was insbesondere vor dem Hintergrund der Zunahme extremistischer Kommunikation auf TikTok eine große Gefahr für die Nutzenden darstellt. 

Dark Patterns als immersionsfördernde Mechanismen

Im Hinblick auf die immersive Wirkung von sozialen Medien werden auch sogenannte Dark Patterns diskutiert. Diese beschreiben Designentscheidungen von Plattformen, die trügerische oder manipulative Taktiken anwenden, um Nutzer:innen auf den Plattformen zu halten und zu (uninformierten) Nutzungsentscheidungen zu bewegen (Gray et al., 2023). In den sozialen Medien zielen Dark Patterns maßgeblich darauf, die Aufmerksamkeit der Nutzenden dauerhaft zu binden, eine exzessive und immersive Nutzung der Plattformen zu bewirken und die Nutzer:innen zu Aktionen (z.B. Likes) zu bewegen. Beispiele für Dark Patterns sind Aktivitätsbenachrichtigungen, bei Facebook die große Herausforderung, sich wirklich von der Plattform abzumelden oder gar ein Konto zu löschen, oder die oftmals konterintuitive farbliche Gestaltung von Cookie-Notifikationen, damit Nutzer:innen möglichst alle – auch unnötige – akzeptieren. Fast alle gängigen Plattformen und Anwendungen verfügen über Dark Patterns, viele Nutzer:innen bemerken sie nicht (Bongard-Blanchy et al., 2021; Di Geronimo et al., 2020). Auch Creator:innen wollen das Verhalten von Nutzer:innen durch Dark Patterns beeinflussen. So versuchen sie beispielsweise, durch die Manipulation von Popularitätsmetriken (z.B. Likes, Anzahl von Follower:innen) und Bilder ihre Glaubwürdigkeit künstlich zu erhöhen und Aufmerksamkeit für ihre Inhalte zu generieren (Luo et al., 2022).

WIE LÄSST SICH PRÄVENTIV REAGIEREN?

Die Immersivität extremistischer Social-Media-Kommunikation stellt mit Blick auf Präventionsmaßnahmen eine große Herausforderung dar. Dies betrifft insbesondere die Vielzahl an Ebenen, welche in diesem Kontext berücksichtigt werden müssen. Im Folgenden wollen wir Überlegungen von Präventionsmaßnahmen auf der a) Inhaltsebene, b) Plattformebene sowie c) Medienebene präzisieren. Für die Konkretisierung von Maßnahmen aus Sicht der Nutzenden werden wir die drei Präventionsebenen Awareness, Reflection und Empowerment heranziehen (Schmitt, Ernst, et al., 2020). Während Awareness eine generelle Aufmerksamkeit bzw. ein generelles Bewusstsein (z.B. für das eigene Nutzungsverhalten, extremistische Narrative, Funktionsweise der Plattformen) umfasst, bezieht sich die Ebene Reflection auf die kritische Reflexion von Inhalten und Funktionsweisen von Medien. Empowerment hingegen meint die Fähigkeit von Rezipient:innen, sich gegenüber bestimmten Medieninhalten oder Funktionalitäten positionieren zu können und handlungsfähig zu sein. 

Auf der Inhaltsebene (a) muss für extremistische Inhalte sowie ihre spezifischen digitalen Kommunikations- und Darstellungsformen auf sozialen Medien sensibilisiert werden. So geht es hier darum, ein Bewusstsein dafür zu schaffen, wie rechtsextreme Creator:innen kommunizieren, um die Aufmerksamkeit von Social-Media-Nutzer:innen zu gewinnen, sie für ihre Narrative zu begeistern und letztlich zu Handlungen im Sinne des rechtsextremen Weltbildes zu motivieren (Schmitt, Ernst, et al., 2020). Nutzer:innen sollten weiterhin dazu befähigt werden, eine kritische Haltung gegenüber extremistischen Inhalten einzunehmen, um sich in sozialen Diskursen dazu entsprechend positionieren zu können. Diese Positionierung muss nicht nur im Rahmen politischer Diskussionen erfolgen – auch die Tatsache, Inhalte bei der Plattform selbst oder an eine der gängigen Meldeplattformen (z.B. Jugendschutz.net) zu melden, verdeutlicht eine Haltung. Neben einer ausgeprägten Medienkritikfähigkeit ist hier v.a. auch historisches, interkulturelles und politisches Wissen von Bedeutung. Weiterhin eine ausgeprägte Ambiguitätstoleranz, die es Menschen ermöglicht, auch komplexe und möglicherweise widersprüchliche Informationen zu ertragen.

Plattformbezogene Präventionsmaßnahmen (b) sollten auf der einen Seite Nutzer:innen Bewusstsein, Wissen und Reflexion über algorithmische Funktionslogiken vermitteln (z.B. Was wird ‚mir‘ angezeigt und warum?) sowie über Wirkmechanismen des Plattformdesigns aufklären (z.B. Wie werden mir Inhalte angezeigt? Inwiefern beeinflusst das meine Handlungen?) (Di Geronimo et al., 2020; Silva et al., 2022; Taylor & Brisini, 2023). Für den schulischen Kontext gibt es z.B. das zweite Lernarrangement der Unterrichtsreihe CONTRA (Ernst et al., 2020), das explizit für die Förderung von Medienkritikfähigkeit im Hinblick auf Algorithmen gestaltet worden ist. 

Aufseiten der Plattformen gilt es hier, Transparenz über die Algorithmen zu schaffen. Eine Offenlegung des Plattformdesigns, so etwa die über die Funktionslogik des Empfehlungsalgorithmus, kann dazu beitragen, Dark Patterns zu erkennen – und somit auch die potenzielle Verbreitungsdynamik extremistischer Botschaften zu verstehen und diesen entgegenzuwirken (Rau et al., 2022). Im Kontext sozialer Medien gelten Dark Patterns bisher als relativ schlecht erforscht (Mildner et al., 2023). Aufklärungsarbeit aus der Forschung bietet hier etwa das Projekt Dark Pattern Detection Project, welches zudem eine Meldefunktion von Dark Patterns für Nutzer:innen zur Verfügung stellt. 

Auch politische Regulierungsmaßnahmen, wie etwa in Gesetzen wie dem NetzDG oder Digital Services Act (DSA), können im Kontext der Offenlegung des Plattformdesigns Abhilfe schaffen und diese bspw. zu Transparenzberichten verpflichten. Mit Blick auf potenziell neu entstehende virtuelle Medienumgebungen – so etwa dem Metaverse – gilt es, Transparenzregeln durchzusetzen und neue Formen ihres Designs zu berücksichtigen. Unter welchen Umständen kommt die virtuelle Interaktion zustande? Wie gestalten sich die digitalen Handlungsräume? Nach welchen Kriterien erfolgt die visuelle Repräsentation der Akteur:innen, beispielsweise mit Blick auf Avatare, und wie inklusiv sind diese gestaltet? 

Auf der Medienebene (c) gilt es, den Nutzer:innen ein Bewusstsein über ihr eigenes Medienverhalten zu verschaffen und darüber zur Reflexion anzuregen. Dies betrifft unter anderem Fragen der Nutzungsdauer einer bestimmten Anwendung (z.B. „Wie viel Zeit habe ich heute mit TikTok verbracht?“), aber auch der Nutzungsart1Über Tools wie Dataskop kann die Nutzung von TikTok sichtbar gemacht werden. (z.B. „Welche Inhalte und Mechanismen „saugen“ mich ein?“). Eine Hilfestellung dabei könnten Apps sein, die Zeitlimits oder Warnhinweise zu Nutzungszeiten anderer Apps liefern oder diese blockieren (z.B. StayFree oder Forest). Die Funktion des „digitalen Wohlbefindens“, welche die Nutzungszeit einzelner Apps messen kann, ist bereits in verschiedenen Smartphone-Marken etabliert. 

Fazit und Ausblick

Die bisherigen Ausführungen verdeutlichen, auf wie vielen Ebenen die Kommunikation rechtsextremer Creator:innen in den sozialen Medien aus sozialer und psychologischer Perspektive immersiv wirken können. Das geschieht einerseits aufgrund der von ihnen gewählten Kommunikationsstile, andererseits über die Plattformen selbst. Zusammengenommen entsteht dadurch eine Parallelwelt – ein Metaverse –, welche die Nutzenden auf vielfältige Weise an sich bindet und dadurch Wirkung entfalten kann. 

Aus Forschungsperspektive ergeben sich eine Vielzahl offener Fragen. So sollte etwa TikTok als überaus beliebte Plattform noch eingehender auf ihr immersives Potenzial geprüft werden. Die neuen Möglichkeiten KI-basierter Bildgenerierungstools werfen zudem Fragen nach der Wirkung und Immersivität synthetischer Bildsprache extremistischer Kommunikator:innen auf. Außerdem hat das Thema Gaming und Rechtsextremismus in den vergangenen Jahren stark an Aufmerksamkeit gewonnen (siehe z.B. Amadeu Antonio Stiftung, 2022; Schlegel, o. J., 2021). Von den virtuellen Welten aufgesogen zu werden, ist eine zentrale Motivation von Spielenden (für einen Überblick siehe z.B. Cairns et al., 2014). Im Hinblick auf die Art und Weise, wie rechtsextreme Akteur:innen Gaming für ihre Zwecke genau nutzen, welche Rolle dabei Avatare, 3D-Welten und VR spielen und wie sich das im Kontext von Radikalisierungsprozessen auswirken kann, darüber gibt es derzeit noch relativ wenig gesicherte Befunde. Erste Erkenntnisse gibt es hingegen darüber, wie interaktive Spiele und VR für die Prävention eingesetzt werden können (siehe z.B. Bachen et al., 2015; Dishon & Kafai, 2022). Durch einen spielerischen und immersiven Ansatz können abstraktere Themen wie Politik und Demokratie – einschließlich ihrer kontroversen Aspekte – auf eine erlebnisreiche und kooperative Weise erkundet werden. Dies ermöglicht das Einnehmen unterschiedlicher Standpunkte, das Erlernen und Üben von Interaktionspraktiken, die auch im alltäglichen Leben relevant sind. Darüber hinaus können Spiele Wissen, Empathie und kritisches Denken fördern. Sowohl die Forschung als auch die Präventionspraxis sollte diese Potenziale noch ausführlicher explorieren. Wenngleich wir eine Auswahl an Überlegungen für die Prävention immersiver extremistischer Kommunikation skizziert haben, ist die Präventionspraxis gefragt, sich noch eingehender mit den unterschiedlichen Facetten von Immersivität zu befassen und vergleichbare Mechanismen u.U. für die eigenen Ziele zu nutzen –natürlich unter Berücksichtigung des Überwältigungsverbots (bpb, 2011; zur Kritik am Beutelsbacher Konsens siehe auch Widmaier & Zorn, 2016).


REFERENZEN

Amadeu Antonio Stiftung. (2022). Unverpixelter Hass—Gaming zwischen Massenphänomen und rechtsextremen Radikalisierungsraum? https://www.amadeu-antonio-stiftung.de/neue-handreichung-unverpixelter-hass-gaming-zwischen-massenphaenomen-und-rechtsextremen-radikalisierungsraum-81173/

Ayyadi, K. (2021, August 25). Rechte Influencerinnen: Rechtsextreme Inhalte schön verpackt. Belltow-er.News. https://www.belltower.news/rechte-influencerinnen-rechtsextreme-inhalte-schoen-verpackt-120301/

Bachen, C. M., Hernández-Ramos, P. F., Raphael, C., & Waldron, A. (2015). Civic Play and Civic Gaps: Can Life Simulation Games Advance Educational Equity? Journal of Information Technology & Politics, 12(4), 378–395. https://doi.org/10.1080/19331681.2015.1101038

Bongard-Blanchy, K., Rossi, A., Rivas, S., Doublet, S., Koenig, V., & Lenzini, G. (2021). ”I am Definitely Manipulated, Even When I am Aware of it. It’s Ridiculous!”—Dark Patterns from the End-User Perspective. Proceedings of the 2021 ACM Designing Interactive Systems Conference, 763–776. https://doi.org/10.1145/3461778.3462086

bpb. (2011, April 7). Beutelsbacher Konsens. bpb.de. https://www.bpb.de/die-bpb/ueber-uns/auftrag/51310/beutelsbacher-konsens/

Braddock, K. (2020). Narrative Persuasion and Violent Extremism: Foundations and Implications. In J. B. Schmitt, J. Ernst, D. Rieger, & H.-J. Roth (Hrsg.), Propaganda und Prävention: Forschungser-gebnisse, didaktische Ansätze, interdisziplinäre Perspektiven zur pädagogischen Arbeit zu ext-remistischer Internetpropaganda (S. 527–538). Springer Fachmedien. https://doi.org/10.1007/978-3-658-28538-8_28

Braddock, K., & Dillard, J. P. (2016). Meta-analytic evidence for the persuasive effect of narratives on beliefs, attitudes, intentions, and behaviors. Communication Monographs, 83(4), 446–467. https://doi.org/10.1080/03637751.2015.1128555

Brown, E., & Cairns, P. (2004). A grounded investigation of game immersion. CHI ’04 Extended Ab-stracts on Human Factors in Computing Systems, 1297–1300. https://doi.org/10.1145/985921.986048

Brown, M. A., Bisbee, J., Lai, A., Bonneau, R., Nagler, J., & Tucker, J. A. (2022). Echo Chambers, Rabbit Holes, and Algorithmic Bias: How YouTube Recommends Content to Real Users (SSRN Scholar-ly Paper 4114905). https://doi.org/10.2139/ssrn.4114905

Cairns, P., Cox, A., & Nordin, A. I. (2014). Immersion in Digital Games: Review of Gaming Experience Research. In Handbook of Digital Games (S. 337–361). John Wiley & Sons, Ltd. https://doi.org/10.1002/9781118796443.ch12

Chadwick, A., & Stanyer, J. (2022). Deception as a Bridging Concept in the Study of Disinformation, Misinformation, and Misperceptions: Toward a Holistic Framework. Communication Theory, 32(1), 1–24. https://doi.org/10.1093/ct/qtab019

Cotter, K. (2019). Playing the visibility game: How digital influencers and algorithms negotiate influ-ence on Instagram. New Media & Society, 21(4), 895–913. https://doi.org/10.1177/1461444818815684

Curran, N. (2018). Factors of Immersion. In The Wiley Handbook of Human Computer Interaction (S. 239–254). John Wiley & Sons, Ltd. https://doi.org/10.1002/9781118976005.ch13

de Bérail, P., Guillon, M., & Bungener, C. (2019). The relations between YouTube addiction, social anxie-ty and parasocial relationships with YouTubers: A moderated-mediation model based on a cognitive-behavioral framework. Computers in Human Behavior, 99, 190–204. https://doi.org/10.1016/j.chb.2019.05.007

Dede, C. (2009). Immersive Interfaces for Engagement and Learning. Science, 323(5910), 66–69. https://doi.org/10.1126/science.1167311

Di Geronimo, L., Braz, L., Fregnan, E., Palomba, F., & Bacchelli, A. (2020). UI Dark Patterns and Where to Find Them: A Study on Mobile Applications and User Perception. Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems, 1–14. https://doi.org/10.1145/3313831.3376600

Dishon, G., & Kafai, Y. B. (2022). Connected civic gaming: Rethinking the role of video games in civic education. Interactive Learning Environments, 30(6), 999–1010. https://doi.org/10.1080/10494820.2019.1704791

Echtermann, A., Steinberg, A., Diaz, C., Kommerell, C., & Eckert, T. (2020). Kein Filter für Rechts. cor-rectiv.org. https://correctiv.org/top-stories/2020/10/06/kein-filter-fuer-rechts-instagram-rechtsextremismus-frauen-der-rechten-szene/?lang=de

Ernst, J., Schmitt, J. B., Rieger, D., & Roth, H.-J. (2020). #weARE – Drei Lernarrangements zur Förderung von Medienkritikfähigkeit im Umgang mit Online-Propaganda in der Schule. In J. B. Schmitt, J. Ernst, D. Rieger, & H.-J. Roth (Hrsg.), Propaganda und Prävention: Forschungsergebnisse, di-daktische Ansätze, interdisziplinäre Perspektiven zur pädagogischen Arbeit zu extremistischer Internetpropaganda (S. 361–393). Springer Fachmedien. https://doi.org/10.1007/978-3-658-28538-8_17

Eyal, K., & Dailey, R. M. (2012). Examining Relational Maintenance in Parasocial Relationships. Mass Communication and Society, 15(5), 758–781. https://doi.org/10.1080/15205436.2011.616276

Farivar, S., & Wang, F. (2022). Effective influencer marketing: A social identity perspective. Journal of Retailing and Consumer Services, 67, 103026. https://doi.org/10.1016/j.jretconser.2022.103026

Feng, Y., Chen, H., & Kong, Q. (2021). An expert with whom i can identify: The role of narratives in in-fluencer marketing. International Journal of Advertising, 40(7), 972–993. https://doi.org/10.1080/02650487.2020.1824751

Fielitz, M., & Marcks, H. (2020). Digitaler Faschismus: Die sozialen Medien als Motor des Rechtsext-remismus. Dudenverlag.

Frischlich, L. (2021). #Dark inspiration: Eudaimonic entertainment in extremist Instagram posts. New Media & Society, 23(3), 554–577. https://doi.org/10.1177/1461444819899625

Frischlich, L., Hahn, L., & Rieger, D. (2021). The Promises and Pitfalls of Inspirational Media: What do We Know, and Where do We Go from Here? Media and Communication, 9(2), 162–166. https://doi.org/10.17645/mac.v9i2.4271

Grandinetti, J., & Bruinsma, J. (2023). The Affective Algorithms of Conspiracy TikTok. Journal of Broad-casting & Electronic Media, 67(3), 274–293. https://doi.org/10.1080/08838151.2022.2140806

Gray, C. M., Sanchez Chamorro, L., Obi, I., & Duane, J.-N. (2023). Mapping the Landscape of Dark Patterns Scholarship: A Systematic Literature Review. Companion Publication of the 2023 ACM Designing Interactive Systems Conference, 188–193. https://doi.org/10.1145/3563703.3596635

Harff, D., Bollen, C., & Schmuck, D. (2022). Responses to Social Media Influencers’ Misinformation about COVID-19: A Pre-Registered Multiple-Exposure Experiment. Media Psychology, 25(6), 831–850. https://doi.org/10.1080/15213269.2022.2080711

Haywood, N., & Cairns, P. (2006). Engagement with an Interactive Museum Exhibit. In T. McEwan, J. Gulliksen, & D. Benyon (Hrsg.), People and Computers XIX — The Bigger Picture (S. 113–129). Springer. https://doi.org/10.1007/1-84628-249-7_8

Houwer, J. D., & Hermans, D. (1994). Differences in the affective processing of words and pictures. Cognition and Emotion, 8(1), 1–20. https://doi.org/10.1080/02699939408408925

Hu, L., Min, Q., Han, S., & Liu, Z. (2020). Understanding followers’ stickiness to digital influencers: The effect of psychological responses. International Journal of Information Management, 54, 102169. https://doi.org/10.1016/j.ijinfomgt.2020.102169

Huszár, F., Ktena, S. I., O’Brien, C., Belli, L., Schlaikjer, A., & Hardt, M. (2022). Algorithmic amplification of politics on Twitter. Proceedings of the National Academy of Sciences, 119(1), e2025334119. https://doi.org/10.1073/pnas.2025334119

Igartua, J.-J., & Cachón-Ramón, D. (2023). Personal narratives to improve attitudes towards stigma-tized immigrants: A parallel-serial mediation model. Group Processes & Intergroup Relations, 26(1), 96–119. https://doi.org/10.1177/13684302211052511

Jun, Y., Meng, R., & Johar, G. V. (2017). Perceived social presence reduces fact-checking. Proceedings of the National Academy of Sciences, 114(23), 5976–5981. https://doi.org/10.1073/pnas.1700175114

Jung, N., & Im, S. (2021). The mechanism of social media marketing: Influencer characteristics, con-sumer empathy, immersion, and sponsorship disclosure. International Journal of Advertising, 40(8), 1265–1293. https://doi.org/10.1080/02650487.2021.1991107

Kero, S. (im Druck). Jung, weiblich und extrem rechts. Die narrative Kommunikation weiblicher Akteu-rinnen auf der Plattform Instagram. easy_social sciences.

Kim, J., Kim, J., & Yang, H. (2019). Loneliness and the use of social media to follow celebrities: A mod-erating role of social presence. The Social Science Journal, 56(1), 21–29. https://doi.org/10.1016/j.soscij.2018.12.007

Kim, J., & Song, H. (2016). Celebrity’s self-disclosure on Twitter and parasocial relationships: A medi-ating role of social presence. Computers in Human Behavior, 62, 570–577. https://doi.org/10.1016/j.chb.2016.03.083

Ledwich, M., Zaitsev, A., & Laukemper, A. (2022). Radical bubbles on YouTube? Revisiting algorithmic extremism with personalised recommendations. First Monday. https://doi.org/10.5210/fm.v27i12.12552

Leite, F. P., Pontes, N., & Baptista, P. de P. (2022). Oops, I’ve overshared! When social media influenc-ers’ self-disclosure damage perceptions of source credibility. Computers in Human Behavior, 133, 107274. https://doi.org/10.1016/j.chb.2022.107274

Lillie, H. M., Jensen, J. D., Pokharel, M., & Upshaw, S. J. (2021). Death Narratives, Negative Emotion, and Counterarguing: Testing Fear, Anger, and Sadness as Mechanisms of Effect. Journal of Health Communication, 26(8), 586–595. https://doi.org/10.1080/10810730.2021.1981495

Luo, M., Hancock, J. T., & Markowitz, D. M. (2022). Credibility Perceptions and Detection Accuracy of Fake News Headlines on Social Media: Effects of Truth-Bias and Endorsement Cues. Communi-cation Research, 49(2), 171–195. https://doi.org/10.1177/0093650220921321

Maschewski, F., & Nosthoff, A.-V. (2019). Netzwerkaffekte. Über Facebook als kybernetische Regie-rungsmaschine und das Verschwinden des Subjekts. In R. Mühlhoff, A. Breljak, & J. Slaby (Hrsg.), Affekt Macht Netz: Auf dem Weg zu einer Sozialtheorie der Digitalen Gesellschaft (1. Aufl., Bd. 22, S. 55–80). transcript Verlag. https://doi.org/10.14361/9783839444399

Masuda, H., Han, S. H., & Lee, J. (2022). Impacts of influencer attributes on purchase intentions in so-cial media influencer marketing: Mediating roles of characterizations. Technological Fore-casting and Social Change, 174, 121246. https://doi.org/10.1016/j.techfore.2021.121246

Mildner, T., Savino, G.-L., Doyle, P. R., Cowan, B. R., & Malaka, R. (2023). About Engaging and Govern-ing Strategies: A Thematic Analysis of Dark Patterns in Social Networking Services. Proceed-ings of the 2023 CHI Conference on Human Factors in Computing Systems, 1–15. https://doi.org/10.1145/3544548.3580695

Morris, L. (2021, Oktober 27). In Poland’s politics, a ‚so- cial civil war‘ brewed as Facebook rewarded online anger. The Washington Post. https://www.washingtonpost.com/world/2021/10/27/poland-facebook-algorithm/

Moyer-Gusé, E. (2008). Toward a Theory of Entertainment Persuasion: Explaining the Persuasive Effects of Entertainment-Education Messages. Communication Theory, 18(3), 407–425. https://doi.org/10.1111/j.1468-2885.2008.00328.x

mpfs. (2022). JIM-Studie 2022. Jugend, Information, Medien. Basisuntersuchung zum Medienumgang 12- bis 19-Jähriger. https://www.mpfs.de/fileadmin/files/Studien/JIM/2022/JIM_2022_Web_final.pdf

Mühlhoff, R., & Schütz, T. (2019). Die Macht der Immersion. Eine affekttheoretische Perspektive. https://doi.org/10.25969/MEDIAREP/12593

Müller, P. (2022). Extrem rechte Influencer*innen auf Telegram: Normalisierungsstrategien in der Corona-Pandemie. ZRex – Zeitschrift für Rechtsextremismusforschung, 2(1), Art. 1. https://www.budrich-journals.de/index.php/zrex/article/view/39600

Munger, K., & Phillips, J. (2022). Right-Wing YouTube: A Supply and Demand Perspective. The Interna-tional Journal of Press/Politics, 27(1), 186–219. https://doi.org/10.1177/1940161220964767

Murray, J. H. (1998). Hamlet on the Holodeck: The Future of Narrative in Cyberspace. The MIT Press.

Nilsson, N. Chr., Nordahl, R., & Serafin, S. (2016). Immersion revisited: A review of existing definitions of immersion and their relation to different theories of presence. Human Technology, 12(2), 108–134.

Osei-Frimpong, K., & McLean, G. (2018). Examining online social brand engagement: A social presence theory perspective. Technological Forecasting and Social Change, 128, 10–21. https://doi.org/10.1016/j.techfore.2017.10.010

Peters, I., & Puschmann, C. (2017). Informationsverbreitung in sozialen Medien. In J.-H. Schmidt & M. Taddicken (Hrsg.), Handbuch soziale Medien (S. 211–232). Springer VS.

pre:bunk. (2023). Rechtsextremismus und TikTok, Teil 1: Von Hatefluencer*innen über AfD und bis rechter Terror. Belltower.News. https://www.belltower.news/rechtsextremismus-und-tiktok-teil-1-147835/

Qin, Y., Omar, B., & Musetti, A. (2022). The addiction behavior of short-form video app TikTok: The information quality and system quality perspective. Frontiers in Psychology, 13. https://www.frontiersin.org/articles/10.3389/fpsyg.2022.932805

Rau, J., Kero, S., Hofmann, V., Dinar, C., & Heldt, A. P. (2022). Rechtsextreme Online-Kommunikation in Krisenzeiten: Herausforderungen und Interventionsmöglichkeiten aus Sicht der Rechtsextre-mismus- und Platform-Governance-Forschung. Arbeitspapiere des Hans-Bredow-Instituts. https://doi.org/10.21241/SSOAR.78072

Rösch, V. (2023). Heimatromantik und rechter Lifestyle. Die rechte Influencerin zwischen Self-Branding und ideologischem Traditionalismus. GENDER – Zeitschrift für Geschlecht, Kultur und Gesell-schaft, 15(2), Art. 2. https://www.budrich-journals.de/index.php/gender/article/view/41966

Schlegel, L. (o. J.). Super Mario Brothers Extreme. Gaming und Rechtsextremismus. Abgerufen 9. Sep-tember 2023, von https://gaming-rechtsextremismus.de/themen/super-mario-brothers-extreme/

Schlegel, L. (2021). The Role of Gamification in Radicalization Processes. modus | zad. https://modus-zad.de/publikation/report/working-paper-1-2021-the-role-of-gamification-in-radicalization-processes/

Schmitt, J. B., Ernst, J., Rieger, D., & Roth, H.-J. (2020). Die Förderung von Medienkritikfähigkeit zur Prävention der Wirkung extremistischer Online-Propaganda. In J. B. Schmitt, J. Ernst, D. Rieger, & H.-J. Roth (Hrsg.), Propaganda und Prävention: Forschungsergebnisse, didaktische Ansätze, interdisziplinäre Perspektiven zur pädagogischen Arbeit zu extremistischer Internetpropagan-da (S. 29–44). Springer Fachmedien. https://doi.org/10.1007/978-3-658-28538-8_2

Schmitt, J. B., Harles, D., & Rieger, D. (2020). Themen, Motive und Mainstreaming in rechtsextremen Online-Memes. Medien & Kommunikationswissenschaft, 68(1–2), 73–93. https://doi.org/10.5771/1615-634X-2020-1-2-73

Schmitt, J. B., Rieger, D., Rutkowski, O., & Ernst, J. (2018). Counter-messages as Prevention or Promoti-on of Extremism?! The Potential Role of YouTube Recommendation Algorithms. Journal of Communication, 68(4), 780–808. https://doi.org/10.1093/joc/jqy029

Schneider, J., Schmitt, J. B., Ernst, J., & Rieger, D. (2019). Verschwörungstheorien und Kriminalitäts-furcht in rechtsextremen und islamistischen YouTube-Videos. Praxis der Rechtspsychologie, 1, Art. 1.

Schouten, A. P., Janssen, L., & Verspaget, M. (2020). Celebrity vs. Influencer endorsements in adverti-sing: The role of identification, credibility, and Product-Endorser fit. International Journal of Advertising, 39(2), 258–281. https://doi.org/10.1080/02650487.2019.1634898

Schwarz, K. (2020). Hasskrieger: Der neue globale Rechtsextremismus. Herder.

Silva, D. E., Chen, C., & Zhu, Y. (2022). Facets of algorithmic literacy: Information, experience, and indi-vidual factors predict attitudes toward algorithmic systems. New Media & Society, 14614448221098042. https://doi.org/10.1177/14614448221098042

Slater, M. D., & Rouner, D. (2002). Entertainment—Education and Elaboration Likelihood: Under-standing the Processing of Narrative Persuasion. Communication Theory, 12(2), 173–191. https://doi.org/10.1111/j.1468-2885.2002.tb00265.x

Strick, S. (2021). Rechte Gefühle: Affekte und Strategien des digitalen Faschismus. Transcript.

Su, C., Zhou, H., Gong, L., Teng, B., Geng, F., & Hu, Y. (2021). Viewing personalized video clips recom-mended by TikTok activates default mode network and ventral tegmental area. NeuroImage, 237, 118136. https://doi.org/10.1016/j.neuroimage.2021.118136

Su, C., Zhou, H., Wang, C., Geng, F., & Hu, Y. (2021). Individualized video recommendation modulates functional connectivity between large scale networks. Human Brain Mapping, 42(16), 5288–5299. https://doi.org/10.1002/hbm.25616

Taylor, S. H., & Brisini, K. S. C. (2023). Parenting the Tiktok Algorithm: An Algorithm Awareness as Pro-cess Approach to Online Risks and Opportunities for Teens on Tiktok (SSRN Scholarly Paper 4446575). https://doi.org/10.2139/ssrn.4446575

Tritt, S. M., Peterson, J. B., Page-Gould, E., & Inzlicht, M. (2016). Ideological reactivity: Political conser-vatism and brain responsivity to emotional and neutral stimuli. Emotion, 16(8), 1172–1185. https://doi.org/10.1037/emo0000150

Weimann, G., & Masri, N. (2021). TikTok’s Spiral of Antisemitism. Journalism and Media, 2(4), Art. 4. https://doi.org/10.3390/journalmedia2040041

Whittaker, J., Looney, S.-0007-3114-0806, Reed, A., & Votta, F. (2021). Recommender systems and the amplification of extremist content. https://doi.org/10.14763/2021.2.1565

Widmaier, B., & Zorn, P. (Hrsg.). (2016). Brauchen wir den Beutelsbacher Konsens? Eine Debatte der politischen Bildung. Bundeszentrale für politische Bildung. https://www.lpb-mv.de/nc/publikationen/detail/brauchen-wir-den-beutelsbacher-konsens-eine-debatte-der-politischen-bildung/

Wunderlich, L. (2023). Parasoziale Meinungsführer? Eine qualitative Untersuchung zur Rolle von Social Media Influencer*innen im Informationsverhalten und in Meinungsbildungsprozessen junger Menschen. Medien & Kommunikationswissenschaft, 71(1–2), 37–60. https://doi.org/10.5771/1615-634X-2023-1-2-37

Yang, Y., Xiu, L., Chen, X., & Yu, G. (2023). Do emotions conquer facts? A CCME model for the impact of emotional information on implicit attitudes in the post-truth era. Humanities and Social Sci-ences Communications, 10(1), Art. 1. https://doi.org/10.1057/s41599-023-01861-1

Yesilada, M., & Lewandowsky, S. (2022). Systematic review: YouTube recommendations and proble-matic content. Internet policy review, 11(1), 1652. https://doi.org/10.14763/2022.1.1652

Zimmermann, D., Noll, C., Gräßer, L., Hugger, K.-U., Braun, L. M., Nowak, T., & Kaspar, K. (2022). In-fluencers on YouTube: A quantitative study on young people’s use and perception of videos about political and societal topics. Current Psychology, 41(10), 6808–6824. https://doi.org/10.1007/s12144-020-01164-7

  • 1
    Über Tools wie Dataskop kann die Nutzung von TikTok sichtbar gemacht werden.

Auf dem Laufenden bleiben:

Aktuelle Veröffentlichungen und Termine im Newsletter