Direkt zum Hauptbereich

Manipulation in Demokratien - Teil 2: Massen, Sprache, Propaganda: Wie Meinungen gemacht werden

Manipulation in Demokratien - Teil 2: Massen, Sprache, Propaganda: Wie Meinungen gemacht werden

Digitale Illustration zeigt eine große Menschenmenge von oben, über der zwei Hände schweben, die Marionettenfäden halten – Symbol für kollektive Manipulation und Steuerung der Massen.

📌 Kurz & Klar: Meinung entsteht selten rein rational. Sie wird emotional beeinflusst, sozial verstärkt und sprachlich gerahmt. In Gruppen wirken psychologische Mechanismen wie Konformitätsdruck, emotionale Ansteckung und Sprache besonders stark. Moderne Propaganda nutzt diese Effekte gezielt – oft subtil, emotional und algorithmisch verstärkt.
  • Masse & Gruppe: Kollektive Prozesse formen Denken, oft unbewusst.
  • Sprache: Begriffe rahmen Realität. Framing, Euphemismen, Doppelsprech wirken tief.
  • Emotionen: Angst, Wut und Zugehörigkeit sind Treiber von Meinungsbildung.
  • Digitale Dynamiken: Algorithmen verstärken Polarisierung und Empörung.
  • Manipulation erkennen: Wer die Mechanismen versteht, kann sich besser schützen.

Einleitung 

Im ersten Teil dieser Artikelreihe wurden die psychologischen Grundlagen von Manipulation beschrieben: kognitive Verzerrungen, emotionale Trigger und die Rolle digitaler Medien. Nun richtet sich der Blick auf ein besonders wirkmächtiges Feld der politischen Beeinflussung: die Dynamik von Gruppen, Sprache und moderner Propaganda.
Demokratische Meinungsbildung ist kein rein rationaler Prozess. Vieles wirkt unter der Oberfläche – über Gruppenzugehörigkeit, emotionale Resonanz und sprachliche Rahmung. Wer die Mechanismen hinter dieser Beeinflussung versteht, kann besser unterscheiden zwischen legitimer Überzeugung und manipulativer Steuerung.

1. Psychologie der Masse: Wie Gruppen das Denken formen

1.1 Von Gustave Le Bon bis zur modernen Sozialpsychologie

Gustave Le Bon analysierte 1895 in Psychologie der Massen, wie Individuen in Gruppen ihre kritische Urteilskraft verlieren. Die Masse reagiere impulsiv, irrational und sei anfällig für charismatische Führer und einfache Botschaften. Charismatische Führer sind Personen mit besonderer Ausstrahlung, die emotionale Gefolgschaft auslösen – auch unabhängig von der Plausibilität ihrer Inhalte.
Hannah Arendt ergänzte: Moderne Massen entstehen nicht durch physische Nähe, sondern durch Vereinzelung und Sinnverlust. Wer sich überfordert oder ausgeschlossen fühlt, sehnt sich nach Orientierung – und ist anfällig für ideologische Versprechen.
Heute wird diese Sichtweise differenzierter betrachtet: Auch kollektive Gruppenprozesse können rational, kreativ und konstruktiv sein – etwa bei Protestbewegungen, solidarischem Engagement oder demokratischer Organisation (vgl. Reicher & Haslam, 2006). Gruppenzugehörigkeit ist ein zentrales menschliches Bedürfnis und kann ebenso Quelle von Selbstwirksamkeit, Sinnstiftung und sozialer Verantwortung sein.

Auch empirisch ist die Wirkung kollektiver Prozesse gut belegt:

  • Asch-Experiment (1951): Konformitätsdruck führt zu falschen Urteilen, selbst wenn die Fakten klar sind.
  • Milgram-Experiment (1963): Autorität reicht aus, um Menschen zu unmoralischem Handeln zu bewegen – allerdings zeigten viele Teilnehmer starke emotionale Reaktionen und Zweifel.
  • False-Memory-Effekt: Gruppen können Erinnerungen verzerren.
  • Bystander-Effekt: Je größer die Gruppe, desto geringer die individuelle Verantwortung – online wie offline.
  • Affective Polarization: Wachsende emotionale Abneigung gegenüber Andersdenkenden.
  • Tribe Mentality: Übersteigerte Gruppenidentifikation mit starker Ingroup-Loyalität.

1.2 Demokratische Beispiele

Auch in Demokratien wirken diese Prozesse, indem verschiedenste Bewegungen kollektive Emotionen mobilisieren. Soziale Bewegungen wie „Fridays for Future“, die wissenschaftlich fundierte Forderungen stellen, erzeugen etwa Empörung über politische Untätigkeit oder Hoffnung auf Wandel. Auch Proteste wie „Pegida“ oder „Anti-Corona-Demonstrationen“ aktivieren kollektive Emotionen – etwa Angst, Misstrauen oder Wut.
In Wahlkämpfen wird Gruppenzugehörigkeit gezielt angesprochen. So wurde etwa mit dem Slogan „Leistung muss sich wieder lohnen“ (CDU) eine Polarisierung zwischen sogenannten „Leistungsträgern“ und vermeintlich „sozial Schwachen“ erzeugt. Solche Identitätsbotschaften arbeiten mit Emotion, Vereinfachung und Gruppenabgrenzung.

2. Gruppendruck und emotionale Ansteckung

2.1 Normativer Druck und Schweigespirale

Soziale Zugehörigkeit ist ein tiefes menschliches Bedürfnis. Abweichung vom Gruppenkonsens wird oft mit subtiler Ablehnung bestraft. Dieser Drang, sich an die Normen (also ungeschriebenen Regeln und Erwartungen) der Gruppe anzupassen, wird als normativer Druck bezeichnet. Begriffe wie 'Gutmensch' werden häufig zur Abwertung genutzt und signalisieren: Du passt nicht zur Norm. Ihre Wirkung liegt in der Zuschreibung von Naivität oder fehlendem Realitätssinn, auch wenn der ursprüngliche Wortsinn auf vermeintlich positive Eigenschaften abzielt.
Das Phänomen der pluralistischen Ignoranz beschreibt, dass viele glauben, sie seien mit ihrer abweichenden Meinung allein – und schweigen, obwohl viele ähnlich denken. Daraus entsteht eine Schweigespirale (Elisabeth Noelle-Neumann), die kritische Meinungen unsichtbar macht.
Laut einer Allensbach-Studie (2022/23) sagen nur 40 % der Deutschen, sie könnten ihre Meinung frei äußern; 44 % empfinden politischen Meinungsausdruck als riskant – trotz demokratischer Strukturen. Der Druck entsteht sozial, nicht staatlich, und wird zusätzlich durch Medienfragmentierung und aggressive Diskussionsklimata verstärkt.

2.2 Emotionaler Sog in digitalen Räumen

Gefühle wie Wut, Angst oder Euphorie wirken in Gruppen besonders stark. Wer emotional „mitgeht“, gilt als zugehörig – wer distanziert bleibt, als kalt oder unsolidarisch.
Digitale Plattformen verstärken diese Dynamiken:

  • Berger & Milkman (2012): Emotional aufgeladene Inhalte werden etwa doppelt so häufig geteilt.
  • Brady et al. (2017): Moralisch-emotionale Sprache erhöht Retweet-Wahrscheinlichkeit.
  • Weitzel et al. (2019): Im deutschsprachigen Raum sind die Effekte schwächer – dennoch nachweisbar.
  • Fractl (2016, Whitepaper): Positive Emotionen erhöhen Teilungen, Empörung fördert Kommentare.
  • LinkedIn & Vidmob (2024, Whitepaper): Persönliche, emotional erzählte Beiträge erzielen bis zu 200 % mehr Interaktionen – was u. a. auf wahrgenommene Authentizität und erzählerische Tiefe zurückgeführt wird.

Kollektive Erregung erzeugt Sichtbarkeit. Aufmerksamkeit wird zur Währung – und Empörung zur Strategie politischer Kommunikation.

3. Psychologische Anfälligkeit: Warum Manipulation wirkt

3.1 Psychologische Dispositionen und Persönlichkeit

Nicht alle Menschen sind gleich anfällig für Beeinflussung. Einige Persönlichkeitsmerkmale spielen eine zentrale Rolle:

  • Konformitätsneigung: Bedürfnis nach Harmonie → höhere Anpassung an Gruppendruck (vgl. Asch, 1951).
  • Autoritarismus: Orientierung an Ordnung, Hierarchie → stärkere Reaktion auf Feindbilder (Adorno et al., 1950; Altemeyer, 1996)
  • Offenheit für Erfahrungen: Hohes Maß → mehr kognitive Differenzierung; niedriges Maß → höhere Zustimmung (Jost et al., 2003).
  • Reaktanz: Widerstand gegen Bevormundung → Reaktanz führt zu Opposition, auch gegen „gut gemeinte“ Botschaften (Brehm, 1966).

Diese Eigenschaften sind normale Ausprägungen. Doch sie erklären, warum Sprache, Gruppendruck und Propaganda unterschiedlich stark wirken – je nachdem, ob sie Bedürfnisse nach Orientierung, Sicherheit oder Autonomie ansprechen.

Forschungen zeigen zudem, dass Menschen unter bestimmten Bedingungen dazu neigen, bestehende gesellschaftliche oder politische Systeme zu rechtfertigen und zu unterstützen – selbst dann, wenn sie persönlich dadurch Nachteile erleiden. Dieses Phänomen wird als Systemrechtfertigung bezeichnet (vgl. Jost & Banaji, 1994; Jost et al., 2004).

4. Sprache als Werkzeug der Wirklichkeitsgestaltung

Sprache ist kein neutrales Medium. Sie transportiert nicht nur Informationen, sondern formt Wirklichkeit – durch Deutungsrahmen, Identitätszuschreibungen und emotionale Aktivierung.

4.1 Framing: Gleiche Fakten – andere Wirkung

Framing beschreibt den Einfluss sprachlicher Rahmung auf die Interpretation von Inhalten. Zwei Aussagen können denselben Sachverhalt beschreiben – aber je nach Wortwahl völlig unterschiedlich wirken.
Beispiele:

  • „Sozialtourismus“ vs. „Armutsmigration“
  • „Rettungsschirm“ vs. „Bankenhilfe auf Kosten der Steuerzahler“

Die Fakten bleiben gleich – der Rahmen bestimmt das Gefühl.

4.2 Euphemismen: Sprachliche Beschönigung

Euphemismen verschleiern unangenehme Wahrheiten durch sanftere Begriffe. Sie dienen der Entlastung, Entpolitisierung oder moralischen Neutralisierung.
Beispiele:

  • „Kollateralschaden“ für zivile Opfer
  • „Anpassung der Bezüge“ für Gehaltserhöhung
  • „Verfahrensvereinfachung“ für mögliche Reduktion von Transparenz oder demokratischer Kontrolle

4.3 Doppelsprech: Sprache gegen das Denken

Doppelsprech (nach Orwell) ist die gezielte Umdeutung oder Entleerung von Sprache. Nicht um falsche Tatsachen geht es, sondern um widersprüchliche oder verwirrende Begriffe, die Kritik erschweren.
Beispiele:

  • „Friedensmission“ für Kriegseinsatz
  • „Flexibilisierung des Arbeitsmarktes“ für Zunahme von Unsicherheit oder Abbau von Arbeitnehmerrechten
  • „Beitragsanpassung“ für Beitragserhöhung

Im Unterschied zum Framing, das Interpretation lenkt, soll Doppelsprech Orientierung verhindern.

4.4 Visuelles Framing

Nicht nur Worte, auch Bilder rahmen Bedeutung:

  • Gewaltbilder bei Demos → kriminalisieren Protest
  • Farbwahl (Rot = Gefahr, Grün = Hoffnung)
  • Kameraperspektive → Dominanz oder Unterordnung

Diese visuelle Codierung ist besonders in sozialen Medien und Nachrichtensendungen wirksam.

4.5 Sprache, Identität und Dissonanz

Sprache signalisiert Zugehörigkeit. Begriffe wie „Systemkritiker“, „Freiheitskampf“ oder „Genderideologie“ können als Identitätsmarker fungieren (vgl. Forchtner, 2019).
Wer andere Sprache verwendet, wird als „fremd“ wahrgenommen – unabhängig vom Inhalt. Das verstärkt Polarisierung und verhindert Verständigung.
Zudem erzeugen widersprüchliche Informationen kognitive Dissonanz: einen inneren Spannungszustand, den Menschen durch Sprachvermeidung, Umdeutung oder selektive Wahrnehmung regulieren. Sprache kann Denkgrenzen setzen, indem sie bestimmte Deutungen nahelegt.

5. Warum Sprache und Masse so wirksam sind – psychologische Vertiefung

Sprache aktiviert nicht nur das Denkzentrum – sondern auch:

  • die Amygdala: bei Bedrohung oder moralischer Aufladung
  • das Belohnungssystem: Gruppenzustimmung kann Belohnungsareale aktivieren (Klucharev et al., 2009), was Akzeptanz von Botschaften fördert.
  • das emotionale Gedächtnis: durch Wiederholung

Der Illusory Truth Effect zeigt: Wiederholte Aussagen wirken wahr – weil sie vertraut erscheinen.
Zudem wirkt kognitive Ermüdung: In Zuständen von Stress, Müdigkeit oder Reizüberflutung sinkt die Prüfbereitschaft. Dann gewinnen vertraute oder einfache Botschaften leichter an Einfluss. Emotion verdrängt Analyse – idealer Nährboden für Propaganda.

6. Digitale Propaganda und moderne Beeinflussung

6.1 Die Geschichte der Propaganda – Von der Kirche bis zum Netz

  • 1622: Der Begriff „Propaganda“ stammt vom lateinischen propagare („ausbreiten“) und wurde durch Papst Gregor XV. institutionalisiert – zur Verbreitung des katholischen Glaubens gegen die Reformation.
  • 1922: Walter Lippmann beschreibt in Public Opinion die „Pseudo-Umwelt“ medial geprägter Realitäten und plädiert für Meinungslenkung durch Experten.
  • 1928: Edward Bernays schreibt in Propaganda:
    „Die bewusste und intelligente Manipulation der gewohnheitsmäßigen Meinungen […] ist ein wichtiges Element in einer demokratischen Gesellschaft.“
    Er begründet damit die Public Relations – manipulativ, aber nicht totalitär. Seine Methoden wurden später auch für autoritäre Zwecke instrumentalisiert, auch wenn er dies selbst nicht befürwortete.
  • 1930er/40er: Joseph Goebbels nutzt Propaganda zur systematischen Gleichschaltung – mit Wiederholung, Vereinfachung, Emotion und Feindbild-Konstruktion.
  • 1988: Chomsky & Herman zeigen in Manufacturing Consent, wie demokratische Medien durch Filtermechanismen beeinflusst werden – etwa Eigentum, Werbung, Quellenabhängigkeit.
  • Heute: Propaganda ist emotionalisiert, algorithmisch verstärkt und sowohl dezentral als auch zentral gesteuert – etwa durch Influencer, Plattformen, aber auch durch staatliche Lenkung in Russland, China und anderen Ländern.

Propaganda ist kein Relikt autoritärer Systeme – sondern struktureller Bestandteil politischer Kommunikation.

Hinweis: Propaganda muss nicht immer negativ oder manipulativ im schädlichen Sinne sein. Auch öffentliche Gesundheitskampagnen, Aufklärung über Umweltschutz oder Präventionsinitiativen nutzen ähnliche Techniken, um gesellschaftlich erwünschte Ziele zu fördern. Entscheidend ist der Zweck und die Transparenz der Botschaften.

6.2 Techniken moderner Propaganda

Wiederholung:
Oft wiederholte Botschaften wirken glaubwürdiger und prägen das Denken, auch wenn sie falsch sind.

Sündenböcke:
Schuld wird gezielt auf bestimmte Gruppen oder Einzelne abgeladen, um eigene Verantwortung zu verschleiern.

Schwarz-Weiß-Malerei:
Komplexe Sachverhalte werden auf einfache Gegensätze reduziert („gut“ vs. „böse“), um klare Feindbilder zu schaffen.

Sprache als Kampfzone:
Begriffe wie „Volksverräter“ oder „Genderideologie“ dienen dazu, Gegner moralisch abzustempeln und die Debatte zu polarisieren.

Whataboutism:
Kritik wird abgewehrt, indem auf andere, oft irrelevante Probleme verwiesen wird („Und was ist mit…?“).

False Balance:
Gegensätzliche Positionen werden gleichgewichtig dargestellt, obwohl die Faktenlage einseitig ist – so entsteht künstliche Ausgewogenheit.

Emotionalisierung:
Gefühle wie Angst, Wut oder Mitleid werden gezielt angesprochen, um rationale Argumente zu überlagern.

Falsche Dichotomien:
Es wird der Eindruck erweckt, es gebe nur zwei gegensätzliche Optionen („Entweder bist du für uns, oder gegen uns“).

Etikettierung:
Menschen oder Gruppen werden durch Schlagworte („Systemling“, „Querdenker“) auf eine Identität reduziert.

Cherry Picking:
Nur passende Daten und Beispiele werden ausgewählt und präsentiert, der Rest wird ignoriert.

Anekdotische Evidenz:
Einzelfälle werden als Beweis für allgemeine Behauptungen genutzt, obwohl sie nicht repräsentativ sind.

Fachjargon:
Komplizierte Sprache erschwert Nachfragen und schließt Laien von der Diskussion aus.

Appeal to the People:
Es wird behauptet, „alle“ seien einer Meinung, um Druck und Gruppenkonformität zu erzeugen.

6.3 Propaganda im Netz – Dynamik digitaler Beeinflussung

Im digitalen Raum entfaltet Propaganda eine besondere Dynamik: Algorithmen sorgen dafür, dass emotionalisierende oder polarisierende Inhalte bevorzugt verbreitet werden. Gleichzeitig entstehen neue Formen von Identifikation und sozialer Zugehörigkeit, etwa durch Online-Communities, Kommentarkulturen oder mediale Vorbilder. Auch die Grenze zwischen persönlicher Meinung und gezielter Meinungslenkung wird zunehmend unscharf. Die Mechanismen, durch die digitale Strukturen, algorithmische Logiken und psychologische Effekte unsere Wahrnehmung und Urteilsbildung beeinflussen, werden im dritten Teil dieser Artikelreihe ausführlich analysiert.

6.4 Beispiele aus allen politischen Spektren

Manipulative Sprache ist keine Frage der Richtung – sondern der Methode:

Rechts:

  • „Umvolkung“ → Verschwörungsnarrativ, Angstbild
  • „Genderwahn“ → Pathologisierung gesellschaftlicher Vielfalt
  • „Altparteien“ → Delegitimierung etablierter Politik

Links:

  • „Reiche fressen Arme“ → Emotionalisierung sozialer Ungleichheit
  • „Polizei ist strukturell rassistisch“ → Pauschalisierung realer Probleme
  • „Klimaleugner“ → emotional aufgeladen, wird verwendet um Akteure zu kennzeichnen, die bewusst Desinformation zum Klimawandel verbreiten (auch medial häufig verwendet)

Mitte:

  • „Wir lassen niemanden zurück“ → Moralisches Framing, kann aber komplexe Zielkonflikte verdecken
  • „Alternativlos“ → Scheinbare Sachzwänge
  • „Solidarität zeigen“ → Soziale Erwartung, moralischer Gruppendruck

Die entscheidende Frage ist nicht: Welche Meinung? – sondern: Wie wird sie kommuniziert?

7. Fazit: Manipulation erkennen – Demokratie schützen

Moderne Propaganda ist nicht laut – sondern emotional, nahbar, algorithmisch verstärkt. Sie kommt von rechts, links und aus der Mitte. Nicht jede Zuspitzung ist Lüge – aber jede Vereinfachung ist anfällig für Missbrauch.
Demokratische Reife heißt: das Spiel zu durchschauen, ohne zynisch zu werden. Sprache muss wieder Werkzeug des Denkens sein – nicht bloß Mittel zur Mobilisierung. Wer die Mechanismen kennt, kann sich wehren – gegen Polarisierung, Feindbilder und stille Steuerung.

8. Ausblick: Medien, Macht und Öffentlichkeit – wer beeinflusst die Meinungsbildung?

Im dritten Teil dieser Reihe richtet sich der Fokus auf die strukturellen Bedingungen öffentlicher Meinungsbildung: Welche Rolle spielen ökonomische Zwänge im Journalismus? Wie wirken sich Plattformlogiken, Algorithmen und Aufmerksamkeitsökonomie auf Nachrichteninhalte aus? Wer entscheidet darüber, welche Themen sichtbar werden – und welche nicht?
Dabei geht es auch um Machtfragen: Welche Institutionen, Plattformen und globalen Akteure haben Einfluss auf die Deutungsrahmen unserer Wirklichkeit? Was leisten Faktenchecks und alternative Medien – und wo liegen ihre Grenzen? Und wie lässt sich trotz all dieser Dynamiken eine demokratische Öffentlichkeit gestalten, die Pluralität ermöglicht und Verantwortung stärkt?
Der nächste Teil trägt den Titel:
„Medien, Macht und Öffentlichkeit – wer beeinflusst die Meinungsbildung?“
und untersucht die komplexen Kräfte hinter dem, was wir für „objektive Information“ halten.

9. Quellenverzeichnis (Literatur & Studien – alphabetisch sortiert)

  1. Adorno, T. W., Frenkel-Brunswik, E., Levinson, D. J., & Sanford, R. N. (1950): The Authoritarian Personality. New York: Harper.
  2. Altemeyer, B. (1996): The Authoritarian Specter. Harvard University Press.
  3. Asch, S. E. (1951): Effects of Group Pressure upon the Modification and Distortion of Judgments. In: H. Guetzkow (Ed.), Groups, Leadership and Men. Pittsburgh: Carnegie Press.
  4. Bakshy, E., Messing, S., & Adamic, L. A. (2015): Exposure to ideologically diverse news and opinion on Facebook. Science, 348(6239), 1130–1132.
  5. Berger, J., & Milkman, K. L. (2012): What Makes Online Content Go Viral? Journal of Marketing Research, 49(2), 192–205.
  6. Brehm, J. W. (1966): A Theory of Psychological Reactance. Academic Press.
  7. Brady, W. J., Wills, J. A., Jost, J. T., Tucker, J. A., & Van Bavel, J. J. (2017): Emotion shapes the diffusion of moralized content in social networks. PNAS, 114(28), 7313–7318.
  8. Chomsky, N., & Herman, E. S. (1988): Manufacturing Consent: The Political Economy of the Mass Media. Pantheon Books.
  9. Forchtner, B. (2019): The Far Right and the Environment: Politics, Discourse and Communication. Routledge.
  10. Fractl (2016): The Emotions That Make Marketing Campaigns Go Viral. Whitepaper.
  11. Jost, J. T., Glaser, J., Kruglanski, A. W., & Sulloway, F. J. (2003): Political Conservatism as Motivated Social Cognition. Psychological Bulletin, 129(3), 339–375.
  12. Klucharev, V., Hytönen, K., Rijpkema, M., Smidts, A., & Fernández, G. (2009): Reinforcement learning signal predicts social conformity. Neuron, 61(1), 140–151.
  13. Le Bon, G. (1895): Psychologie des foules. Paris: Félix Alcan.
  14. LinkedIn & VidMob (2024): The State of Creative Effectiveness: Emotion, Authenticity and Complexity. Interne Datenerhebung (nicht peer-reviewed, aber öffentlich zitiert).
  15. Lippmann, W. (1922): Public Opinion. New York: Harcourt, Brace and Company.
  16. Milgram, S. (1963): Behavioral Study of Obedience. Journal of Abnormal and Social Psychology, 67(4), 371–378.
  17. Noelle-Neumann, E. (1980): Die Schweigespirale. Öffentliche Meinung – unsere soziale Haut. München: Piper.
  18. Nyhan, B., & Reifler, J. (2010): When Corrections Fail: The Persistence of Political Misperceptions. Political Behavior, 32(2), 303–330.
  19. Osborne, D., Sibley, C. G., & Wilson, M. S. (2022): A Meta‐Analytic Review of Right‐Wing Authoritarianism and Social Dominance Orientation. Political Psychology, 43(4), 689–714.
  20. Reicher, S., & Haslam, S. A. (2006): Rethinking the psychology of tyranny: The BBC prison study. British Journal of Social Psychology, 45(1), 1–40.
  21. Weitzel, T., Kolb, J., & Keil, M. (2019): Digital Nudging: Empirical Evidence from Germany. Working Paper, Universität Bamberg.
  22. Jost, J. T., & Banaji, M. R. (1994). The role of stereotyping in system-justification and the production of false consciousness. British Journal of Social Psychology, 33(1), 1–27.
  23. Jost, J. T., et al. (2004). System justification as a motivation to defend the status quo. Current Directions in Psychological Science, 13(6), 269–275.
Folge mir: Facebook-Profil von Neu Denken Instagram-Profil von Neu Denken LinkedIn-Profil von Neu Denken X (Twitter)-Profil von Neu Denken Mastodon-Profil von Neu Denken

Kommentare