Was den Hass im Netz auslöst

Klimaaktivistin Greta Thunberg gehöre ermordet1, schreiben sie. Grünen-Bundestagsabgeordnete Renate Künast sei als Kind missbraucht worden2. Der Kasseler Regierungspräsident Walter Lübcke sei “selbst schuld” an seinem Tod3.

Sie – das sind tausende Nutzer*innen sozialer Netzwerke, von Blogs und Kommentarspalten, die Hass im Netz verbreiten. Hass, übermittelt durch Worte, Bilder und Likes. Meist richtet er sich gegen Minderheiten, Politiker*innen, Journalist*innen oder Aktivist*innen und gegen jene, die sich an deren Seite stellen4. Und meist kommt er von rechts. Laut Bundesregierung5 gab es im Jahr 2018 insgesamt 3434 Fälle von Hasskriminalität im Internet, dabei handelte es sich in 2928 Fällen um rechte Täter*innen.

Zahlen lassen Rückschlüsse zu, wer die Täter*innen und wer die Opfer sind. Sie erklären aber nicht, warum das Internet ein derart fruchtbarer Nährboden für Hass ist. Die Medienpsychologie gibt hier Antworten. Sie weist auf die Bedingungen der Internetwelt hin, die den Hass in der Gesellschaft befördern. Sie kennt Modelle, die diese Dynamiken zu erklären versuchen. Und sie identifiziert Persönlichkeitsmerkmale, die Auslöser für Beleidigungen sein können.

Erscheinungsformen von Beleidigungen und Hetze

Die öffentliche und wissenschaftliche Debatte um das Phänomen Hassrede beginnt allerdings bereits beim Begriff selbst. Hate Speech oder auch Hassrede ist kein feststehender juristischer Begriff. Das bedeutet, dass manche Aussagen zwar im politischen Sinne als Hassrede verstanden werden, diese jedoch nicht strafrechtlich relevant sind (für eine rechtliche Einordnung siehe Infobox).

Insgesamt sind zwei Aspekte wichtig, wenn man von Hate Speech spricht:

„1. (medien-)öffentlich repräsentierter Hass, hinter dem eine auf bestimmte Gruppen einer Gesellschaft bezogene Menschenfeindlichkeit steht, sowie 2. (oft auch) gezielte Hetze gegen eben diese Gruppen, die in offene Aufrufe zur Gewalt gegen die Angehörigen dieser Gruppe münden können”6.

Der Hass im Netz kann jedoch vielerlei Gestalt annehmen: Trolling etwa, bei dem es lediglich darum geht, eine Diskussion zu stören. Oder Shitstorms, eine große Anzahl negativer Reaktionen infolge eines Kommentars [“Shitstorms – Entschuldigen oder Provozieren?]. Mit Cyberbullying sind Beleidigungen gemeint, bei denen die Herkunft oder Gruppenzugehörigkeit des Opfers keine Rolle spielt. All diese Phänomene lassen sich unterscheiden, auch wenn sie von Wissenschaftler*innen, Politiker*innen und Journalist*innen oft in einem Atemzug mit Hassrede verwendet werden7.

(Photo by Jon Tyson on Unsplash)

Was den Hass im Netz so bedeutend macht

Hassrede ist zudem kein Phänomen, das es erst seit der Verbreitung des Internets gibt. Auch offline kann Hass im sprachlichen Umgang der Menschen vorkommen. Dabei versteht man unter Hate Speech online alle Hasskommentare in Foren und sozialen Medien [Definition soziale Medien], wie beispielsweise auf Twitter, Youtube oder auch in den Kommentarspalten unter Zeitungsartikeln. Auch eigens für die Veröffentlichung von Hate Speech eingerichtete Webseiten fallen darunter. Hate Speech offline kann in persönlichen Gesprächen vorkommen, in traditionellen (Print-)Medien, aber auch durch Graffiti Ausdruck finden. Insgesamt gibt es fünf Faktoren, die die Bedeutung von Hate Speech online im Vergleich zu offline verstärken können: Anonymität, Unsichtbarkeit, Community, Schnelligkeit und Schaden8.

Wenn Menschen anonym sind, verhalten sie sich anders: Die physische Abwesenheit wird als ein Schutz vor Konsequenzen empfunden. Dies ist besonders online der Fall. Zwar ist man dort strenggenommen nicht immer anonym – beispielsweise, wenn man mit seinem Nutzerprofil in sozialen Netzwerken kommentiert. Ausschlaggebend ist jedoch die wahrgenommene Anonymität der Nutzer*innen. Hier kommt zusätzlich die Unsichtbarkeit ins Spiel, der zweite Faktor von Hate Speech online. Diese sorgt dafür, dass die Auswirkungen der Hassrede weder für die sprechende noch für die betroffene Person sichtbar sind. Weil Täter*innen Mimik und Gestik der Opfer nicht wahrnehmen können, sinkt die Hemmschwelle für Beleidigungen9.

Der dritte Faktor ist der Wunsch der Menschen, sich mit Gleichgesinnten zu vernetzen. Hierfür bietet das Internet zahlreiche Möglichkeiten. Dieser Vorteil birgt Schattenseiten: Hass-Bewegungen gründen sich einfacher, Internetnutzer*innen werden durch den stetigen Kontakt mit Gleichgesinnten eher zu Hassreden ermutigt. Diese Hasskommentare können online dann besonders schnell verbreitet werden. Überhaupt ist der Faktor Schnelligkeit bedeutend: In Sozialen Netzwerken können Nutzer*innen spontan und direkt auf andere Aussagen oder Artikel antworten. Der letzte und bedeutendste Faktor ist allerdings der Schaden, den Hate Speech durch die höhere Reichweite im Netz anrichtet. Während offline nur eine begrenzte Anzahl Personen zuhört, ist Hate Speech im Netz quasi für alle sichtbar. Dadurch kann sich die Scham der betroffenen Person verstärken. Zudem bleiben Hassbotschaften im Netz länger bestehen10.

Jeder einzelne Faktor macht alleine keinen großen Unterschied. Das Zusammenspiel aller fünf Faktoren unterscheidet Hate Speech online jedoch maßgeblich von Hate Speech offline.

Doch wie wirken sich diese Faktoren aus? Einige werden in soziologischen oder sozialpsychologischen Modellen aufgegriffen und erklären, wie diese Bedingungen die unheilvolle Dynamik der Hassrede auslösen oder verstärken können.

 

Hate Speech – eine rechtliche Einordnung

Artikel 5 des Grundgesetzes sichert allen Menschen das Recht auf freie Meinungsäußerung zu. In Absatz 2 wird dieses Recht allerdings etwas eingeschränkt. Aussagen dürfen nicht allgemeinen Gesetzen oder dem Schutz von Jugend und Ehre widersprechen. Konkret greifen hier mehrere Gesetze. §130 StGB (Volksverhetzung) verbietet Aufrufe zu Hass oder Gewalt gegen Gruppen oder die Verharmlosung und Leugnung nationalsozialistischer Taten. Zudem ist es gesetzlich verboten, öffentlich zu Gewalt aufzurufen oder diese zu billigen (§111 und §140 StGB). Auch Kommentare, die Beleidigungen (§185 StGB), üble Nachrede (§186 StGB) oder Verleumdung (§187 StGB) enthalten, sind strafbar (No Hate Speech, o.J.).

Mit diesen Gesetzen gibt es allerdings zwei Probleme. Erstens wurden sie ursprünglich für den Offline-Kontext entwickelt und berücksichtigen Faktoren wie eine höhere Online-Reichweite nicht. Deshalb liegt es zweitens im Ermessen der Richter*innen, wie in einzelnen Fällen entschieden wird11. Deshalb wurde 2017 das Netzwerkdurchsetzungsgesetz (NetzDG) erlassen, das soziale Netzwerke dazu verpflichtet, strafrechtliche Kommentare nach einer Meldung innerhalb von 24 Stunden zu löschen (No Hate Speech, o.J.).

Die Bundesregierung hat im Herbst 2019 zudem in einem Maßnahmenpaket Schritte gegen Hasskriminalität eingeleitet12 [Gegen Extremismus und Hass]. Dadurch soll gruppenbezogene Menschenfeindlichkeit wie Rassismus und Antisemitismus eingegrenzt werden. Geplant ist unter anderem eine Förderung von Präventionsmaßnahmen und strafbare Tatbestände (z.B. Beleidigung) sollen konkret an den Online-Kontext angepasst werden.

Sozialpsychologische Erklärungen

Die Faktoren Anonymität, Unsichtbarkeit und Community werden im SIDE-Modell, dem social identity model of deindividuation effects aufgegriffen13. Deindividuation meint, dass wir uns in Gruppen anders verhalten, als wenn wir allein sind14. Solche Situationen kennen wir wohl alle von der letzten Geburtstagsfeier, auf dem Fußballplatz oder im Sportverein. Das Modell greift die Effekte der bereits genannten Online-Faktoren auf unser Verhalten in Gruppensituationen in der computervermittelten Kommunikation auf. Anonymität meint hierbei den*die Kommunikationspartner*in nicht zu erkennen, Identifizierbarkeit nicht erkannt zu werden. Das Modell sagt: Je nachdem, ob in einer Kommunikationssituation unsere personale oder unsere soziale Identität dominanter ist, kommunizieren wir anders. Personale Identität ist dabei als Selbstkonzept unserer individuellen Eigenschaften zu verstehen15. Die soziale Identität beschreibt das Ergebnis unserer Zugehörigkeit zu einer sozialen Gruppe16.

Was sagt uns das SIDE-Modell nun also als Erklärung für Hate Speech? Einerseits erklärt es die potenziellen Faktoren Anonymität und Identifizierbarkeit, welche von der jeweiligen Identität des Einzelnen beeinflusst werden. Die Kommunikation online ist also abhängig von den gegebenen Rahmenbedingungen sowie vom jeweiligen Rezipient*innen. Andererseits zeigt es auch, dass zwei Prozesse zeitgleich stattfinden können – die Rückbesinnung auf die eigenen Werte und Normen sowie die Orientierung an den Normen und Werten von Gruppen. Hier lohnt ein kleiner Exkurs, denn dieser paradoxe Vorgang entspricht der klassischen populistischen Logik, dem subjektiven Relationalismus bei gleichzeitigem moralischem Alleinvertretungsanspruch17. Hate Speaker*innen handeln ebenso wie Populist*innen nach ihrer höchst individuellen Meinung und fühlen sich dabei gleichzeitig von einer Gruppe vertreten. Diese gefährliche Mischung sorgt häufig dafür, dass sich die Hate Speaker*innen in ihren teilweise obskuren Weltbildern von ihrer Gruppe beziehungsweise sogar der Allgemeinheit legitimiert fühlen. Neben dem SIDE-Modell existieren natürlich weitere Modelle zur Erklärung von Hate Speech beziehungsweise radikalem Verhalten im Netz, beispielsweise die Sozialkognitive Lerntheorie [Von der Etikette und warum sie im Netz (keine) Bedeutung hat”].

Diese Modelle konzentrieren sich auf die genannten Online-Bedingungen und die dadurch entstehenden gesellschaftlichen Dynamiken von Hate Speech. Doch es bleibt die Frage, welche Persönlichkeitseigenschaften den Hass bei Einzelnen auslösen können.

Was Persönlichkeit mit Hass zu tun hat

Wieso hassen Menschen? Die Persönlichkeitsforschung versucht zu erklären, warum man so ist, wie man ist. Sie identifiziert eine Reihe grundsätzlicher Charaktereigenschaften: Offenheit, Gewissenhaftigkeit und Extraversion, außerdem Verträglichkeit und Neurotizismus. Psychologen fassen jene Eigenschaften mit dem Begriff der Big Five zusammen. Letztlich steuern sie unser Verhalten. Menschen, mit einem ausgeprägten Maß an Extraversion reden mehr. Personen mit geringerer Verträglichkeit sind beispielsweise öfter aggressiv18. Forscher*innen gehen noch von drei weiteren Merkmalen aus, die sich in der menschlichen Wahrnehmung in erster Linie negativ auf die Persönlichkeit auswirken: die Dunkle Triade aus Machiavellismus, Narzissmus und Psychopathie. Personen, bei denen dieser Dreiklang stark ist, sind machthungriger, selbstverliebter und rücksichtsloser19.

Die Big Five und auch die Dunkle Triade können eine Rolle spielen bei der Entwicklung von Hass und wenn es darum geht, diesen auszuleben, sei es in der realen Welt oder im Internet. Wissenschaftler*innen interessieren sich deshalb für diese Charakterzüge bei der Erforschung von Hass im Web in seinen unterschiedlichen Erscheinungsformen. Sie kommen zu unterschiedlichen Ergebnissen.

Personen, die wenig offen gegenüber Neuem und nicht sonderlich verträglich sind, neigen wohl eher dazu, Internetdiskussionen durch aggressives Verhalten zu stören. Das fanden Kevin Koban, Jan-Philipp Stein, Valentin Eckhardt und Peter Ohler20 heraus. Jedoch konnten sie keinen Zusammenhang zwischen den anderen Merkmalen der Big Five feststellen. Noch interessanter bei der Forschung Kobans und seinen Kollegen ist jedoch, dass die Dunkle Triade praktisch keine Auswirkungen gezeigt hat. Egal ob eine Person Machiavellist, Narzisst oder Psychopath ist: Sie scheint sich in Chats und Kommentarspalten nicht von ihren Mitmenschen zu unterscheiden21. Den Autoren ging es darum, unzivilisiertes Verhalten zu untersuchen. Sie interessierten sich also dafür, ob User*innen einen Diskurs stören, nicht jedoch, ob sie hetzen oder diffamieren22.

2016 analysierten Mitch Geel, Anouk Goermans, Fatih Toprak und Paul Vedder ein weitaus aggressiveres Verhalten: Beim Cyberbullying 23 richten einzelne Nutzer*innen gezielt Hass gegen andere, sie schikanieren und beleidigen – und können bei ihren Opfern psychische Schäden anrichten24. Auch in dieser Studie hat sich Verträglichkeit als ein entscheidendes Charaktermerkmal herausgestellt. Menschen mit einem niedrigen Maß an Verträglichkeit stören also nicht nur Internetdiskussionen, sie neigen auch eher dazu, einzelne Nutzer*innen gezielt anzugreifen. Außerdem zeigt auch die Dunkle Triade Effekte: Narzissten und Psychopathen mobben online eher. Diverse andere Studien haben dies auch für Machiavellisten nachgewiesen25. Van Geel und seine Kolleg*innen erweiterten die Merkmale der Dunklen Triade außerdem um Sadismus. Proband*innen, die Freude am Schmerz Anderer empfinden, werden im Internet schneller beleidigend26. Ein Ergebnis, das sich mit Erkenntnissen von Nathalie Sest und Evita March27 deckt. Die beiden Forscherinnen sahen in ihrer Arbeit von 2017 in Sadismus einen Auslöser für beleidigendes Verhalten im Internet – neben dem Merkmal der Psychopathie.

Letztendlich können also verschiedene Faktoren Auslöser für den Hass des Einzelnen sein, kombiniert mit den Bedingungen der Online-Welt sind sie eine ernstzunehmende Gefahr.

(Photo by T. Chick McClure on Unsplash)

Was tun?

Menschen fühlen sich online also anonymer, unsichtbarer, sie bewegen sich in größeren Netzwerken. Das unterscheidet die Online-Welt von der “realen”. Das SIDE-Modell erklärt, warum diese Bedingungen Hassrede begünstigen. Die Medienpsychologie gibt Hinweise darauf, welche Persönlichkeitsmerkmale bei jedem Einzelnen aggressives Verhalten in diesen Netzwerken beeinflussen können.

Man könnte fragen, was überhaupt schlimm ist an all dem Hass, wenn er doch nur im Internet stattzufinden scheint.

Er ist schlimm, weil er sich gegen jene richtet, welche das freiheitliche demokratische System repräsentieren und verteidigen. In liberalen Staaten ist die freie Presse für die Information und politische Meinungsbildung der Bürger*innen unerlässlich. Politiker*innen sind die relevanten Akteure im parlamentarischen Gefüge. Aktivist*innen, die sich im Sinne der Verfassung engagieren, setzen sich für die Erhaltung der Grundrechte ein. Jeglicher Hass gegen Minderheiten ist ein Angriff auf ebenjene. Deshalb ist der Hass im Netz eine Gefährdung der Demokratie.

Er ist schlimm, weil das Vorgehen gegen ihn einem Kampf gegen die Hydra gleicht. Gegenrede, Bestrafung durch schärfere Gesetze oder simples Ausblenden lauten die naheliegenden Gegenmaßnahmen von Unternehmen, Politik und Nutzer*innen28. Doch jedem gelöschten Post folgt ein neuer. Die psychologische Forschung zeigt, dass die Gründe in der Persönlichkeit von Hassredner*innen liegen können. Eine langfristige Prävention von Hass im Netz kann damit nur durch pädagogische Maßnahmen gelingen, die schon früh ansetzen. Noch wichtiger als früher ist es, ein respektvolles Miteinander und demokratische Grundwerte bereits im Kindesalter zu vermitteln29.

Der Hass ist schlimm, weil Worte und Taten nicht weit voneinander weg liegen müssen. Wegen seines Engagements für Geflüchtete musste Walter Lübcke seit 2015 die Online-Hetze über sich ergehen lassen. Am 2. Juni 2019 wurde er von einem Rechtsradikalen erschossen30.

 

Hilfe bei Hate Speech

Viele Menschen sind von Hate Speech im Netz betroffen. Deswegen haben sich auch immer mehr Anlaufstellen für Betroffene oder Beobachter von Hate Speech gebildet. Hilfe und Unterstützung gibt es zum Beispiel hier:

www.no-hate-speech.de

www.amadeu-antonio-stiftung.de

www.hateaid.org

www.hass-im-netz.info

www.hassmelden.de

 


AutorInnen:

Andreas Brodbeck: Student im Master Kommunikationswissenschaft und Medienforschung an der Universität Hohenheim

Maximilian Münster: Student im Master Kommunikationswissenschaft und Medienforschung an der Universität Hohenheim

Hannah Steiert: Studentin im Master Kommunikationswissenschaft und Medienforschung an der Universität Hohenheim


Linkverzeichnis

Linkverzeichnis

Link 1: https://www.bundesregierung.de/breg-de/suche/gegen-extremismus-und-hass-1686442

Titelbild

Photo by Wokandapix on Pixabay

Fußnoten

 

  1. Alexander, K. (2019, 30. September). Hass gegen Greta Thunberg. Was lässt die Leute so ausrasten? Ze.tt. Abgerufen am 3. Januar 2020 von https://ze.tt/hass-im-netz-bei-greta-thunberg-fallen-alle-hemmungen/.
  2. “Drecks F…”: Künast geht gegen Skandal-Urteil vor (2019, 02. Oktober). BILD. Abgerufen am 3. Januar 2020 von https://www.bild.de/politik/inland/politik-inland/hass-kommentare-auf-facebook-renate-kuenast-geht-gegen-gerichtsbeschluss-vor-65090726.bild.html. 
  3. Bundesregierung (2019, 24. Juli). Antwort auf die Kleine Anfrage der Abgeordneten Petra Pau, Dr. André Hahn, Doris Achelwilm, weiterer Abgeordneter und der Fraktion DIE LINKE. Drucksache 19/11394. Bundesministerium des Innern, für Bau und Heimat. Abgerufen am 3. Januar 2020 von http://dipbt.bundestag.de/dip21/btd/19/119/1911908.pdf 
  4. Landesanstalt für Medien NRW (2019). Hate Speech – Hass im Netz (5. Aufl.), Düsseldorf.
  5. Bundesregierung (2019, 30. Oktober). Bundesregierung geht gegen Rechtsextremismus und Hasskriminalität vor. Bundesregierung. Abgerufen am 3. Januar 2020 von https://www.bundesregierung.de/breg-de/suche/gegen-extremismus-und-hass-1686442
  6. Hajok, D., & Selg, O. (2018). Kommunikation auf Abwegen? Fake News und Hate Speech in kritischer Betrachtung. JMS-Report, 41(4), 2-6. 
  7. Landesanstalt für Medien NRW (2019). Hate Speech – Hass im Netz (5. Aufl.), Düsseldorf.
  8. Brown, A. (2017). What is so special about online (as compared to offline) hate speech? Ethnicities, 18(3), 297–326.
  9. Brown, A. (2017). What is so special about online (as compared to offline) hate speech? Ethnicities, 18(3), 297–326.
  10. Brown, A. (2017). What is so special about online (as compared to offline) hate speech? Ethnicities, 18(3), 297–326.
  11. Koreng, A (2015). Hate Speech im Internet – eine rechtliche Einordnung. In Amadeu Antonio Stiftung (Hrsg.), „Geh sterben“ Umgang mit Hate Speech und Kommentaren im Internet (S. 33-34). Berlin.
  12. Bundesregierung (2019, 30. Oktober). Bundesregierung geht gegen Rechtsextremismus und Hasskriminalität vor. Bundesregierung. Abgerufen am 3. Januar 2020 von https://www.bundesregierung.de/breg-de/suche/gegen-extremismus-und-hass-1686442
  13. Spears, R., & Lea, M. (1992). Social influence and the influence of the ‘social’ in computer-mediated communication. In M. Lea (Hrsg.), Contexts of Computer-Mediated Communication (S. 30–65). London: Harvester-Wheatsheaf.
  14. Diener, E. (1980). Deindividuation: The absence of self-awareness and self-regulation in group members. In P. Paulus (Hrsg.), The Psychology of Group Influence (S. 209-242). Hillsdale: Erlbaum.
  15. Turner, J. C., Hogg, M. A., Oakes, P. J., Reicher, S. D., & Wetherell, M. S. (1987). Rediscovering the social group: A self-categorization theory. New York: Basil Blackwell.
  16. Tajfel, H., & Turner, J. C. (1986). The social identity theory of intergroup behavior. In S. Worchel & W. G. Austin (Hrsg.), Psychology of intergroup relations (S. 7–24). Chicago: Nelson-Hall.
  17.  Müller, J.-W. (2016). Was ist Populismus? Berlin: Suhrkamp.
  18. Costa, P. T., & McCrae, R. R. (1992). Four ways five factors are basic. Personality and Individual Differences, 13(6), 653–665. 
  19. Bushman, B. J., & Baumeister, R. F. (1998). Threatened egotism, narcissism, self-esteem, and direct and displaced aggression: Does self-love or self-hate lead to violence? Journal of Personality and Social Psychology, 75(1), 219-229.
  20. Koban, K., Stein, J.-P., Eckhardt, V., & Ohler, P. (2018). Quid pro quo in Web 2.0. Connecting personality traits and Facebook usage intensity to uncivil commenting intentions in public online discussions. Computers in Human Behavior, 79, 9–18.
  21. Koban, K., Stein, J.-P., Eckhardt, V., & Ohler, P. (2018). Quid pro quo in Web 2.0. Connecting personality traits and Facebook usage intensity to uncivil commenting intentions in public online discussions. Computers in Human Behavior, 79, 9–18.
  22. Koban, K., Stein, J.-P., Eckhardt, V., & Ohler, P. (2018). Quid pro quo in Web 2.0. Connecting personality traits and Facebook usage intensity to uncivil commenting intentions in public online discussions. Computers in Human Behavior, 79, 9–18.
  23.  Die Autoren verstehen unter Bullying eine Form des aggressiven Verhaltens, bei der ein*e Täter*in ein schwächeres Opfer wiederholt physisch oder verbal bedrängt. Beim Cyberbullying nutzt der*die Täter*in technische Übertragungsmittel für die Übermittlung der Hassbotschaft. Vgl. hierfür Van Geel et al. (2016, S. 2). Für eine Definition von Bullying vgl. Spektrum (o.J.).  
  24. Van Geel, M., Goemans, A., Toprak, F., & Vedder, P. (2016). Which personality traits are related to traditional bullying and cyberbullying? A study with the Big Five, Dark Triad and sadism, Personality and Individual Differences, 106, 231-235.
  25. Van Geel, M., Goemans, A., Toprak, F., & Vedder, P. (2016). Which personality traits are related to traditional bullying and cyberbullying? A study with the Big Five, Dark Triad and sadism, Personality and Individual Differences, 106, 231-235.
  26. Van Geel, M., Goemans, A., Toprak, F., & Vedder, P. (2016). Which personality traits are related to traditional bullying and cyberbullying? A study with the Big Five, Dark Triad and sadism, Personality and Individual Differences, 106, 231-235.
  27. Sest, N., & March, E. (2017). Constructing the cyber-troll: Psychopathy, sadism, and empathy. Personality and Individual Differences, 119, 69-72.
  28. Landesanstalt für Medien NRW (2019). Hate Speech – Hass im Netz (5. Aufl.), Düsseldorf.
  29. Landesanstalt für Medien NRW (2019). Hate Speech – Hass im Netz (5. Aufl.), Düsseldorf.
  30. Morten, F. (2019). “Eine widerliche Ratte weniger”. Abgerufen am 5. Januar 2020 von https://www.faz.net/aktuell/politik/inland/fall-walter-luebcke-hass-im-netz-war-sein-begleiter-16243476.html#void.

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.