Inhalt

aus dem Heft: 2017/03: Hass und Hetze im Netz
in der Rubrik: thema

Karin Knop: Hass und Hetze im Internet geht alle an – No Hate Speech!

Editorial

In einer freiheitlich-demokratischen Gesellschaft sind Phänomene wie Hate Speech (Hassrede) und andere anti-demokratische, menschenverachtende Kommunikationsformen Ausdruck einer sich wandelnden Kommunikationskultur. Bei Hate Speech handelt es sich um eine Form (digitaler) gruppenbezogener Menschenfeindlichkeit (vgl. Puneßen 2017). Diese trifft unter anderem Personen aufgrund ihrer Hautfarbe, ihrer Religion, ihres Geschlechts oder ihrer sexuellen Orientierung. Es sind Personen und Gruppen, die auch außerhalb des Netzes ausgegrenzt und angefeindet werden (vgl. Felling/Fritsche 2017). Online-Hassrede setzt daher letztlich analoge Macht- und Diskriminierungsstruk­turen fort (vgl. Buchzik/Rauscher 2017). Es können aber auch Menschen zur Zielschreibe von massiver Verachtung und Abwertung in Form von Hate Speech werden, die zwar selbst nicht den angefeindeten Gruppen angehören, sich aber für die Rechte dieser Gruppen und gegen Menschenfeindlichkeit einsetzen (vgl. Felling/Fritsche 2017; Buchzik/Rauscher 2017). Hate Speech ist jedoch kein feststehender juristischer Begriff. Innerhalb des Rechtssystems wird lediglich zwischen zulässigen und unzulässigen Meinungsäußerungen unterschieden. (vgl. Puneßen 2017). Unzulässige Meinungsäußerungen, unter die hasserfüllte Kommentare in digitalen Kommunikationsräumen wie Social Network ­Sites und Blogs fallen, können den Straftatbestand der Volksverhetzung, der Beleidigung, der üblen Nachrede, der Verleumdung, der Nötigung, der Bedrohung oder der Aufforderung zu Straftaten erfüllen und sind dann entsprechend strafrechtlich durch Strafanzeige und zivilrechtlich – z. B. durch Löschungsanspruch, Änderungsanspruch, Abmahnung oder Unterlassungserklärung, Geldentschädigung bzw. Schmerzensgeld – zu ahnden (vgl. Brings-Wiesen 2017). Aktuell wurde außerdem am 5. April 2017 hierzu ein Gesetzentwurf der Bundesregierung beschlossen, der eine Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken zum Inhalt hat (vgl. Bundesministerium für Justiz und Verbraucherschutz 2017) und die schnellere Entfernung und Sanktionierung von Hassreden und Fake News gewähren soll.

Zunahme extremer Inhalte im Netz

Wollen wir aber sowohl die Redefreiheit und gleichzeitig die Würde Andersdenkender sichern, so muss darüber hinaus ein gesellschaftlicher Konsens über die Inakzeptanz von Hate Speech hergestellt werden. Die Verantwortung hierfür kann keinesfalls ausschließlich im Rechtssystem liegen. Vielmehr ist eine Verständigung über akzeptable bzw. inakzeptable Netzkommunikation mit allen Gesellschaftsmitgliedern herzustellen, die wiederum diese Prinzipien dann in der Netzwelt realisieren und für deren Umsetzung eintreten. Deshalb ist das Thema Hate Speech für alle Mitglieder der Zivilgesellschaft aller Altersgruppen relevant. Dabei ist einerseits der restriktiv-bewahrende Kinder- und Jugendschutz, aber insbesondere auch die generationenübergreifende präventiv-befähigende Medienpädagogik herausgefordert (vgl. Hajok 2017). Da es eine Utopie ist, dass das Netz frei von extremen und extremis­tischen Positionen sein kann, sollten alle Gesellschaftsmitglieder für einen kompetenten Umgang mit solchen Positionen befähigt werden. Denn auch wenn es keine verlässlichen Zahlen gibt, so scheint abgesichert, dass seit 2015 – mit der abrupt gestiegen Zahl von geflüchteten Menschen – der Hass im Netz nochmals stark zugenommen hat (vgl. ebd.). Ob nun aufgrund erhöhter Sensibilität und erhöhter Beschwerdebereitschaft oder wegen eines tatsächlichen Anstiegs solcher Inhalte, bleibt zu klären. Sicher ist jedoch, dass sich die Zahl der Beschwerden wegen volksverhetzender Inhalte von 2014 auf 2015 nahezu verdreifacht hat. Beim Melden rechtsradikaler Webinhalte kam es innerhalb dieses Zeitraums sogar zu einer Veracht­fachung (vgl. Freiwillige Selbstkontrolle Multimedia-Diensteanbieter 2015).

Gründe für (die Intensivierung von) Hate Speech

Wie kommt es aber überhaupt dazu, dass Menschen diese grenzüberschreitende, verächtliche Kommunikationsform wählen? Hierzu existiert ein Bündel von Gründen für die aktive Erstellung und Verbreitung extremistischer Botschaften und Hasskommentare. Nach Schmitt (2017) lassen sich auf der Individual- bzw. Mikroebene mindes­tens vier psychologische Motive ausmachen. Nämlich erstens die Ausgrenzung und Abwertung einer Fremdgruppe – die, oft irrational, als Bedrohung wahrgenommen wird – mit dem Ziel der Stärkung einer eigenen positiven Gruppen­identität, zweitens die Einschüchterung der Fremdgruppe, drittens die Machtdemonstration bzw. das Erlangen der Deutungshoheit im gesellschaftlichen Diskurs und schließlich viertens die Freude am Beleidigen und Erniedrigen anderer. Die signifikante Zunahme solcher Inhalte wird wiederum auf Makroebene unter anderem den Anonymisierungsmöglich­keiten im Netz, den (digitalen) ­Beachtungsexzessen und den damit einhergehenden Extremisierungstendenzen sowie Beschleunigungsprozessen (vgl. ­Hajok 2017) heutiger Kommunikationskultur zugeschrieben oder auf Ängste und ­Unsicherheiten der Subjekte zurückgeführt, die aus Wachstums- und Globalisierungstendenzen resultieren (vgl. Krotz 2017 in dieser Ausgabe).


Hate Speech im Netz geht alle an

Dass diese anwachsende Menge hasserfüllter Worte und Bilder auch tatsächlich von vielen wahrgenommen wird, verdeutlichen aktuelle Befunde eindrucksvoll. Gemäß einer länderübergreifenden Befragung des Europarats im Rahmen der No Hate Speech-Kampagne im April 2015 zeigte sich, dass 83 Prozent der 6.601 befragten Heranwachsenden im Internet auf Hassreden gestoßen sind (vgl. ­Council of ­Europe 2015). Und auch die 2016 im Auftrag der Landesanstalt für ­Medien Nordrhein-Westfalen durchgeführte Online-Befragung in Deutschland macht deutlich, dass 82 Prozent der 2.044 befragten 14- bis 24-Jährigen schon Erfahrungen mit Hate Speech im Netz gemacht haben. Mehr als die Hälfte (54 %) dieser Gruppe war schon häufig bzw. sehr häufig durch Kontakt betroffen (vgl. forsa 2016). Sowohl der quantitative Anstieg von extremen Inhalten als auch deren nachweisliche Diffusion innerhalb der Netzgemeinschaft sprechen für die immense Notwendigkeit der Auseinandersetzung mit dem Themen- respektive Problembereich.

Interventionsmöglichkeiten

Felling und Fritsche (2017) benennen als konstruktive Formen der Auseinandersetzung unter anderem die Förderung von Medien- und Sozialkompetenz und den Aufbau von Hilfestrukturen sowie die Herstellung einer gesamtgesellschaftlichen Perspektive zur wertschätzenden Debatten­kultur als Möglichkeiten des pädagogischen Umgangs mit Hate Speech. Vielfältige Initiativen setzen sich bereits seit geraumer Zeit mit Hate Speech und anderen diskriminierenden Formen auseinander und stellen genau solche Angebote bereit. Exemplarisch sollen hier ausgewählte Initiativen kurz vorgestellt werden (vgl. z. B. Kaspar/Gräßer/Riffi 2017; Felling/Fritsche 2017): Aufklärend und Sensibilisierend arbeitet seit 1998 die Amadeu Antonio Stiftung im Bereich Rechtsextremismus, Rassismus und Antisemitismus. Das JFF – Institut für Medienpädagogik in Forschung und Praxis setzt sich ebenfalls seit mehreren Jahrzehnten mit Werte­vermittlung durch und in Medien auseinander, und bietet dabei beispielsweise seit 2015 Werkstätten zur Förderung von Werte- und Medienkompetenz im Rahmen von ICH WIR IHR im Netz an. Jugendschutz.net – seit 1997 mit unzulässigen Netzinhalten befasst – hält mit hass-im-netz.info ebenfalls ein aktuelles Angebot bereit. Im Juni 2016 startete in Deutschland die europaweite Kampagne no-hate-speech.de,
innerhalb derer relevantes Wissen zum Themenbereich und humoristische Memes zur Gegenrede auf der Website bereitgestellt werden. Beinahe zeitgleich wurde die Initiative Netzkodex (vgl. Schmid/­Appelhoff 2017) von der Ministerpräsidentin des Landes Nordrhein-Westfalen ins Leben gerufen. Verantwortliche von Unternehmen, Staat und Zivilgesellschaft erarbeiten klare Informationen zur jeweiligen Verantwortung der Social Media-Anbieter, Plattformbetreiber, Strafverfolgungsbehörden, Landesmedienanstalten, Internetbeschwerdestellen und auch der Nutzerinnen und Nutzer.
Ziel dieses Themenschwerpunkts ist die Vermittlung von grundlegendem Wissen zu verschiedenen Dimensionen des Phänomens. Es geht hierbei sowohl darum, empirisch fundierte Befunde zu Erscheinungsweisen von extremistischen Inhalten zu vermitteln, sozialwissenschaftlich-empirische Ergebnisse zu Rezeption und Wirkung bereitzustellen und gleichzeitig eine gesellschaftskritische Reflexion anzuregen sowie konkrete medienpädagogische Handreichungen anzubieten.

Zu diesem Heft

Christiane Yavuz (jugendschutz.net) gibt einen Überblick zu den menschenverachtenden und demokratiefeindlichen Botschaften von Rechtsextremen und Islamistinnen und Islamisten im Internet. Sie zeigt auf, welch subtile Kommunikationsstrategien von hassverbreitenden Akteurinnen und Akteuren verwendet werden, und wie raffiniert diese gerade in der Ansprache von Jugendlichen vorgehen.
Eine gesellschaftskritische Einordnung des Themenbereichs leistet Friedrich Krotz, der auf die kommunikativen Freiheiten des Netzes abhebt und die Schattenseiten dieser Freiheiten – wie Hate Speech – als Form antidemokratischer, symbolisch vermittelter Gewalt deklariert. Auf Spurensuche gehend, wird die zunehmende Radikalisierung vor dem Hintergrund von Wachstums- und Globalisierungstendenzen eingeordnet. Krotz appelliert an die Mitglieder der Zivil­gesellschaft, den digitalen Kommunikationsraum zurückzuerobern und sich aktiv gegen Hass und Hetze einzusetzen.
Diana Rieger und Kolleginnen und Kollegen zeigen auf Basis empirischer Forschungsprojekte zu Inhalten und Wirkungen auf, welche Gemeinsamkeiten islamistische und rechtsextreme Propaganda im Netz aufweisen. Ihre quasi-experimentellen Studien verdeutlichen, dass Ablehnung oder Befürwortung extremistischer Propaganda insbesondere vom Bildungsgrad und der Einstellung zu Autoritarismus abhängen. Neben der damit einhergehenden Identi­fizierung besonders gefährdeter Heranwachsender zeigt das Forscherteam aber auch das Spektrum und die Ziele von Gegenbotschaften auf, und gibt Einblicke in das Präventionsprogramm CONTRA und dessen medienpädagogische Bedeutung.
Erste Befunde aus einem aktuellen Projekt im Auftrag der Landesmedienanstalt Nordrhein-Westfalen werden im Interview von Karin Knop mit den beiden Forschenden Carsten Reinemann und Claudia Riesmeyer vorgestellt. Basierend auf ­einer Repräsentativbefragung im Herbst 2016 wird deutlich, dass ein nicht unerheblicher Anteil der Jugend­lichen zwischen 14 und 19 Jahren unweigerlich im Netz und außerhalb mit extremistischen Botschaften konfrontiert wird. Das Forscherteam geht der Frage nach, ob Jugendliche solche Botschaften auch eindeutig identifizieren können und über eine extremismusbezogene Medienkompetenz verfügen, die bei der Identifizierung der oft verschleierten Strategien der Extremistinnen und Extremisten von enormer Bedeutung ist.
Ganz konkrete, medienpädagogische Praxisan­regungen stellen Simone Rafael und Christina Dinar (Amadeu Antonio Stiftung) vor dem Hintergrund ihrer jahrelangen Arbeit mit Jugendlichen vor. Sie zeigen auf, welche Interventionsmöglichkeiten in pädagogischen Handlungskontexten angewendet werden können und welches Potenzial in der Befähigung zur Entlarvung von extremis­tischen Botschaften, aber insbesondere auch in der Befähigung zur Gegenrede besteht, um eine aktive und demokratische Zivilgesellschaft zu stärken und damit Partizipation zu fördern.
Die Datteltäter, muslimische Satirikerinnen und Satiriker mit YouTube-Kanal und Präsenz bei funk (Content-Netzwerk von ARD und ZDF), setzen sich parodistisch mit Stereotypen auseinander und erklären den ‚Bildungsdschihad‘. Swenja Wütscher klärt im Interview mit Fiete Aleksander, welche Ziele die Datteltäter mit ihrem Komik­angebot verfolgen und welche positiven und negativen Resonanzen sie durch das satirische Angebot erfahren.
Anhand prominenter Beispiele – wie die Hassreden gegen Sportjournalistin Claudia Naumann oder DIE GRÜNEN-Politikerin Renate Künast – geht Caja Thimm auf zwei zentrale Dynamiken von digitalen Shitstorms ein, die anhand ihrer zeit­lichen ­Dimension und ihres Verbreitungs­modus analysiert werden. Auch geeignete Reaktions­optionen der Opfer von hasserfüllter Kommunikation werden anschaulich beschrieben.

Literatur

Arbeitsgemeinschaft Kinder- und Jugendschutz, Landes­stelle NRW e. V.; Landesanstalt für Medien Nordrhein-Westfalen (2016). Hate Speech. Hass im Netz. Köln und Düsseldorf. www.akjs-sh.de/wp-content/­uploads/2016/11/HateSpeech-Brosch%C3%BCre_AKJS.pdf [Zugriff: 10.05.2017]

Brings-Wiesen, Tobias (2017). Das Phänomen der "Online Hate Speech" aus juristischer Perspektive. In: Kaspar, Kai/Gräßer, Lars/Riffi, Aycha (Hrsg.), Online Hate Speech. Perspektiven auf eine neue Form des Hasses. München: kopaed, S. 35–50.

Buchzik, Dana/Rauscher, Sami (2017). Kontern statt schweigen. In: Kinder- und Jugendschutz in Wissenschaft und Praxis (KJug), 1 (62), S. 14–15.

Bundesministerium für Justiz und Verbraucherschutz (2017). Gesetzentwurf der Bundesregierung. Entwurf eines Gesetzes zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (Netzwerkdurchsetzungsgesetz – NetzDG) am 05. April 2017. www.bmjv.de/SharedDocs/Gesetzgebungsverfahren/Dokumente/RegE_NetzDG.pdf?__blob=publicationFile&v=2 [Zugriff: 10.05.2017]

Council of Europe (2015). No Hate Survey Results. Youth Department of the Council of Europe – European Youth Centre. www.nohatespeechmovement.org/survey-result [Zugriff: 10.05.2017]

Felling, Matthias/Fritzsche, Nora (2017). Hass im Netz – Hate Speech als Herausforderung für die pädagogische Arbeit mit Jugendlichen. In: Kinder- und Jugendschutz in Wissenschaft und Praxis (KJug), 1 (62), S. 7–10.

forsa (2016). Ethik im Netz. Hate Speech. Ergebnisse ­einer von der LfM im Auftrag gegebenen Online-Befragung deutschsprachiger privater Internetnutzer ab 14 Jahren in Deutschland. Berlin. www.lfm-nrw.de/fileadmin/user_­upload/lfm-nrw/Service/Veranstaltungen_und_Preise/Medienversammlung/2016/EthikimNetz_Hate_Speech-PP.pdf [Zugriff: 10.05.2017]

Freiwillige Selbstkontrolle Multimedia-Diensteanbieter (2015). Jahresbericht 2015. Online-Jugendschutz und Medienbildung von Kindern & Erwachsenen. Berlin. www.fsm.de/sites/default/files/fsm_jahresbericht_2015_online.pdf [Zugriff: 10.05.2017]

Hajok, Daniel (2017). Hate Speech. Hass und Hetze im Netz als Thema des Kinder- und Jugendmedienschutzes. In: Jugend Medien Schutz-Report (JMS), 1 (40), S. 2–6.

Jugendschutz.net (2015). Rechtsextremismus online beo­bachten und nachhaltig bekämpfen. Bericht über Recherchen und Maßnahmen im Jahr 2014. Mainz. www.spw.de/data/jugendschutz.net_rex_online_bericht2014.pdf [Zugriff: 10.05.2017]

Kaspar, Kai/Gräßer, Lars/Riffi, Aycha (2017). Kampagnen und Aktivitäten gegen Online Hate Speech. In: Kaspar, Kai/Gräßer, Lars/Riffi, Aycha (Hrsg.), Online Hate Speech. Perspektiven auf eine neue Form des Hasses. München: kopaed, S. 171–180.

Puneßen, Anja (2017). Hate Speech / Rechtsfragen. In: Kinder- und Jugendschutz in Wissenschaft und Praxis (KJug), 1 (62), S. 16–17.

Schmid, Tobias/Appelhoff, Mechthild (2017). Die Initia­tive "Netzkodex". In: Kaspar, Kai/Gräßer, Lars/Riffi, Aycha (Hrsg.), Online Hate Speech. Perspektiven auf eine neue Form des Hasses. München: kopaed, S. 157–162.

Schmitt, Josephine B. (2017). Online Hate Speech: Defini­tion und Verbreitungsmotivationen aus psychologischer Perspektive. In: Kaspar, Kai/Gräßer, Lars/Riffi, Aycha (Hrsg.), Online Hate Speech. Perspektiven auf eine neue Form des Hasses. München: kopaed, S. 51–56.

Heft bei Kopaed bestellen

    Autor/innen: Karin Knop
    seitenanfang | druckansicht