YouTube – Richtlinien zu Hassrede (Hate speech) (2021)
Annotierte Materialien für die medienpädagogische Arbeit
Die differenziert ausgearbeiteten YouTube Community-Richtlinien “definieren, was auf YouTube erlaubt ist und was nicht.“ In gesonderten Abschnitten werden
erklärt und an Beispielen Konsequenzen von Verstößen erläutert. Eingebunden ist jeweils ein kurzes Erklärvideo in Englisch mit deutschen Untertiteln.
Zusätzliche differenzierende Informationen bieten in gleicher Weise die
- Richtlinie zu schädlichen oder gefährlichen Inhalten Beispiele: “Inhalte, in denen durch Gewalttaten verursachte Tragödien wie beispielsweise Amokläufe und Schießereien an Schulen unterstützt oder verherrlicht werden.“ “Inhalte, die Magersucht oder andere Essstörungen verherrlichen oder andere ermutigen, das Verhalten nachzuahmen.“
- Richtlinien zu gewalttätigen oder grausamen Inhalten Beispiele: “Aufstachelung zu Gewalttaten gegen Einzelne oder bestimmte Gruppen; Kämpfe mit Minderjährigen“
- Gewalttätige kriminelle Organisationen Beispiel: “Inhalte, die Gewalttaten von kriminellen Organisationen oder terroristischen Vereinigungen verherrlichen oder rechtfertigen“
Im Transparenzbericht wird auch über einige Details zur Durchsetzung der Richtlinien informiert. Weitere Details hierzu werden im Hilfebereich gegeben.
Einen Verstoß gegen diese Richtlinien kann theoretisch jede/r sofort melden, indem unter dem Player des entsprechenden Videos nach Anklicken der drei waagerechten Punkte “Melden“ ausgewählt wird. Voraussetzung ist allerdings ein eigenes Google-Konto – ein starkes Hindernis und zugleich eine unangenehme Methode zur Datenaquirierung.
Im Abschnitt YouTube-Community-Richtlinien und ihre Anwendung des Google Transparenzberichts wird mitgeteilt, dass im letzten Quartal 2020 insgesamt 9.321.948 Videos wegen Verstößen gegen die Richtlinien entfernt wurden. Bei 1% davon war “Hasserfüllter oder beleidigender Inhalt“ der Entfernungsgrund.