X unter Musk und Meta unter Zuckerberg: Neue Regeln, alte Probleme?

Gesundheitsnews, Medizin und Forschung, Psychische Gesundheit

M.A. Dirk de Pol, aktualisiert am 25. März 2025, Lesezeit: 7 Minuten

Seit Elon Musk X (ehemals Twitter) im Oktober 2022 übernahm und Mark Zuckerberg im Januar 2025 tiefgreifende Änderungen für Meta (Facebook, Instagram, Threads) ankündigte, haben sich die Regeln auf beiden Plattformen drastisch verändert.

Während X viele Anti-Desinformationsrichtlinien abschaffte, lockert Meta nun die Regeln zur Moderation von Hassrede. Kritiker warnen vor psychischen Gesundheitsrisiken für Betroffene – doch was sagen die Daten?

Dieser Artikel analysiert die neuen Richtlinien bei X und Meta, vergleicht sie mit TikToks strengeren Moderationspraktiken und untersucht die gesundheitlichen Folgen von Hassrede.

Änderungen bei X unter Musk

Ein Bericht des Humboldt-Instituts für Internet und Gesellschaft vom 28. Oktober 2024 beschreibt vier zentrale Veränderungen:

  1. Regeln zu Krisen-Desinformation, COVID-19-Falschinformationen und Wahlmanipulation wurden gestrichen.
  2. Schutzmaßnahmen gegen Kindesmissbrauch wurden gelöscht.
  3. Regeln gegen Misgendering und Deadnaming von Transpersonen wurden aufgehoben, während allgemeine Verbote rassistischer oder geschlechtsspezifischer Angriffe bestehen bleiben.
  4. Statt Accounts zu sperren, reduziert X die Reichweite von problematischen Inhalten („Freedom of Speech, Not Reach“).

Metas neue Moderationspolitik

Laut einem AP News-Artikel vom 8. Januar 2025 hat Meta die Regeln zur Moderation von Hassrede gelockert.

  • Nutzer dürfen nun Transpersonen und Homosexuelle als „geistig krank“ bezeichnen, mit der Begründung, dass solche Äußerungen Teil des politischen und religiösen Diskurses seien.
  • Professionelle Faktenprüfungen wurden eingestellt und durch „Community Notes“ ersetzt.
  • Während Blackface und Holocaustleugnung weiterhin verboten sind, wurden Regeln zu Angriffen auf Frauen, Einwanderer und Transpersonen gelockert.

Zuckerberg begründet dies mit einer Anpassung der Plattformregeln an gesellschaftliche Diskurse, doch Kritiker sehen darin eine Annäherung an Donald Trump, der 2024 erneut die US-Wahl gewann.

TikTok als Gegenmodell

Im Gegensatz zu X und Meta setzt TikTok weiterhin auf strenge Moderation.

  • 95 % der Hassrede wird automatisch entfernt, bevor sie sichtbar wird (TikTok Transparency Report 2024).
  • Politische Inhalte werden weniger stark reguliert, möglicherweise beeinflusst durch Musks Philosophie der freien Meinungsäußerung.

Während das chinesische TikToks Ansatz Betroffene besser schützt, wirft er Fragen zur Meinungsfreiheit und zur Einflussnahme von Algorithmen auf sowie zum Umgang mit den Daten der Nutzer.

Psychologische Folgen von Hassrede

Untersuchungen zeigen, dass die Zunahme von Hassrede reale Auswirkungen auf die psychische Gesundheit hat.

Auswirkungen auf Betroffene

Eine Studie der University of California, Berkeley aus dem Jahr 2024 ergab, dass Hassrede auf X seit 2022 um 50 % gestiegen ist. Laut der American Psychological Association von 2023 leiden 41 % der Betroffenen unter Schlafstörungen. Besonders gefährdet sind Transpersonen, Frauen und Einwanderer, die durch ständige digitale Angriffe einem erhöhten Risiko für Angststörungen und Depressionen ausgesetzt sind.

Metas neue Regeln, die beleidigende Aussagen erlauben, könnten diesen Effekt verstärken. TikTok bietet durch schnelle Moderation mehr Schutz, während X Hass sichtbarer macht.

Auswirkungen auf Täter

Eine Studie der Universität Heidelberg aus dem Jahr 2022 zeigte, dass das Verfassen von Hasskommentaren das Empathie-Level senkt und Aggressivität fördert. Der Cortisolspiegel, ein Marker für Stress, stieg bei Tätern um 30 %. Metas Lockerung der Regeln könnte dazu führen, dass toxisches Verhalten weiter normalisiert wird.

Plattform-Dynamik

Auf X und Meta bleibt Hass länger sichtbar, was das Gefühl der Hilflosigkeit bei Betroffenen verstärkt. TikTok entfernt problematische Inhalte schneller, doch die schiere Menge an Inhalten auf der Plattform kann Nutzer überfordern.

Medizinische Risiken durch digitale Hassrede

Chronischer Stress durch Online-Hass kann sich auf die körperliche Gesundheit auswirken.

  • Studien der Deutschen Herzstiftung aus dem Jahr 2023 zeigen, dass andauernde Exposition gegenüber Hassrede den Blutdruck und die Herzfrequenz erhöht.
  • Das Risiko für Herz-Kreislauf-Erkrankungen steigt um bis zu 25 %, wenn Menschen langfristig digitaler Aggression ausgesetzt sind.
  • Plattformen wie X und Meta, auf denen Hass länger sichtbar bleibt, verstärken diesen Effekt stärker als TikTok, das schneller eingreift.

Aktuelle Entwicklungen im März 2025

  • X hat laut dem Transparenzbericht 2024 über 5,3 Millionen Konten gesperrt, aber 86 % der gemeldeten Hassposts bleiben online.
  • Meta steht zunehmend unter Druck, da Bürgerrechtsgruppen strengere Regeln fordern, um reale Schäden zu verhindern.
  • Trotz Kritik wächst Metas Plattform Threads weiter und zählt mittlerweile 200 Millionen Nutzer.
  • Die Europäische Union prüft Meta und X auf mögliche Verstöße gegen den Digital Services Act.

Im Transparenzbericht 2024 von X (ehemals Twitter) wird die Sperrung von mehr als 5,3 Millionen Konten als bedeutende Maßnahme im Kampf gegen schädliche Inhalte angeführt. Auf den ersten Blick mag diese Zahl beeindruckend wirken, doch bei genauerer Betrachtung stellen sich zahlreiche kritische Fragen – vor allem in Bezug auf die Art der gesperrten Konten und die Effektivität der Moderation.

Es bleibt unklar, welche Nutzerinnen von den Sperren betroffen sind und auf welcher Grundlage diese Maßnahmen ergriffen wurden. Während die Sperrung von Hassrednern und Trollkonten notwendig erscheint, könnten auch Aktivistinnen aus marginalisierten Gruppen wie Umweltaktivisten, LGBTQ+-Vertretern oder politischen Aktivisten betroffen sein. Derartige Gruppen sind häufig Ziel von Online-Angriffen, doch nicht selten werden auch ihre Stimmen im Rahmen von unzureichend differenzierten Moderationspraktiken entfernt. Eine genauere Transparenz darüber, welche Art von Inhalten zu Sperren führt, fehlt bisher weitgehend.

Die Diskrepanz zwischen Sperrungen und online verbleibenden Hassposts

Trotz der Sperrung von Millionen von Konten bleibt ein alarmierender Anteil der gemeldeten Hassposts weiterhin online – laut dem Bericht sind es stolze 86%. Diese Diskrepanz wirft die Frage auf, ob das Moderationssystem von X überhaupt in der Lage ist, schädliche Inhalte zuverlässig zu erkennen und zu entfernen. Es stellt sich die Frage, wie die Moderation in der Praxis funktioniert: Wer entscheidet, was als Hassrede oder schädlicher Content gilt? Und vor allem, warum wird der Großteil der gemeldeten Hassposts nicht gelöscht?

Der Fall Donald Trump: Eine fragwürdige Priorisierung

Ein besonders kontroverses Element des Berichts ist die Wiederherstellung des Accounts von Donald Trump, einem der prominentesten Hasspromotoren auf der Plattform. Diese Entscheidung wirft ernsthafte Fragen zur Konsistenz und Fairness der Sperrmechanismen auf. Trump ist nicht nur durch wiederholte Verstöße gegen die Plattformregeln aufgefallen, sondern hat durch seine Posts aktiv Hass und Polarisierung geschürt. Die Tatsache, dass sein Account wieder freigeschaltet wurde, lässt die Vermutung aufkommen, dass X hier möglicherweise politische Prioritäten setzt, anstatt konsequent gegen schädliche Inhalte vorzugehen.

Soziale Netzwerke im Kreuzfeuer der Kritik

Diese Entscheidungen und der Umgang mit Konten und Inhalten auf X werfen grundlegende Fragen auf: Sind soziale Netzwerke wie X tatsächlich verlässliche Instanzen im Kampf gegen Hassrede, oder agieren sie vielmehr als Inkubatoren für politische und wirtschaftliche Agenden? Die Diskrepanz zwischen den ambitionierten Zahlen von Kontosperrungen und der fortdauernden Präsenz von problematischen Inhalten zeigt, dass die Plattformen selbst oft wenig zur Lösung des Problems beitragen – und möglicherweise selbst zur Verstärkung von Polarisierung und Hass beitragen.

Solche Entwicklungen verdienen eine kritische Auseinandersetzung. Die Bemühungen, schädliche Inhalte zu bekämpfen, müssen transparent und konsistent sein. Andernfalls bleibt der Eindruck, dass der Kampf gegen Hassrede oft mehr ein symbolisches Unterfangen bleibt, während problematische Akteure weiterhin die Plattformen dominieren.

Fazit: Die Balance zwischen Freiheit und Verantwortung

Musks X und Zuckerbergs Meta setzen auf weniger Moderation, was langfristige psychische und physische Gesundheitsrisiken für Betroffene verstärken könnte.

Plattform Moderationsstrategie Auswirkungen auf Nutzer
X Locker Hohe Sichtbarkeit von Hass, Stress für Betroffene
Meta Gelockert Normalisierung toxischer Inhalte
TikTok Streng Schnellere Löschung, aber potenzielle Überforderung durch Content-Flut

Redefreiheit darf nicht auf Kosten der psychischen Gesundheit gehen. X und Meta müssen Schutzmechanismen für Betroffene verbessern. TikTok zeigt, dass striktere Moderation möglich ist, wenn auch nicht perfekt. Die psychologischen und gesundheitlichen Folgen von Hassrede sind real und erfordern verantwortungsvolle Lösungen.

Quellen

  • Humboldt-Institut für Internet und Gesellschaft, „Policy Changes at X Under Musk“, 28. Oktober 2024
  • AP News, „Meta’s Shift in Hate Speech Policy“, 8. Januar 2025
  • University of California, Berkeley, „Hate Speech Trends on X“, 2024
  • American Psychological Association, „Mental Health Effects of Online Harassment“, 2023
  • Universität Heidelberg, „Empathy and Aggression in Online Hate Speech“, 2022
  • Deutsche Herzstiftung, „Chronic Stress and Cardiovascular Disease Risk“, 2023
  • TikTok Transparency Report, 2024
  • X Transparency Report, 2024

Schwangerschaft

Schwangerschaft: Chemikalien in Konsumgütern führen zu niedrigeren IQ bei Kindern

Die Belastung während des ersten Trimesters der Schwangerschaft mit Chemikalien, die in Konsumgütern enthalten sind, ist mit einem ......

Regelmäßiger Konsum kleiner Mengen Alkohol ist ein größerer Risikofaktor für Vorhofflimmern als Komasaufen

Regelmäßiger Konsum kleiner Mengen Alkohol ist ein größerer Risikofaktor für Vorhofflimmern als Komasaufen

Vorhofflimmern - Regelmäßiger Konsum kleiner Mengen Alkohol ist ein größerer Risikofaktor für Herzrhythmusstörungen als Komasaufen...

Kinder die extrem wählerisch beim Essen sind

Neue Behandlungsmethode für Kinder, die extrem wählerisch beim Essen sind

Essgewohnheiten: Was tun, wenn Kinder sehr wählerisch beim Essen sind? Forscher haben ein neues Programm zur kognitiven Verhaltenstherapie vorgestellt ......

Ein Smarter Baby Schnuller

Baby-Schnuller mit Biosensor könnte die Gesundheit von Säuglingen überwachen

Diabetes bei Babys: Ein Schnuller-Biosensor könnte zur nicht-invasiven Überwachung von Glukose im Speichel von Säuglingen eingesetzt werden ......

Multiple Sklerose und Sehstörungen

Multiple Sklerose: Neue Erkenntnisse zu MS-bedingten Sehstörungen

Multiple Sklerose: Um Faktoren zu bestimmen, die mit den schwächsten Formen der Multiplen Sklerose (MS) zusammenhängen, haben Forscher von Johns Hopkins ......