Das EU-Zensur-System – Teil 4

Zensur beginnt nicht mit Löschung, sondern mit Unsichtbarkeit.
Interne Dokumente zeigen erstmals im Detail, wie TikTok und Meta ihre Regeln auf Druck der EU-Kommission verändert haben: vage Begriffe wie „marginalizing speech“, „coded language“ oder „undermines public trust“ erlauben es, legale Meinungen systematisch zu drosseln. Dieser Artikel legt offen, was konkret gelöscht, gedrosselt oder „shadow-gebannt“ wird – und wie algorithmische Demotion eine künstliche Illusion von Konsens erzeugt, ohne dass Nutzer davon erfahren.

TikTok & Meta Policy-Änderungen

Teil 1 lesen Sie bitte hier:
Wie Brüssel die freie Rede weltweit unterdrückt

Teil 2 lesen Sie bitte hier:
Die Verbrechen – Was konkret getan wurde

Teil 3 lesen Sie bitte hier:
Democracy Shield im Detail

von Michael Hollister
Exklusive Veröffentlichung nur bei Michael Hollister am 12.02.2026

2.399 Wörter * 13 Minuten Lesezeit

Diese Analyse ist frei zugänglich – aber gute Recherchen kosten Zeit, Geld, Energie und Nerven. Unterstützen Sie mich, damit diese Arbeit weitergehen kann.

Buy Me A Coffee

Oder unterstützen Sie mich auf Substack – schon ab 5 USD pro Monat.

Gemeinsam bauen wir eine Gegenöffentlichkeit auf.

Die konkreten Zensur-Regeln

Was gelöscht und gedrosselt wird

Wie Platforms ihre Regeln änderten, um der EU zu gehorchen – und welche Posts verschwanden

Die unsichtbare Zensur

Sie haben in Teil 1 das System gesehen: DSA, „freiwillige“ Codes, NGO-Netzwerke, €3-5 Milliarden Budget. In Teil 2 die Verbrechen: Acht manipulierte Wahlen, COVID-Zensur, Unterdrückung amerikanischer Bürger. In Teil 3 das Endgame: Democracy Shield, User Verification ab 2027, das Ende der Anonymität.

Aber wie funktioniert Zensur konkret im Alltag?

Wenn ein Post gelöscht wird, sieht der Nutzer meist: „This content violates our Community Guidelines.“ Welche Guideline genau? Warum? Wer hat entschieden? Keine Antwort.

Das ist Absicht. Zensur funktioniert am besten, wenn sie unsichtbar ist. Wenn Nutzer nicht wissen, was erlaubt ist und was nicht. Wenn die Regeln vage bleiben. Wenn Willkür herrscht.

Aber die internen Dokumente, die dem US-Repräsentantenhaus vorliegen, zeigen: Es gibt sehr konkrete Regeln. Platforms haben ihre Community Guidelines und Content-Moderation-Policies auf Druck der EU-Kommission systematisch geändert.

Diese Änderungen wurden nicht öffentlich kommuniziert. Keine Pressemitteilung. Kein Blog-Post. Einfach still implementiert.

Warum? Weil diese Regeln, wenn öffentlich diskutiert, Empörung auslösen würden.

Hier sind sie. Schwarz auf weiß. Mit konkreten Beispielen.

TikTok Community Guidelines – Die DSA-Compliance-Änderungen

Die Änderung vom März 2024

Am 20. März 2024 aktualisierte TikTok seine Community Guidelines. Ein internes Dokument – „TikTok Community Guidelines Update Executive Summary“ – erklärt warum:

„As advised by the legal team, the updates were mainly related to compliance with the Digital Services Act (DSA).“

Nicht „um Nutzer besser zu schützen“. Nicht „um die Community zu verbessern“. Sondern: DSA-Compliance.

Die EU-Kommission hatte verlangt, TikTok müsse „systemische Risiken mitigieren“. TikTok gehorchte.

Die neuen Zensur-Kategorien

Das interne Dokument listet fünf neue Kategorien auf, die ab März 2024 zensiert werden:

1. „Marginalizing Speech“

Definition (aus TikTok-Dokument):

„Content that marginalizes individuals or groups based on protected characteristics, including through subtle or indirect language.“

„Subtle or indirect language“ – das ist der Schlüssel.

Beispiel 1 (hypothetisch, aber realistisch basierend auf der Regel):

Ein User postet: „Ich finde, Frauen-Sportligen sollten für biologische Frauen reserviert sein.“

Analyse:

  • Ist das „marginalizing“? Für wen? Für trans Frauen.
  • Ist das „subtle or indirect“? Ja – der User sagt nicht direkt „trans Frauen sind keine Frauen“, aber das ist impliziert.

Resultat: Post wird gelöscht oder gedrosselt als „marginalizing speech.“

Beispiel 2 (aus gelakten Moderation-Logs):

Ein User postet: „Islam ist mit westlichen Werten inkompatibel.“

Analyse:

  • Ist das „marginalizing“? Für wen? Für Muslime.
  • Protected characteristic: Religion.

Resultat: Post gelöscht.

Das Problem:

Diese Aussagen sind Meinungen. Sie greifen keine konkrete Person an. Sie fordern keine Gewalt. Sie sind politische oder kulturelle Aussagen.

Aber unter „marginalizing speech“ sind sie verboten.

2. „Coded Statements That Normalize Inequitable Treatment“

Definition:

„Statements that use coded language or dog whistles to promote unequal treatment of individuals or groups.“

„Dog whistles“ – das ist politische Kampfsprache. Es bedeutet: Aussagen, die oberflächlich harmlos klingen, aber eine „versteckte“ diskriminierende Bedeutung haben.

Wer entscheidet, was ein „dog whistle“ ist?

TikTok-Moderatoren. Trainiert von EU-finanzierten NGOs.

Beispiel (aus Moderation-Training-Dokumenten):

Ein User postet: „Wir müssen unsere Grenzen schützen.“

Analyse:

  • Oberflächlich: Aussage über Grenzsicherheit.
  • „Coded meaning“: Anti-Immigrations-Rhetorik, „dog whistle“ für Fremdenfeindlichkeit.

Resultat: Post wird gedrosselt als „coded statement.“

Beispiel 2:

Ein User postet: „All Lives Matter.“

Analyse:

  • Oberflächlich: Positive Aussage über den Wert allen Lebens.
  • „Coded meaning“: Ablehnung von Black Lives Matter, „dog whistle“ für Rassismus.

Resultat: Post gelöscht.

Das Problem:

„Coded language“ kann alles bedeuten. Jede Aussage kann als „dog whistle“ interpretiert werden, wenn der Moderator eine bestimmte politische Sichtweise hat.

3. „Misinformation That Undermines Public Trust“

Definition:

„False or misleading information that undermines trust in democratic institutions, public health authorities, or electoral processes.“

Lesen Sie das genau. „Undermines trust.“

Nicht „ist faktisch falsch“. Sondern „undermines trust“.

Beispiel 1:

Ein User postet: „Die EU-Kommission wurde nicht direkt von den Bürgern gewählt.“

Faktischer Status: Wahr. Die Kommission wird vom Europäischen Rat nominiert, vom Parlament bestätigt. Bürger wählen nicht direkt.

Aber: Diese Aussage „undermines trust in democratic institutions“ (die EU).

Resultat: Post wird mit „Missing Context“-Label versehen, Reichweite reduziert.

Beispiel 2:

Ein User postet: „Lockdowns haben massive wirtschaftliche Schäden verursacht.“

Faktischer Status: Wahr. Lockdowns führten zu Arbeitsplatzverlusten, Firmenpleiten, psychischen Problemen.

Aber: Diese Aussage „undermines trust in public health authorities.“

Resultat: Post gedrosselt als „misleading information.“

Das Problem:

Wahre Aussagen werden zensiert, weil sie „Vertrauen unterminieren“. Das ist die Definition von autoritärer Zensur.

4. „Media Presented Out of Context“

Definition:

„Photos, videos, or audio clips presented in a way that misrepresents their original context or meaning.“

Das klingt vernünftig – tatsächlich manipulierte Medien sollten markiert werden.

Das Problem: Wer entscheidet, was „out of context“ ist?

Beispiel (aus geleakten Fällen):

Ein User postet ein Video: Ein Politiker sagt in einer Rede: „Wir müssen die Meinungsfreiheit einschränken, um Demokratie zu schützen.“

TikTok-Moderation: „Out of context – der Politiker bezog sich nur auf Hassrede, nicht auf allgemeine Meinungsfreiheit.“

Der Post wird gelöscht.

Aber: Der Nutzer hat das Video nicht geschnitten. Er hat nur einen Ausschnitt hochgeladen. Der Politiker sagte tatsächlich diese Worte.

Das Problem: „Context“ ist subjektiv. Moderatoren können jeden Post als „out of context“ markieren.

5. „Misrepresented Authoritative Information“

Definition:

„Content that misrepresents or disputes information from authoritative sources such as governments, health organizations, or scientific institutions.“

„Disputes.“

Das heißt: Wenn eine Regierung oder WHO etwas sagt, und ein Nutzer widerspricht, ist das Zensur-Grund.

Beispiel 1:

Ein User postet: „Die WHO hat bei COVID mehrfach falsch gelegen – z.B. behaupteten sie anfangs, Masken helfen nicht.“

Faktischer Status: Wahr. Die WHO sagte im Februar 2020, Masken seien für die Allgemeinbevölkerung nicht notwendig. Sie änderten später ihre Position.

Aber: Dieser Post „disputes authoritative information“ (die aktuelle WHO-Position).

Resultat: Post gedrosselt.

Beispiel 2:

Ein User postet: „Regierungszahlen zu Inflation sind unzuverlässig – sie berücksichtigen nicht Lebensmittel- und Energiepreise.“

Faktischer Status: Diskutabel. Ökonomen streiten darüber, wie Inflation gemessen werden sollte.

Aber: Dieser Post „disputes authoritative information“ (Regierungsstatistiken).

Resultat: Post als „misleading“ markiert.

Das Problem:

Regierungen und internationale Organisationen sind nicht unfehlbar. Sie können falsch liegen. Bürger müssen das Recht haben, sie zu hinterfragen.

Aber unter dieser Regel: Wer Autorität hinterfragt, wird zensiert.

Meta (Facebook/Instagram) – Die „Borderline Content“-Strategie

Community Standards Updates 2023-2024

Meta aktualisierte seine Community Standards im September 2023 und nochmal im März 2024.

Die Änderungen waren subtiler als bei TikTok – aber genauso wirksam.

Das „Borderline Content“-Konzept

Meta führte eine neue Kategorie ein: „Borderline Content“.

Definition (aus Meta-Dokumenten):

„Content that does not explicitly violate our Community Standards, but comes close to the line.“

Was passiert mit Borderline Content?

Es wird nicht gelöscht. Aber:

  • Algorithmisch gedrosselt – erscheint seltener in Newsfeeds
  • Nicht empfohlen – erscheint nicht in „Suggested Posts“ oder „Explore“
  • Herabgestuft in Suche – schwerer zu finden

Das ist brillant aus Zensur-Perspektive. Der Post existiert noch. Der Nutzer sieht keine Warnung. Aber niemand anders sieht ihn.

Unsichtbare Zensur.

Was ist „Borderline“?

Interne Richtlinien (aus gelakten Moderation-Trainings) zeigen Beispiele:

Borderline Hate Speech:

  • „Ich finde, es gibt nur zwei Geschlechter.“ (Nicht explizit hasserfüllt, aber „marginalizing“ für trans Personen)
  • „Islam ist keine Religion des Friedens.“ (Kritik an Religion, aber „pauschal“ — Borderline)

Borderline Misinformation:

  • „Lockdowns haben mehr Schaden angerichtet als Nutzen gebracht.“ (Meinungsaussage, aber „disputes public health consensus“ — Borderline)
  • „Impfstoffe haben bei manchen Menschen schwere Nebenwirkungen verursacht.“ (Faktisch wahr, aber „vaccine hesitancy“ — Borderline)

Borderline Political Content:

  • Posts, die Regierungen oder EU-Institutionen hart kritisieren
  • Posts, die Mainstream-Medien als „unzuverlässig“ bezeichnen

Hate Speech Erweiterung: Gender-bezogene Aussagen

Im März 2024 erweiterte Meta seine Hate Speech-Definition explizit um „gender identity“.

Neue verbotene Aussagen:

  • „Misgendering“ – jemanden mit falschen Pronomen ansprechen (auch wenn versehentlich)
  • „Denying gender identity“ – z.B. sagen „Biologisches Geschlecht ist unveränderlich“
  • „Mocking non-binary identities“ – z.B. Witze über „60+ Geschlechter“

Konkrete Fälle (aus Moderation-Logs):

Fall 1: User postet: „Ein Mann kann keine Frau werden, egal wie sehr er es sich wünscht.“

Resultat: 30-Tage Sperre wegen Hate Speech (Kategorie: Denying gender identity).

Fall 2: User postet: „Ich glaube nicht an das Konzept von ’non-binary‘.“

Resultat: Post gelöscht als Hate Speech.

Fall 3: User teilt einen Artikel über Detransitioners (Menschen, die ihre Transition bereuen).

Resultat: Post als „Borderline“ markiert, Reichweite um 60% reduziert.

COVID-Misinformation Policies – Was gelöscht wurde

Metas COVID-Policies (implementiert 2020-2022 auf Druck der EU) zensierten:

Kategorie 1: Impfstoff-Kritik

Gelöschte Posts:

  • „Ich kenne jemanden, der nach der Impfung Herzprobleme bekam.“ (Anekdote — „Vaccine hesitancy“)
  • „Warum werden Impfstoff-Hersteller von Haftung befreit?“ (Berechtigte Frage — „Undermines trust“)
  • „Natürliche Immunität ist besser als Impfung.“ (Kontroverse wissenschaftliche Meinung — „Misinformation“)

Kategorie 2: Lockdown-Kritik

Gedrosselte Posts:

  • „Lockdowns schaden Kindern mehr als COVID.“ (Wissenschaftlich diskutiert — Borderline)
  • „Schweden hat ohne Lockdown besser abgeschnitten.“ (Faktisch komplex — „Missing context“)

Kategorie 3: Masken-Kritik

Gelöschte Posts:

  • „Studien zeigen, dass Stoffmasken kaum Schutz bieten.“ (Faktisch korrekt — „Disputes public health guidance“)

Die Algorithmus-Änderungen – Wie „Demotion“ funktioniert

Was ist „Demotion“?

„Demotion“ bedeutet: Ein Post wird nicht gelöscht, aber algorithmisch so behandelt, dass er praktisch unsichtbar wird.

Technisch:

Jeder Post bekommt einen „Distribution Score“ – ein Algorithmus berechnet, wie vielen Nutzern der Post gezeigt wird.

Faktoren:

  • Engagement (Likes, Comments, Shares)
  • Recency (wie neu ist der Post)
  • Relevance (interessiert das den Nutzer)
  • Safety Score (ist der Inhalt „problematisch“)

Wenn ein Post als „Borderline“ oder „Misinformation“ markiert wird, sinkt der Safety Score drastisch — Distribution Score sinkt — Post wird kaum jemandem gezeigt.

Reichweiten-Reduktion:

Interne Meta-Daten (aus dem US-Kongress-Bericht) zeigen:

  • „Borderline Hate Speech“: -40% Reichweite
  • „Borderline Misinformation“: -60% Reichweite
  • „Repeated Borderline Violator“ (Nutzer, der mehrfach Borderline-Content postet): -80% Reichweite für alle Posts

Ein Nutzer, der regelmäßig kritische Inhalte über Migration, COVID-Policies oder EU-Politik postet, wird praktisch unsichtbar – ohne dass er je gesperrt wird.

„Shadow-Banning“ – Existiert es?

Offiziell sagen Platforms: „Wir machen kein Shadow-Banning.“

Definition Shadow-Banning:

Ein Nutzer wird nicht informiert, dass seine Posts gedrosselt werden. Er sieht seinen Post normal. Aber niemand anders sieht ihn.

Die Wahrheit:

Das ist exakt, was „Borderline Content Demotion“ macht.

Meta nennt es nicht „Shadow-Banning“. Sie nennen es „Reducing distribution of low-quality content.“

Aber das Resultat ist dasselbe:

  • Nutzer weiß nicht, dass er gedrosselt wird
  • Seine Posts verschwinden aus Newsfeeds
  • Seine Reichweite kollabiert

Beweis (aus internen Dokumenten):

Ein TikTok-Ingenieur schrieb in einem internen Slack-Channel (März 2024):

„The new DSA-compliant content filters are extremely aggressive. We’re seeing false positive rates of 15-20% on political content. Users are complaining their posts ‚disappear‘ – they’re not deleted, just de-boosted to near-zero visibility.“

15-20% False Positives. Das heißt: Jeder fünfte politische Post, der als „problematisch“ markiert wird, ist fälschlicherweise markiert.

Aber der Nutzer erfährt es nie.

Wie Platforms entscheiden: AI + Menschliche Moderatoren

Phase 1: AI-Filtering

Jeder Post wird von einem KI-Modell gescannt. Das Modell wurde trainiert mit Millionen Beispielen von „problematischem Content“.

Das Modell sucht nach:

  • Schlüsselwörtern (z.B. „Immigrant“, „Lockdown“, „Vaccine“, „Gender“, „Islam“)
  • Semantischen Mustern (z.B. „X ist gefährlich für Y“)
  • Tonalität (z.B. „aggressive language“)

Wenn das Modell einen Post als „potentiell problematisch“ einstuft (Score über einem Schwellenwert), wird er an Phase 2 weitergeleitet.

Phase 2: Human Review

Ein Moderator (oft in Philippinen, Indien oder Nordafrika) überprüft den Post.

Der Moderator hat 30-60 Sekunden Zeit pro Post.

Der Moderator folgt einem Decision Tree:

  • Verletzt der Post explizit eine Regel? → Löschen
  • Ist der Post „Borderline“? → Drosseln
  • Ist der Post okay? → Freigeben

Das Problem:

Moderatoren sind überarbeitet, unterbezahlt, schlecht trainiert. Sie machen Fehler. Bei Zweifel: Drosseln ist sicherer als Freigeben (weil die Platform sonst für „zu wenig Moderation“ bestraft werden könnte).

Das Resultat:

Massive Over-Moderation. Tausende Posts werden fälschlicherweise gedrosselt oder gelöscht.

Was das für Nutzer bedeutet – Der Chilling Effect

Selbstzensur als Resultat

Das Ziel dieser Policies ist nicht, jeden kritischen Post zu löschen.

Das Ziel ist: Nutzer dazu bringen, sich selbst zu zensieren.

Wie das funktioniert:

  1. User postet etwas Kritisches über EU, Migration, COVID, Gender
  2. Post wird gelöscht oder gedrosselt
  3. User denkt: „Wenn ich das nochmal poste, werde ich gesperrt“
  4. User postet nichts mehr Kritisches

Das ist der „Chilling Effect“ – die abschreckende Wirkung.

Menschen schweigen nicht, weil sie ihre Meinung geändert haben. Sie schweigen, weil sie Angst haben.

Die unsichtbare Meinungsmanipulation

Wenn kritische Posts systematisch gedrosselt werden, sieht die Öffentlichkeit nur noch eine Seite:

  • Pro-EU Posts werden nicht gedrosselt
  • Anti-EU Posts werden gedrosselt

Das Resultat:

Nutzer denken: „Alle sind pro-EU. Ich bin der einzige, der kritisch ist. Vielleicht liege ich falsch.“

Das ist soziale Isolation durch algorithmische Manipulation.

Aber in Wirklichkeit: Millionen Menschen denken dasselbe. Ihre Posts werden nur unsichtbar gemacht.

Beispiel: Deutschland und Migration

Ein Nutzer in Deutschland postet 2024:

„Ich mache mir Sorgen über unkontrollierte Migration.“

Was passiert:

  • KI markiert als „Borderline Anti-Migration Rhetoric“
  • Post wird um 60% gedrosselt
  • Statt 1.000 Menschen sehen ihn 400

Der Nutzer denkt: „Niemand interessiert sich für meine Meinung.“

In Wirklichkeit:

Millionen Deutsche denken dasselbe. Aber ihre Posts werden auch gedrosselt.

Das Ergebnis: Eine künstliche Illusion von Konsens.

Zusammenfassung

TikTok und Meta haben ihre Content-Policies auf Druck der EU-Kommission radikal geändert:

Neue Zensur-Kategorien:

  • „Marginalizing speech“ – politische Meinungen über Geschlecht, Religion, Kultur
  • „Coded language“ – jede Aussage kann als „dog whistle“ interpretiert werden
  • „Undermines public trust“ – wahre Aussagen, die Autoritäten kritisieren
  • „Out of context“ – subjektiv, willkürlich
  • „Disputes authoritative information“ – Regierungen hinterfragen verboten

Algorithmus-Manipulation:

  • „Borderline Content“ wird um 40-80% gedrosselt
  • Nutzer werden nicht informiert
  • „Shadow-Banning“ unter anderem Namen

Das Resultat:

  • Massive Selbstzensur
  • Künstliche Illusion von Konsens
  • Kritische Stimmen verschwinden

Das ist keine Verschwörungstheorie. Das ist dokumentiert. In internen Dokumenten. Mit Zeitstempeln. Mit konkreten Beispielen.

Teil 5 – Breton vs. Musk

Der Showdown zwischen EU-Kommissar Thierry Breton und Elon Musk. Der Drohbrief vom 12. August 2024. Die €120 Millionen Strafe gegen X. Warum Breton zurücktreten musste. Die Geschichte einer gescheiterten Einschüchterung.

Michael Hollister war sechs Jahre Bundeswehrsoldat (SFOR, KFOR) und blickt hinter die Kulissen militärischer Strategien. Nach 14 Jahren im IT-Security-Bereich analysiert er primärquellenbasiert europäische Militarisierung, westliche Interventionspolitik und geopolitische Machtverschiebungen. Ein Schwerpunkt seiner Arbeit liegt auf dem asiatischen Raum, insbesondere Südostasien, wo er strategische Abhängigkeiten, Einflusszonen und Sicherheitsarchitekturen untersucht. Hollister verbindet operative Innensicht mit kompromissloser Systemkritik – jenseits des Meinungsjournalismus. Seine Arbeiten erscheinen zweisprachig auf www.michael-hollister.com, bei Substack unter https://michaelhollister.substack.comsowie in kritischen Medien im deutsch- und englischsprachigen Raum.

Diese Analyse ist frei zugänglich – aber gute Recherchen kosten Zeit, Geld, Energie und Nerven. Unterstützen Sie mich, damit diese Arbeit weitergehen kann.

Buy Me A Coffee

Oder unterstützen Sie mich auf Substack – schon ab 5 USD pro Monat.

Gemeinsam bauen wir eine Gegenöffentlichkeit auf.

Quellenliste

U.S. House Committee on the Judiciary: „The Foreign Censorship Threat, Part II“ (February 3, 2026)
https://judiciary.house.gov/sites/evo-subsites/republicans-judiciary.house.gov/files/2026-02/THE-FOREIGN-CENSORSHIP-THREAT-PART-II-2-3-26.pdf

Folgende interne Dokumente werden im Bericht zitiert (nicht öffentlich zugänglich):

  • TikTok Community Guidelines Update Executive Summary (March 20, 2024) – Seiten 45-48
  • Meta Community Standards Updates (September 2023, March 2024) – Seiten 52-56
  • Internal Moderation Training Documents – Seiten 58-63
  • TikTok Engineering Slack Messages – Seite 89

TikTok Community Guidelines (öffentliche Version):
https://www.tiktok.com/community-guidelines/en/

Meta Community Standards (öffentliche Version):
https://transparency.meta.com/policies/community-standards/

© Michael Hollister — Alle Rechte vorbehalten. Die Weitergabe, Veröffentlichung oder Nutzung dieses Textes bedarf der ausdrücklichen schriftlichen Genehmigung des Autors. Bei Interesse an einer Weiterverwendung kontaktieren Sie bitte den Autor über www.michael-hollister.com.


Newsletter

🇩🇪 Deutsch: Verstehen Sie geopolitische Zusammenhänge durch Primärquellen, historische Parallelen und dokumentierte Machtstrukturen. Monatlich, zweisprachig (DE/EN).

🇬🇧 English: Understand geopolitical contexts through primary sources, historical patterns, and documented power structures. Monthly, bilingual (DE/EN).