Skip to main content

Im Auftrag der Moral: Wie die EU ihre Zensoren mit Forschungszugriff ausstattet

Es gibt ein neues Schlagwort in der digitalen Weltordnung: Zugang für Forschung. Was klingt wie der Beginn einer offenen Wissenschaftsära, ist in Wahrheit der Eintritt in ein neues Zeitalter der Gesinnungsermittlung. Der Digital Services Act (DSA) hat seine Werkzeuge geschärft. Seit dem 3. Juli 2025 ist es offiziell: Große Online-Dienste wie Facebook, TikTok oder X müssen ihre Datenspeicher öffnen. Aber nicht für alle – sondern für ausgewählte, vorab geprüfte, regierungsnahe Einrichtungen, die sich selbst als „Forschungseinrichtungen“ bezeichnen.

Und damit beginnt das eigentliche Problem. Denn es sind nicht unabhängige Universitätsinstitute, die in erster Linie von diesen neuen Rechten profitieren. Sondern: Akteure wie HateAid, EDMO, „Respekt – Bildungsforum gegen Hass im Netz“ oder „Hessen gegen Hetze“ – also Organisationen, die schon heute maßgeblich daran beteiligt sind, Hass-Definitionen zu entwickeln, Online-Meldestellen zu betreiben und Inhalte zur Löschung vorzuschlagen.

Jetzt erhalten sie – unter dem Deckmantel „Forschung“ – privilegierten Zugriff auf Plattformdaten: Engagement-Raten, Inhaltsvorschläge, personalisierte Empfehlungssysteme, und vor allem: ungefilterte Nutzerdaten.

Mit anderen Worten: Was früher Plattformbetreiber exklusiv auswerten konnten, können nun politisch positionierte Organisationen durchforsten – und das viel effizienter als zuvor. Die technischen Limits für Datenabfragen werden aufgehoben. Das Anfragevolumen ist nicht mehr beschränkt. Es wird gesucht, geloggt, etikettiert – mit dem Ziel, „Hass“ zu identifizieren, zu klassifizieren und in Zukunft möglichst automatisiert zu entfernen.

Vom Forscher zum Vollzugsgehilfen

Der Wandel ist tiefgreifend – und folgt einem klaren Muster: Aus der neutralen, kritischen Wissenschaft wird eine exekutive Disziplin. Forscher:innen, die dem neuen Zugangsportal der EU beitreten wollen, müssen sich verpflichten, ihre Ergebnisse öffentlich zu machen – aber auch, ihre Anträge vorher exakt zu formulieren, inklusive Datenformat, Umfang und rechtlicher Sicherheitsmaßnahmen.

Gleichzeitig wissen sie zu Beginn nicht, welche Daten sie am Ende überhaupt erhalten – müssen aber trotzdem Datenschutz-Folgenabschätzungen einreichen, Sicherheitsarchitekturen aufbauen, juristische Risiken einkalkulieren. Wer diese Hürden nicht nehmen kann, bleibt außen vor. Wer aber die Regeln erfüllt – oder besser: die richtigen politischen Verbindungen hat –, erhält Einlass in die Datenmaschinenräume der Gesellschaft.

Der zentrale Bruch: Es geht nicht mehr um Erkenntnis, sondern um Risikobewertung. Um präventive Normsetzung. Um narrative Kontrolle.

Der Zugriff der Moralindustrie

Was hier etabliert wird, ist ein digitales Ökosystem aus moralischer Bewertung, algorithmischer Aufrüstung und politischer Steuerung. Die „Wissenschaft“, die hier Zugriff bekommt, ist keine kritische Instanz mehr, sondern Teil einer neuen Legitimitätsmaschine bspw:

  • HateAid berät Regierungen.

  • EDMO erhält Fördermittel von der EU-Kommission.

  • „Respekt“ erstellt pädagogische Handreichungen für Schulen und Behörden.

  • „Hessen gegen Hetze“ betreibt Online-Meldestellen mit direktem Draht zu Polizei und Justiz.

Sie alle forschen nicht im klassischen Sinn – sie kategorisieren, markieren, klassifizieren. Ihre Arbeit ist eng verzahnt mit dem staatlichen Auftrag, „systemische Risiken“ zu erkennen. Und diese Risiken – das sagt der Rechtsakt sehr deutlich – sind Kommunikationsrisiken. Es geht nicht um Gewalt, sondern um Worte.

Die Plattform als Ort der Vorermittlung

In einer dystopischen Ironie hat sich die Plattformgesellschaft damit selbst zur Ermittlungsplattform gemacht. Der DSA institutionalisiert nicht nur den Zugriff auf Daten – er strukturiert das gesamte Ökosystem um:

Was nicht als „risikoarm“ gilt, wird gelöscht. Was nicht konform ist, wird entmonetarisiert. Was unangepasst ist, verschwindet.

Und die Instanzen, die diesen Risikobegriff mit Inhalt füllen, heißen nicht mehr Innenministerium oder Staatsanwaltschaft, sondern: „Collaboratory“, „EDMO“, „Respekt“. Sie sind die neue Avantgarde der Kontrolle, eingebettet in ein rechtsförmiges, scheinbar neutrales System. Aber ihre Arbeit ist alles andere als neutral. Sie ist ideologisch aufgeladen, moralisch kodiert, aktivistisch unterfüttert – und vor allem: dem demokratischen Diskurs entzogen.

Der blinde Fleck: Wer kontrolliert die Datendetektive?

Die entscheidende Frage wird nicht gestellt: Wer prüft, wer forschen darf? Wer definiert, was legitimes Interesse ist? Wer verhindert, dass politische Organisationen mit dem Etikett „zivilgesellschaftlich“ durch unsere Beiträge scrollen wie durch ein Verhörprotokoll?

Die Antwort ist so einfach wie erschreckend: Niemand. Denn der neue Rechtsakt enthält keine formalen Widerspruchsmöglichkeiten, keine Transparenzpflicht gegenüber Betroffenen, keine Kontrolle durch unabhängige Dritte. Die „Forschung“ ist nur nach oben rechenschaftspflichtig – gegenüber der EU-Kommission, nicht gegenüber dem Bürger.

Die Dialektik der Transparenz

Die Öffnung der Plattformdaten sollte ursprünglich ein emanzipatorischer Akt sein. Doch sie gerät zur Umkehrung ihrer selbst: Statt Transparenz für die Gesellschaft gibt es Transparenz über die Gesellschaft. Statt Kontrolle der Macht sehen wir die Verwissenschaftlichung des Verdachts.

Topic Gesellschaft

0 comments

Would you like to be the first to write a comment?
Become a member of SCHIRRMACHER 2.0 and start the conversation.
Become a member