Digitaler Kontrollstaat: Wie China KI zum politischen Instrument formt

Ein neues Zeitalter der digitalen Herrschaft

Kaum eine Technologie prägt das moderne China der Gegenwart so stark wie die Künstliche Intelligenz. Was einst als Werkzeug zur industriellen Erneuerung gefeiert wurde, ist heute weit mehr, nämlich eine Infrastruktur politischer Kontrolle. Wie die Volksrepublik in den vergangenen Jahren eine KI-Architektur aufgebaut hat, die tief in Gesellschaft, Verwaltung, Wirtschaft und internationale Beziehungen eingreift, verdeutlicht eine Studie des ›Australian Strategic Policy Institute‹ (ASPI). Dabei versteht die chinesische Führung »KI-Sicherheit« nicht als Schutz der Bürger, sondern als Sicherung des Staates – ein grundlegender Unterschied zu demokratischen Konzepten technologischer Verantwortung.

Während Regulierung in liberalen Ländern die Wahrung von Transparenz, Menschenrechten und technischer Robustheit betont, wird in China primär die Verhaltenskontrolle und -lenkung betont: KI soll vorhersehbar, steuerbar und politisch zuverlässig arbeiten. Diese ideologische Grundhaltung bildet das Fundament eines Systems, das immer stärker auf automatisierte Überwachung, algorithmische Verhaltenssteuerung und industrielle Zensur setzt.

Censorship by Design: Wenn KI politisch sieht und schweigt

Über Jahre stand die Textzensur im Fokus internationaler Beobachter. Doch mittlerweile sind es die multimodalen KI-Modelle, die Chinas Informationskontrolle auf ein neues Niveau heben. Große Sprachmodelle wie Baidus Ernie, Alibabas Qwen oder Zhipus GLM filtern nicht nur Textinhalte – sie erkennen und zensieren auch politisch sensible Bilder.

Das ist bemerkenswert, weil visuelle Zensur bislang deutlich schwerer zu automatisieren war. Dennoch zeigte sich in umfangreichen Tests: Die Modelle reagieren besonders stark auf ikonische Motive chinesischer Zeitgeschichte – Proteste, politisch heikle Orte, religiöse Gruppen, Katastrophen oder historische Gewalt. Zensur tritt nicht offen als Verbot auf. Stattdessen präsentieren die Systeme umdeutende, verharmlosende oder ausweichende Antworten, je nach Sprache, Hosting-Standort oder Prompt.

So kann ein Modell das Bild des Tian‘anmen-Platzes (Ort des Tian‘anmen-Massakers am 04.06.1989) in englischer Sprache sachlich beschreiben, während es bei derselben Anfrage auf Chinesisch plötzlich auf »harmonische gesellschaftliche Entwicklung« verweist oder die Antwort verweigert. Die Filtermechanismen liegen auf mehreren Ebenen des Modells – tief in Trainingsdaten, System-Prompts und feingetunten Moderationsschichten.

Dieser Wandel bedeutet: Zensur wird unsichtbarer. Nutzerinnen und Nutzer können kaum erkennen, ob das Modell aus technischen Gründen schweigt oder aus politisch gewollter Zurückhaltung. Genau das macht KI-gestützte Informationskontrolle so mächtig – und so gefährlich für jeden offenen Diskurs.

Die Automatisierungsmaschine: Wie China Online-Zensur industrialisiert

Das Internet Chinas ist kein chaotischer Informationsraum, sondern ein algorithmisch geordnetes Ökosystem. Die Kommunistische Partei verlangt von jeder Plattform – von WeChat über TikTok bis zur Suchmaschine Baidu – eine lückenlose Überwachung und Moderation. Das Ergebnis ist eine erstaunliche Form ökonomischer Dynamik: Zensur ist ein milliardenschwerer Markt geworden. Große Technologieunternehmen bieten ganze Moderations-Ökosysteme an, darunter:

  • Baidus Content Censoring Platform, ein vollautomatisiertes System zur Filterung von Text, Bild und Video, das Verstöße erkennt, markiert und im Zweifel direkt mit Sicherheitsbehörden kommuniziert.
  • Bytedances Echtzeit-Contentklassifizierung, die virale Verbreitung politisch unerwünschter Inhalte drosselt oder verhindert.
  • Tencents intelligent content audit, das Nachrichtenfeeds, Chats und Video-Uploads auf »abweichende« Inhalte prüft.

Diese Systeme entfernen Inhalte innerhalb von Sekunden – oft bevor Nutzer sie überhaupt sehen. Schwierigere Fälle, etwa Satire, Minderheitensprachen oder codierte Anspielungen, gehen an menschliche Zensoren, deren Stellenbeschreibungen ganz selbstverständlich Kenntnisse in »politischem Verständnis« und »sozialer Stabilität« fordern.

Bislang existiert noch ein Rest menschlichen Ermessens. Doch die Richtung ist klar: Zukünftige Modelle sollen auch diese Lücken schließen. Die Vorstellung einer vollständig KI-gesteuerten Informationsordnung rückt näher – mit einer Effizienz, die in ihrer Konsequenz historisch neu ist.

Smart Justice: KI im Dienst eines politisierten Rechtssystems

Die Integration von KI in die chinesische Strafverfolgung ist besonders weit fortgeschritten. Der australische Bericht zeigt ein Bild, das mit rechtsstaatlichen Vorstellungen kaum vereinbar ist: China betreibt eine vollständige KI-Justizpipeline. Sie umfasst:

  1. Massenüberwachung durch Kameras, Sensoren, Gesichtserkennung, Verhaltensprognosen.
  2. Vorausschauende Polizeiarbeit (Predictive policing), die aufgrund algorithmischer Muster bereits potenziell »unerwünschte« Personen identifiziert.
  3. Digitale Staatsanwaltschaften, die Fälle automatisch strukturieren und Verdachtsmomente einstufen.
  4. Gerichte, die KI zur Unterstützung von Entscheidungsvorschlägen nutzen – einschließlich Urteils- und Strafempfehlungen.
  5. Gefängnisse, in denen KI-basierte Überwachungssysteme Verhaltensanalysen durchführen.

Offiziell erhöht dies die Effizienz. Inoffiziell entsteht ein System, das die ohnehin eingeschränkten Verteidigungsrechte des Einzelnen weiter schwächt. KI wird hier nicht eingesetzt, um Ungerechtigkeit zu mindern, sondern um die politische Kontrolle zu vertiefen.

Besonders auffällig ist die Rolle des Tech-Unternehmens ›iFlytek‹, das Sprach- und Erkennungssysteme liefert und seit Jahren in staatliche Überwachungsprojekte eingebunden ist.

So entsteht ein »smarter« Justizapparat, dessen algorithmische Entscheidungen von außen kaum nachvollziehbar sind – und der Fehler oder politische Verzerrungen systematisch reproduziert.

Minderheitensprachen unter algorithmischer Beobachtung

Während internationale Debatten oft über die Gesichtserkennung in der mehrheitlich muslimischen autonomen Region Xinjiang sprechen, zeigt der Bericht eine neuere, subtilere Entwicklung: China baut LLMs für Minderheitensprachen, die speziell der Überwachung politisch sensibler Gruppen dienen. Zu diesen überwachten Sprachen zählen:

  • Uigurisch
  • Tibetisch
  • Mongolisch
  • Koreanisch.

Diese Sprachmodelle analysieren Texte, Audio-Nachrichten, Memes und Videos, um frühzeitig Stimmungen in der Bevölkerung, abweichende Meinungen oder Tumult- und Aufstandspotenzial zu erkennen. Die Technologie dient ausdrücklich – wie es im Bericht heißt – der »public-opinion prevention and control« (Prävention und Kontrolle der öffentlichen Meinung).

Bemerkenswert ist, dass die Systeme nicht auf China beschränkt bleiben sollen. Mehrere staatlich geförderte Forschungszentren entwickeln die Tools mit dem Ziel, sie in Ländern entlang der ›Neuen Seidenstraße‹ (Belt and Road Initiative; BRI) einzusetzen, wo dieselben Bevölkerungsgruppen leben und kommunizieren. Der Ansatz folgt einer Logik der ethnischen Kontinuität, nicht geografischer Grenzen. Damit entsteht eine Art transnationaler Überwachungsraum, dessen Reichweite über Staatsgrenzen hinausreicht – eine neue Form digitaler Einflussnahme, die bisher kaum öffentlich diskutiert wird.

Überwachung aus dem Orbit: Chinas KI-Satellitennetz

Ebenfalls weniger bekannt, aber strategisch bedeutsam ist Chinas Plan eines globalen Netzwerks KI-gesteuerter Satelliten, das zivile und militärische Funktion vereint. Ziel ist eine permanente, algorithmisch ausgewertete Erdbeobachtung, die sowohl für wirtschaftliche Projekte als auch für sicherheitspolitische Zwecke nutzbar ist.

Ein solches Netzwerk würde China im Bereich des globalen »Situationsbewusstseins« (Situational Awareness) einen Vorsprung verschaffen – und könnte die Überwachung ethnischer Regionen wie Xinjiang oder internationaler Seewege weiter intensivieren. Unter Situational Awareness wird die Wahrnehmung der eigenen Umgebung, die Einsicht in die Bedeutung der Elemente sowie die Vorhersage zukünftiger Entwicklungen verstanden, um jederzeit angemessen reagieren zu können.

KI als geopolitische Waffe: Die Fischerei als Beispiel

Die ASPI-Studie beschreibt auch ein Feld, das auf den ersten Blick unscheinbar wirken mag, aber exemplarisch für Chinas KI-gestützten Machtanspruch steht: die industrielle Fernfischerei. Hierbei nutzen chinesische Flotten zunehmend KI-Systeme wie:

  • Yuyao Fishing Eagle
  • Sea Eagle AI
  • AoXin 1.0.

Diese Werkzeuge liefern präzise Vorhersagen über Fischschwärme, Strömungen und Fangwahrscheinlichkeiten. Das Ergebnis: Chinesische Schiffe sind in der Lage, die lokale Fischwirtschaft in Ländern wie Mauretanien, Vanuatu oder der Inseln im Südchinesischen Meer massiv zu übervorteilen – oft über bestehende Verträge hinaus oder sogar illegal.

Dies führt zu:

  • einer systematischen Erosion der wirtschaftlichen Rechte lokaler Küstengemeinden,
  • einer Abhängigkeit von chinesischen Verarbeitungs- und Handelsketten,
  • wachsenden sozialen Konflikten zwischen lokalen (d.h. ausländischen) Fischern und chinesischen Flotten.

Dieser Fall zeigt, wie KI nicht nur innenpolitische Kontrolle ermöglicht, sondern auch die ökonomische Machtprojektion im Ausland verstärkt – häufig zum Nachteil ärmerer Staaten.

Export eines autoritären Modells

China ist heute der weltweit größte Exporteur von KI-Überwachungstechnologie. Viele dieser Systeme gehen in Länder des Globalen Südens, in denen Regierungen auf der Suche nach günstigen Tools zur eigenen Machtsicherung sind.

Parallel dazu versucht China, internationale Standards im Sinne seiner eigenen »Governance-Ideen« zu beeinflussen – etwa über die »Global AI Governance Initiative« des chinesischen Außenministeriums oder durch Vorschläge wie die Einrichtung einer »World Artificial Intelligence Cooperation Organisation« (WAICO). Diese Idee wurde von Präsident Xi Jinping auf dem APEC-Gipfel 2025 unterstützt und sieht die Schaffung eines globalen Gremiums zur Regulierung von KI vor, das Standards festlegt, die Open-Source-Entwicklung fördert und sicherstellt, dass KI der gesamten Menschheit zugutekommt. Ein weiteres Ziel ist es, die Bemühungen der Vereinten Nationen zu ergänzen und eine gemeinsame Entwicklung, insbesondere für den globalen Süden, zu fördern und gleichzeitig Chinas Führungsrolle im Bereich der KI zu stärken. Möglicher Hauptsitz der Organisation könnte Shanghai sein.

Damit steht nicht nur die Frage im Raum, wie Technologie reguliert werden sollte, sondern auch, wessen Werte und Machtstrukturen im digitalen Zeitalter global dominieren werden.

Eine neue normative Frage: Welche Zukunft wollen wir?

Die Entwicklungen zeigen: Chinas KI-Architektur ist nicht nur ein nationales Projekt, sondern ein Modell, das weltweit Wirkung entfaltet und zunehmend Nachahmer findet. Der Kern des Systems ist technologische Effizienz kombiniert mit politischer »Eingebundenheit« – eine Kombination, die viele autoritäre oder halbautoritäre Regierungen attraktiv finden könnten. Die Herausforderungen sind daher global:

  • Wie verhindern offene Gesellschaften die schleichende Normalisierung autoritärer KI-Praxis?
  • Wie können Transparenz und Menschenrechte in internationalen Standards verankert werden?
  • Und wie lässt sich verhindern, dass KI-Systeme zur Infrastruktur staatlicher Einflussnahme über Grenzen hinweg werden?
Zwischen Innovation und Kontrolle

Die chinesische KI-Entwicklung ist zweifellos dynamisch und innovativ. Doch ihre Einbindung in ein politisches System, das Stabilität über Freiheit stellt, führt zu einer Form technologischer Macht, die kaum historische Vorbilder kennt. China schafft nicht nur neue Werkzeuge – es schafft neue Normen.

Von multimodaler Zensur über algorithmische Justiz, überwachungskulturelle Eingriffe in Minderheitensprachen, KI-Satelliten, bis zu ökonomischer Kontrolle durch intelligente Fischerei: Das System formt Alltag, Recht, Wirtschaft und internationale Beziehungen gleichermaßen. Die Frage ist nicht, wie mächtig diese Technologie ist. Die Frage ist, wer sie kontrolliert – und zu welchem Zweck.

© ÆON-Z e.V. Thinktank. Hinweis: Bei der Recherche und Analyse dieses Beitrags wurde unterstützend Künstliche Intelligenz eingesetzt. Die redaktionelle Verantwortung für den Inhalt liegt bei der Redaktion. Alle Rechte vorbehalten, all rights reserved. Nachdruck und Weitergabe an Dritte untersagt.

Diese Seite kann nicht kopiert werden!