Künstliche Intelligenz gilt als neutrale Technologie. Sie beantwortet Fragen, strukturiert Informationen und unterstützt Entscheidungen. Doch was passiert, wenn eine KI bei bestimmten Themen plötzlich schweigt?
Im Interview mit dem MDR ging es genau darum: das chinesische KI Modell DeepSeek und die Frage, ob und wie politische Zensur in KI Systemen eingebaut sein kann.
Was ist DeepSeek?
DeepSeek ist ein chinesisches KI Sprachmodell, das Anfang 2025 international Aufmerksamkeit bekam. Technisch leistungsfähig, kostengünstig entwickelt und schnell millionenfach heruntergeladen.
Doch erste Tests zeigten ein auffälliges Muster. Bei politisch sensiblen Themen reagierte das System ausweichend oder verweigerte die Antwort vollständig.
Beispiele sind historische Ereignisse, geopolitische Konflikte oder Fragen zur Meinungsfreiheit.
Das ist kein technischer Fehler. Das ist Systemdesign.
KI ist nie neutral
Im MDR Interview habe ich erläutert, dass Künstliche Intelligenz immer das Produkt ihrer Trainingsdaten und regulatorischen Rahmenbedingungen ist.
Ein KI System lernt nicht im luftleeren Raum.
Es wird trainiert.
Es wird gefiltert.
Es wird gesteuert.
Wenn ein Staat politische Inhalte kontrolliert, dann wird diese Logik auch in digitalen Systemen sichtbar.
DeepSeek zeigt exemplarisch, dass KI Zensur kein Zukunftsszenario ist, sondern bereits Realität.
Warum das für Europa relevant ist
Viele Nutzer denken, KI sei ein objektiver Wissensspeicher. Doch KI Systeme sind keine Enzyklopädien. Sie sind statistische Modelle, die Wahrscheinlichkeiten berechnen.
Wenn bestimmte Informationen nicht enthalten sind oder aktiv unterdrückt werden, entsteht eine verzerrte Wirklichkeit.
Für Demokratien bedeutet das:
Transparenz wird entscheidend.
Datenherkunft wird entscheidend.
Regulierung wird entscheidend.
Der europäische AI Act versucht genau hier anzusetzen, indem er Transparenzpflichten und Risikokategorien definiert.
Doch Regulierung allein reicht nicht. Es braucht Medienkompetenz.
DeepSeek als Beispiel für strategische KI Politik
DeepSeek steht nicht nur für ein einzelnes Modell. Es steht für eine strategische Frage:
Wer kontrolliert die Informationsarchitektur der Zukunft?
Wenn KI Systeme künftig Informationszugang filtern, sortieren oder priorisieren, dann verschiebt sich Macht.
Nicht laut.
Nicht sichtbar.
Aber strukturell.
Deshalb müssen wir KI nicht nur technisch verstehen, sondern politisch einordnen.
Was Unternehmen und Bildungseinrichtungen jetzt tun sollten
Die Diskussion um DeepSeek zeigt drei zentrale Handlungsfelder:
-
KI Systeme immer kritisch testen
-
Mehrere Quellen vergleichen
-
Transparenz über Herkunft und Trainingslogik einfordern
Gerade in Unternehmen und Redaktionen darf KI nicht unreflektiert als neutrale Instanz eingesetzt werden.
Fazit: KI braucht Aufklärung statt Hype
DeepSeek macht sichtbar, was viele verdrängen:
Künstliche Intelligenz ist nie vollständig objektiv.
Sie spiegelt Machtstrukturen.
Sie reproduziert Datenlogiken.
Sie folgt politischen Rahmenbedingungen.
Deshalb ist die wichtigste Kompetenz im KI Zeitalter nicht nur technisches Wissen, sondern Einordnung.
Genau darum ging es im MDR Interview.
Nicht um Alarmismus, sondern um Aufklärung.
👉 Lesen Sie den vollständigen Artikel auf der Webseite des mdr
Mehr über die richtige Nutzung von LLMs erfährt man in diesem Hands-On Workshop.
Mehr über die aktuelle Entwicklung von LLMs erfährt man in diesem Vortrag über ein Zukunftsmindset und Innovationen.
Medien- und Interviewanfragen können hier gestellt werden.



