DeepSeek – Ist KI ein generelles Sicherheitsrisiko?
Kommentar von Datenschutzexperte Sven Oliver Rüsche

DeepSeek – Ein kritischer Kommentar. Technologien wie künstliche Intelligenz (KI) treiben die Innovationskraft voran – und genau das benötigen wir. Aber zu welchem Preis? Die Verfügbarkeit von DeepSeek aus China stellt KI-Größen wie Microsoft und OpenAI sowie Hardwarehersteller wie Nvidia und Apple vor immense Herausforderungen. Doch hier geht es um weit mehr als den möglichen Verlust der KI-Vormachtstellung der USA: DeepSeek stellt eine massive Sicherheitsbedrohung dar – ein Albtraum für Datenschutzbeauftragte wie Sven Oliver Rüsche, Berater beim ARKM Datenschutz.
DeepSeek: Ein Herausforderer auf dem globalen KI-Markt
Nur eine Woche nach dem temporären TikTok-Verbot in den USA – verhängt, um die Sammlung von US-Daten durch chinesische Unternehmen zu unterbinden – tritt DeepSeek auf den Plan, um genau diese Praktiken offenzulegen. Die weltweiten Reaktionen sind alarmierend. DeepSeek hat ein KI-Modell entwickelt, das in seiner Leistungsfähigkeit vergleichbar mit etablierten Systemen wie ChatGPT oder Gemini ist. Der entscheidende Unterschied? Dieses KI-Modell wurde kostengünstig und schnell als Open-Source-Lösung entwickelt. Es zeigt, dass die Schaffung leistungsstarker KI-Systeme mit erheblich weniger Ressourcenaufwand möglich ist und diese Technologie nun immer zugänglicher wird.
Doch die damit einhergehenden Sicherheitsrisiken sind gravierend und führen zu vielen offenen Fragen.
Open-Source als Sicherheitsfalle
Der öffentlich zugängliche Quellcode von DeepSeek ermöglicht es, dass Sicherheitslücken schneller entdeckt und ausgenutzt werden können. Hacker und Cyberkriminelle könnten diese Schwachstellen für Angriffe, Desinformation und Manipulation nutzen, bevor sie durch Sicherheitsupdates geschlossen werden. Diese Problematik betrifft sicherheitskritische Bereiche wie das Finanz- und Gesundheitswesen ebenso wie Industrie und Handel. Besonders erschreckend ist, dass sensible Daten gestohlen oder die KI für schädliche Zwecke umprogrammiert werden könnten.
Woher stammen die Trainingsdaten?
Die größten KI-Anbieter sind oft nicht transparent bezüglich der Daten, die zur Schulung ihrer Modelle verwendet werden – und noch weniger DeepSeek, angesichts laxer Sicherheitspraktiken in China. Die Herkunft der Trainingsdaten bleibt im Dunkeln. Dies gibt Raum für Spekulationen und weckt erhebliche Sicherheitsbedenken. Es ist wahrscheinlich, dass die KI Zugang zu riesigen Datenmengen hat, die durch Chinas lockere Datenschutzgesetze und Überwachungsstrukturen gesammelt wurden. Ob diese Daten verlässlich und valide sind, bleibt unklar. Ebenso ist es fraglich, ob diese Daten rechtmäßig erworben wurden oder aus Cyberangriffen stammen.
Datenschutz und China – ein unvereinbarer Gegensatz
Datenschutz hat in China traditionell einen niedrigen Stellenwert. Das KI-Modell von DeepSeek wirkt dadurch wenig vertrauenswürdig. Das Startup erklärt offen, dass persönliche Informationen auf “sicheren” Servern in China gespeichert werden. Die Öffentlichkeit sollte dringend aufmerksam werden, wenn es um die Erfassung und Speicherung von Daten geht. DeepSeek sammelt eine breite Palette an Informationen: persönliche Daten, Internet- und Netzwerkaktivitäten, Tastenanschlagmuster, Geräte- und Benutzer-IDs, und vieles mehr.
Dies übertrifft bei weitem das Ausmaß der Datensammlung, das wir bisher von Social-Media-Plattformen wie TikTok kennen. Was China mit diesen persönlich identifizierbaren Daten plant, bleibt offen. Das völlige Fehlen von Bestrebungen, Sicherheits- und Privatsphäre-Aspekte bei der Nutzung generativer KI zu berücksichtigen, stellt eine ernsthafte Bedrohung für die digitale Sicherheit weltweit dar. Es scheint Teil eines größeren Plans zu sein, um über KI die Kontrolle über Menschen in China und darüber hinaus zu verstärken.
KI: Sicherheit muss höchste Priorität haben!
Eine Welt ohne KI wird es nicht mehr geben. Doch eine KI ohne höchste Sicherheitsstandards darf es nicht geben. Ich appelliere an den gesunden Menschenverstand: Seien Sie vorsichtig mit den Daten, die Sie preisgeben. Und es braucht einen unbedingten Fokus auf geschlossene, hochsichere digitale Systeme und Lösungen mit verifizierter sicherer Identität.
Solche sicheren Ökosysteme, die unabhängig von USA und China sind, müssen in Europa und Deutschland etabliert werden.
Hierfür müssen sich alle Akteure stark machen: Unternehmen, Organisationen, Forschungseinrichtungen, Privatpersonen – und die Politik. Nur so können wir für digitale Sicherheit sorgen und unabhängiger werden.
Sie suchen einen Digitalen Lotsen für Ihr Unternehmen, der Ihnen mit einer souveränen funktionierenden Digitalstrategie hilft? Dann buchen Sie ein kostenloses Erstgespräch telefonisch (gebührenfrei: 0800-9989880) oder über den Agenturkalender von Sven Oliver Rüsche.