Künstliche Intelligenz ist längst in den Arbeitsalltag integriert, doch nicht jede KI-Lösung erfüllt die gleichen Datenschutzstandards. Besonders bei der Verarbeitung sensibler Daten stellt sich die Frage: Welche KI-Modelle sind DSGVO-konform und welche Risiken bestehen?
In diesem Artikel vergleichen wir die Datenschutzaspekte von Deepseekund OpenAI und zeigen, wie Unternehmen ChatGPT noch sicherer einsetzen können.
Datenschutz bei OpenAI: Strenge Vorgaben, aber Datenverarbeitung in den USA
OpenAI, das Unternehmen hinter ChatGPT, legt großen Wert auf Datenschutz und gibt an, dass in der kostenpflichtigen Team- und Enterprise-Version keine Eingaben zur Modellverbesserung verwendet werden. In der kostenlosen und Pro-Version können jedoch Nutzereingaben zur Weiterentwicklung des Modells herangezogen werden, was für Unternehmen mit hohen Datenschutzanforderungen problematisch sein kann.
Es gibt zwei zentrale Herausforderungen:
-
Datenverarbeitung außerhalb der EU: OpenAI verarbeitet Nutzerdaten primär auf Servern in den USA. Damit greifen US-Gesetze wie der CLOUD Act, die potenziell Behördenzugriffe ermöglichen.
-
Eingeschränkte Kontrolle in der Standardversion: Während Unternehmen in der Team- und Enterprise-Version Zugriff auf Datenschutzvereinbarungen (DPA) haben und ihre Daten nicht für Trainingszwecke genutzt werden, besteht dieses Schutzniveau in der kostenlosen und Pro-Version nicht.
Für Unternehmen mit hohen Datenschutzanforderungen bietet OpenAI mit ChatGPT Team und Enterprise Lösungen an, die eine keine Speicherung von Eingaben garantieren, einen Auftragsverarbeitungsvertrag (DPA) bereitstellen und lokale Datenkontrollen ermöglichen.
Deepseek: Open-Source mit Datenschutzvorteilen – aber mit offenen Fragen
Deepseek ist eine Open-Source-Alternative aus China und bietet volle Transparenz über seine Architektur. Das bedeutet:
-
Keine direkte Datenweitergabe an eine zentrale Instanz: Wer Deepseek auf eigenen Servern betreibt, hat volle Kontrolle über die Datenverarbeitung.
-
Erweiterte Anpassbarkeit: Unternehmen können eigene Datenschutzrichtlinien umsetzen und bestimmen, welche Daten gespeichert oder anonymisiert werden.
Aber auch hier gibt es Risiken:
-
Unklare DSGVO-Konformität: Da Deepseek aus China stammt, ist unklar, ob das Modell Datenschutzrichtlinien wie die DSGVO in vollem Umfang einhält.
-
Komplexe Implementierung: Die Nutzung erfordert technisches Know-how, da Unternehmen die Infrastruktur selbst aufsetzen müssen.
Wie man ChatGPT sicherer nutzen kann
Unabhängig vom gewählten KI-Modell gibt es Möglichkeiten, Datenschutzrisiken zu minimieren:
-
ChatGPT Team oder Enterprise nutzen: Diese Varianten verhindern, dass Eingaben zur Modellverbesserung genutzt werden und bieten einen Auftragsverarbeitungsvertrag (DPA).
-
Keine selbstgehosteten Instanzen von OpenAI möglich: OpenAI bietet derzeit keine On-Premise-Version von ChatGPT an. Unternehmen, die KI auf eigenen Servern oder in einer privaten Cloud betreiben wollen, müssen auf Open-Source-Modelle wie LLaMA 2, Mistral AI oder Deepseek zurückgreifen. Diese ermöglichen vollständige Datenkontrolle, erfordern aber technisches Know-how.
-
Eingaben bewusst formulieren: Keine sensiblen personenbezogenen Daten oder Geschäftsgeheimnisse in KI-Abfragen eingeben.
-
Datenschutzrichtlinien prüfen: Unternehmen sollten interne KI-Nutzungsrichtlinien etablieren, um Compliance-Risiken zu vermeiden.
Fazit: Datenschutz als Entscheidungskriterium
Die Wahl des richtigen KI-Systems hängt stark von den Datenschutzanforderungen eines Unternehmens ab. Während OpenAI mit der Team- und Enterprise-Version robuste Datenschutzmechanismen und einen DPA bietet, besteht in der kostenlosen und Pro-Version das Risiko, dass Nutzereingaben zur Modellverbesserung genutzt werden. Deepseek hingegen bietet durch seine Open-Source-Struktur theoretisch mehr Kontrolle über die Daten, stellt aber rechtliche Fragen hinsichtlich DSGVO-Konformität und setzt technisches Know-how voraus. Unternehmen sollten sich daher bewusst für eine Lösung entscheiden, die nicht nur funktional, sondern auch datenschutzkonform ist.