#kidi_11: So schützt ihr eure Daten bei ChatGPT & Co.

Symbolbild zum Thema Datenschutz
Bild erstellt mit ChatGPT

„Werden meine Daten zum Training verwendet?“ – „Was passiert mit vertraulichen Kursinhalten?“ – „Kann ich das hier wirklich eingeben?“ Diese Fragen tauchen in praktisch jedem unserer Kurs auf, sobald KI-Tools im Spiel sind. Und das zu Recht, denn Einstellungen zum Datenschutz sind gut versteckt und die Standardkonfigurationen selten datenschutzfreundlich. In diesem Beitrag zeigen wir euch Schritt für Schritt, wie ihr die Kontrolle über eure Daten zurückgewinnt.

Weiterlesen: #kidi_11: So schützt ihr eure Daten bei ChatGPT & Co.

In #kidi_09 hat Stefan bereits einen Überblick über KI-Funktionen gegeben – darunter auch erste Datenschutz-Tipps und DSGVO-konforme Alternativen zu gängigen KI-Modellen.

In diesem Beitrag erfahrt ihr…

  1. warum KI-Anbieter eure Eingaben standardmäßig zum Training nutzen – und was das konkret bedeutet,
  2. wie ihr bei ChatGPT & Co das Training mit euren Daten deaktiviert,
  3. was ihr keinesfalls in KI-Tools eingeben solltet,
  4. wann die Funktion „Temporärer Chat“ sinnvoll ist und
  5. was hinter den Daumen-hoch/Daumen-runter-Symbolen steckt.

KI-Modelle wie ChatGPT, Gemini oder Claude werden kontinuierlich durch das sogenannte „Reinforcement Learning from Human Feedback“ (RLHF) verbessert. Das bedeutet, eure Eingaben können dazu verwendet werden, die KI „schlauer“ zu machen.

Das Problem dabei: Forschungsergebnisse zeigen, dass Sprachmodelle spezifische Sequenzen aus ihren Trainingsdaten speichern und unter bestimmten Bedingungen wieder ausgeben können. Dies schließt personenbezogene Informationen oder vertrauliche Inhalte ein.

Ein Laptop mit einem leuchtenden, geöffneten Vorhängeschloss auf dem Display, aus dem zahlreiche „DATA“-Schriftzüge in Richtung einer zugreifenden Hand schweben.
Bild generiert mit dem KI-Tool Nano Banana.

Beispiel: Samsung-Leak von 2023
Der Samsung-Leak gilt heute als Paradebeispiel für unbedachte Datenpreisgabe. Samsung-Mitarbeitende haben vertrauliche Unternehmensdaten und Quellcode in ChatGPT eingegeben. Was sie nicht bedacht haben: Ihre Eingaben wurden auf externen Servern gespeichert und sind potenziell in das Training von ChatGPT eingeflossen.

Bild im Ghibli-Animationsstilmit, generiert mit ChatGPT von Elon Musk: Elon Musk hält einen Hund hoch.
Elon Musks Ghibli-Version des berühmten Doge-Memes. Generiert mit dem Bildtool von ChatGPT.

Beispiel: Fotos im Stil von Ghibli
Im März 2025 führte OpenAI eine neue Bildgenerierungsfunktion ein, mit der Nutzer:innen Fotos im Stil des japanischen Animationsstudios Ghibli umwandeln konnten. Der virale Trend führte dazu, dass massenhaft persönliche Fotos hochgeladen wurden. Oft ohne Einwilligung der abgebildeten Personen.

Was wir gutgläubig zur Optimierung unserer Arbeit oder als Spielerei eingeben, kann ungewollt zu Datenschutzverletzungen führen. Insbesondere dann, wenn wir die Standardeinstellungen nicht anpassen.

Die Einstellungen dazu verstecken sich meist hinter irreführenden Bezeichnungen wie „Das Modell für alle verbessern“, wie hier bei ChatGPT:

Collage aus zwei Screenshots, die zeigt, wie man in den Einstellungen unter „Datenkontrollen“ die Option „Das Modell für alle verbessern“ deaktiviert.
Schritt-für-Schritt-Anleitung zum Ausschalten der Trainingsdaten bei ChatGPT.
  1. Meldet euch bei eurem ChatGPT-Konto an.
  2. Klickt auf euer Profilbild (unten links oder oben rechts).
  3. Wählt „Einstellungen“ aus dem Dropdown-Menü.
  4. Navigiert zum Abschnitt „Datenkontrollen“.
  5. Deaktiviert den Schalter „Das Modell für alle verbessern“.

Personenbezogene Daten (Namen, Kontaktdaten, Geburtsdaten)
Vertrauliche Kursmaterialien mit geschützten oder urheberrechtlich sensiblen Inhalten
Interne Dokumente eurer Organisation (Strategiepapiere, Finanzpläne, Sitzungsprotokolle)
Informationen über Kund:innen oder Geschäftsbeziehungen
Passwörter, Zugangsdaten, Kontoinformationen
Medizinische, psychologische oder besonders sensible persönliche Informationen
Vollständige E-Mails oder Protokolle mit Personenbezug (außer vollständig anonymisiert)

Faustregel: Würdet ihr diese Information auf eine Pinnwand im Büro hängen, wo jede:r sie lesen kann? Nein? Dann gehört sie auch nicht in die KI.

Diese Grundregel gilt unabhängig davon, welche Datenschutzeinstellungen ihr vornehmt. Denn selbst bei deaktiviertem Training werden eure Daten temporär gespeichert – und im Fall von Sicherheitsprüfungen oder rechtlichen Anforderungen können sie durchaus eingesehen werden.

Auch wenn ihr das Training deaktiviert habt, werden eure Chats in der Regel gespeichert und erscheinen in eurer Historie. Für besonders sensible Anfragen – etwa wenn ihr vertrauliche Dokumente analysieren oder persönliche Situationen besprechen wollt – gibt es eine zusätzliche Schutzebene: den temporären Chat.

Der temporäre Chat funktioniert ähnlich wie der Inkognito-Modus eines Webbrowsers. Die Konversation wird weder in eurer Historie gespeichert noch für die Personalisierung künftiger Antworten verwendet. Nach einer bestimmten Zeit (meist 30 Tage) wird der Chat endgültig gelöscht.

So aktiviert ihr den Modus:

Bei ChatGPT: Klickt auf das Symbol für „Temporärer Chat“ oben rechts neben eurem Profilbild. Der Bildschirm wird dunkler, um zu signalisieren, dass ihr euch im temporären Modus befindet.

Temporärer Chat bei ChatGPT von Open AI.
Temporärer Chat bei ChatGPT von Open AI.

Auch bei anderen KI-Sprachmodellen findet ihr den temporären Chat rechts oben, meist als „Inkognito-Modus“:

Inkognito-Modus bei Le Chat von Mistral.
Inkognito-Modus bei Le Chat von Mistral.
Inkognito-Modus bei Claude von Anthropic.
Inkognito-Modus bei Claude von Anthropic.
Vorteile des temporären ChatsNachteile des temporären Chats
✅ Minimiert den digitalen Fußabdruck auf den Servern des Anbieters❌ Kein Zugriff auf frühere Konversationen für Referenzzwecke
✅ Verhindert, dass die KI Informationen in den Langzeitspeicher übernimmt❌ Die KI „vergisst“ den Kontext sofort nach Beendigung der Sitzung
✅ Reduziert das Risiko, dass bei einem möglichen Kontozugriff durch Dritte Chatprotokolle eingesehen werden können❌ Schützt nicht vor Echtzeit-Überwachung auf dem lokalen Endgerät

Die Symbole für „Daumen hoch“ und „Daumen runter“ unter den KI-Antworten wirken wie harmlose Zufriedenheitsabfragen. Tatsächlich sind sie aber aktive Eingaben in den Prozess des Reinforcement Learning from Human Feedback (RLHF).

ChatGPT-Antwort mit markierten Daumen-Icons für Nutzer-Feedback.
Feedback geben: „Daumen hoch“ oder „Daumen runter“ ist mehr als Feedback. Es trainiert mit den Daten des Chats das KI-Modell.

Was passiert, wenn ihr Feedback gebt?

Wenn ihr auf eines der Symbole klickt, sendet ihr nicht nur eine einfache Bewertung, sondern meist auch den gesamten Gesprächskontext zur Analyse an den Anbieter. Insbesondere negatives Feedback wird oft von menschlichen Trainer:innen gesichtet, um Fehlerquellen zu identifizieren.

Das bedeutet konkret: Die betreffende Konversation kann – ungeachtet sonstiger Datenschutzeinstellungen – von einer realen Person gelesen werden. Bei Anthropic werden solche Feedback-Daten bis zu fünf Jahre aufbewahrt.

Vorteile von FeedbackNachteile von Feedback
✅ Verbesserung der faktischen Korrektheit der KI❌ Erhöhte Datenexposition durch menschliche Überprüfung
✅ Reduzierung von Bias und problematischen Inhalten❌ Längere Aufbewahrungsfristen (bei Anthropic bis zu fünf Jahre)
✅ Optimierung der Sicherheitsfilter❌ Mögliche Einsicht in sensible Gesprächsinhalte
  1. Training deaktivieren: Unmittelbar nach der Registrierung solltet ihr das Training in den Einstellungen ausschalten.
  2. Temporären Chat einrichten: Macht euch mit dem temporären Chat-Modus vertraut und nutzt ihn für sensible Anfragen.
  3. Vorsicht bei Feedback: Gebt kein Feedback (Daumen hoch/runter) zu Chats, die vertrauliche Informationen enthalten.
  4. Datenschutzbestimmungen lesen: Nehmt euch die Zeit, die Datenschutzbestimmungen der einzelnen Tools durchzulesen – sie ändern sich regelmäßig.

Autorin: Irene Steindl

Lust auf mehr? Zu allen Beiträgen der Serie kommst du HIER!

Dieses Werk ist lizenziert unter einer Creative Commons Namensnennung-NichtKommerziell-Weitergabe unter gleichen Bedingungen unter gleichen Bedingungen 3.0 Österreich Lizenz.
Volltext der Lizenz

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Time limit is exhausted. Please reload CAPTCHA.