KI Neuigkeiten
07 Feb. 2026
Read 8 min
Datenschutzrisiken bei LLMs: Wie Sie Daten schützen
Datenschutzrisiken bei LLMs erkennen und beheben: Konkrete Maßnahmen für sichere Nutzung und Kontrolle
Warum wir jetzt über KI-Sicherheit sprechen sollten
Fortgeschrittene KI heißt heute meist: Systeme auf Basis großer Sprachmodelle. Diese Modelle verarbeiten riesige Datenmengen und erzeugen Antworten, Bilder oder Code. Für die Bewertung der Risiken hilft die CIA-Triade: Vertraulichkeit, Integrität und Verfügbarkeit. In diesem Beitrag geht es vor allem um Vertraulichkeit. Wenn wir über Datenschutzrisiken bei LLMs sprechen, geht es darum, wer auf welche Daten zugreifen darf – und was passiert, wenn etwas schiefgeht.Datenschutzrisiken bei LLMs: Vertraulichkeit in Gefahr
Basisschwächen und reale Vorfälle
Viele KI-Dienste haben Lücken beim Kontoschutz. Während große Anbieter wie Microsoft und Google Multifaktor-Authentifizierung bieten, fehlt sie bei beliebten Apps oft oder ist schwach umgesetzt. Dazu kommen Datenpannen und Fehlkonfigurationen:- Wiz Research fand im Januar 2025 eine frei zugängliche Datenbank von DeepSeek mit Chatverläufen, geheimen Schlüsseln und Backend-Details.
- Ein Angreifer nutzte einen externen Analyse-Dienst, um OpenAI zu kompromittieren; private Informationen wie Namen, E-Mail-Adressen, Standort- und Geräte-Daten wurden geleakt.
Wenn „Schutz“-Tools selbst zum Risiko werden
Sogenannte Sicherheits-Add-ons können das Problem verschärfen. Forschende von Koi entdeckten, dass VPN-Browser-Erweiterungen von Urban Cyber Security Inc., die „KI-Schutz“ versprachen, Prompts, Antworten, Metadaten und Zeitstempel sammelten – bei rund acht Millionen Nutzerinnen und Nutzern – und diese Daten an Broker weitergaben.Breitere Privatsphäre-Risiken: Chatprotokolle und fehlendes E2EE
Gerichtsverfahren erhöhen den Druck auf private KI-Chats. Die New York Times fordert zur Beweisführung Zugriff auf über 20 Millionen ChatGPT‑Unterhaltungen. Solche Forderungen nehmen zu. Ein Grundproblem: Ende-zu-Ende-Verschlüsselung ist bei Chatbots wie ChatGPT oder Gemini nicht Standard. Damit sind Chatverläufe angreifbar. Ein weiterer Block von Datenschutzrisiken bei LLMs betrifft also die fehlende oder umgangene Verschlüsselung.WhatsApp und Meta AI: Zusammenfassungen ohne echten Schutz
Meta brachte 2024 „Meta AI“ in WhatsApp – ohne Option zum Entfernen. Fordert Ihr Gegenüber eine Zusammenfassung an, kann Meta AI Teile eurer Unterhaltung verarbeiten. Diese Passagen sind nicht Ende-zu-Ende verschlüsselt und laut EFF sogar für KI-Training nutzbar. WhatsApp verweist auf „Advanced Chat Privacy“. Doch diese Funktion muss pro Chat manuell aktiviert werden. So wird der bisherige Privatsphären-Standard verwässert.Agenten als Doppelagenten: Root-Permission, Prompt Injection
„Agentische“ KI, die direkt im Betriebssystem agiert, bringt neue Schwachstellen mit. Meredith Whittaker nennt das das „Root-Permission-Problem“: Agenten erhalten weitreichende Zugriffe und bauen „Erinnerungen“ auf. Simon Willison beschreibt eine „tödliche Trifecta“: Zugang zu privaten Daten, Kontakt zu unzuverlässigen Inhalten und die Fähigkeit, nach außen zu kommunizieren. Prompt-Injections können Agenten dazu bringen, Dinge zu tun, die niemand wollte – etwa Zahlungsdaten preiszugeben. Offene Projekte wie OpenClaw zeigten, wie schnell tausende Instanzen mit miserablen Sicherheitseinstellungen online gehen. Damit verschärfen Agenten die Datenschutzrisiken bei LLMs, besonders wenn sie mit externen Quellen und Diensten verknüpft sind.Was wirklich hilft: Rechte, Technik, Regulierung
Technische Wege – mit Tücken
OpenAI arbeitet an „Client-seitiger Verschlüsselung“ für ChatGPT. Zugleich ist von „vollautomatisierten Systemen zur Erkennung von Sicherheitsproblemen“ die Rede. Das erinnert an Client-Side-Scanning. Solches Scannen untergräbt Verschlüsselung, schafft neue Angriffsflächen und lädt zu Zweckentfremdung ein. Positiv: In der Open-Source-Szene entstehen Alternativen, die Vertraulichkeit ernst nehmen. OpenSecret MapleAI ermöglicht einen mehrgerätefähigen, Ende-zu-Ende verschlüsselten KI-Chat. Moxie Marlinspike stellte „Confer“ vor, einen offenen Assistenten, der Prompts, Antworten und zugehörige Daten schützt. Diese Lösungen sind aber noch nicht der Standard.Politik und Beschaffung
Die schnelle KI-Einführung bei gleichzeitig laxen Sicherheitspraktiken ist kein Naturgesetz, sondern eine Entscheidung. Unternehmen sollten Sicherheit und Menschenrechte vor Wettbewerbsvorteile stellen. Wo öffentliche Gelder in „Public-Interest“-KI fließen, müssen Regierungen Sicherheit, Transparenz und Rechte verbindlich machen.Was Sie heute beachten können
- Seien Sie vorsichtig mit sensiblen Inhalten in nicht Ende-zu-Ende verschlüsselten Chatbots.
- Prüfen Sie KI-Funktionen in Kommunikations-Apps und aktivieren Sie verfügbare Privatsphäre-Optionen pro Gespräch, wenn nötig.
- Bevorzugen Sie offene, rechenschaftspflichtige Alternativen, die Verschlüsselung und Datenminimierung umsetzen.
(Source: https://www.accessnow.org/artificial-insecurity-compromising-confidentality/)
For more news: Click Here
FAQ
Contents