Username, Passwort und mehr

ChatGPT zeigt angeblich vertrauliche Daten von fremden Usern an

Uhr
von Daniel Schurter / watson, yzu

Aus den USA erreicht uns ein alarmierender Bericht: ChatGPT habe Passwörter aus privaten Chats gegenüber Dritten preisgegeben. Auch Namen unveröffentlichter Forschungsarbeiten, Präsentationen und PHP-Skripte seien durchgesickert.

(Source: Jacob Mindak / Unsplash.com)
(Source: Jacob Mindak / Unsplash.com)

Das US-amerikanische Techportal Ars Technica hat in der Nacht auf Dienstag einen beunruhigenden Bericht publiziert. Demnach zeigte ChatGPT vertrauliche Inhalte aus privaten Chats im Konto eines fremden ChatGPT-Users an.

Und dies, obwohl der besagte User vorgängig gar nicht versucht haben soll, den KI-Chatbot mittels Texteingabe (Prompt) zu einem Fehlverhalten zu verleiten.

Sicher ist: Der Vorfall wirft viele Fragen auf.

Was liess ChatGPT durchsickern?

Gemäss Ars Technica hat ein User insgesamt sieben Screenshots eingereicht, wovon zwei besonders hervorgestochen seien. Denn diese umfassten unter anderem Benutzerdaten und Passwörter für einen Online-Dienst.

"Beide [Screenshots] enthielten mehrere Paare aus Benutzernamen und Passwörtern, die offenbar mit einem Supportsystem in Verbindung standen, das von Mitarbeitern eines Apothekenportals für verschreibungspflichtige Medikamente genutzt wurde. Ein Mitarbeiter, der den KI-Chatbot nutzte, schien Probleme zu beheben, die bei der Nutzung des Portals aufgetreten waren."

Screenshot soll zeigen, dass ChatGPT vertrauliche Inhalte leakte, bzw. ungewollt an eine Drittperson durchsickern liess.

Dieser Screenshot soll zeigen, dass ChatGPT vertrauliche ältere Informationen aus einem privaten Chat leakte, bzw. ungewollt an eine Drittperson durchsickern liess. (Source: Screenshot/ars technica)

Die unerwarteten Outputs seien am Montagmorgen plötzlich aufgetaucht, kurz nachdem der User ChatGPT «für eine nicht verwandte Anfrage» verwendet hatte.

Der Entdecker der fremden Chats schilderte: "Ich habe eine Anfrage gestellt (in diesem Fall Hilfe bei der Suche nach cleveren Namen für Farben in einer Palette) und als ich einen Moment später zum Zugriff zurückkehrte, fielen mir die zusätzlichen Konversationen auf."

Die Chats seien nicht dagewesen, als er ChatGPT am Vorabend verwendet habe, so der User. Und er habe auch keine entsprechenden Prompts gemacht. Die fremden Daten seien in seinem ChatGPT-Verlauf (in der Seitenleiste) angezeigt worden und stammten mit Sicherheit nicht von ihm.

Weitere durchgesickerte Chats umfassten den Namen einer Präsentation, an der jemand gearbeitet habe, Einzelheiten eines unveröffentlichten Forschungsvorschlags und ein Skript, das die Programmiersprache PHP verwende.

Die User der einzelnen durchgesickerten Chats schienen unterschiedlich zu sein und nichts miteinander zu tun zu haben, heisst es im Bericht. In der Unterhaltung über das Verschreibungsportal werde das Jahr 2020 genannt. In den anderen Gesprächen gebe es keine Datumsangaben.

Wie konnte das passieren?

Das ist nicht klar.

Ein Kommentator bei Ars Technica schreibt, die geleakten Anmeldedaten stammten aus einer Zeit, bevor ChatGPT öffentlich verfügbar war. Demnach seien die Daten wahrscheinlich in den Datensätzen enthalten gewesen, mit denen das Sprachmodell (LLM) von OpenAI trainiert wurde.

Ein anderer User wies darauf hin, dass das grosse Sprachmodell GPT-2 von OpenAI im Februar 2019 verfügbar gewesen sei. Es gebe also keinen Grund zu der Annahme, dass es «Trainingsdaten» seien. Vielmehr dürfte es sich um Chatverläufe von sogenannten Early Adopters handeln, also um User, die schon sehr früh mit der KI arbeiteten.

Ein anderer Kommentator widerspricht. ChatGPT speichere den Verlauf der User-Eingaben (Prompts) und der vom KI-System generierten Antworten. Anscheinend sei ein Fehler aufgetreten, bei dem der Verlauf der Prompts mitsamt Antworten in den Konten anderer Leute angezeigt wurde.

Ein Vertreter von OpenAI sagte gegenüber Ars Technica, das Unternehmen untersuche den Bericht.

Was lernen wir daraus?

Dieser und weitere Vorfälle unterstreichen gemäss Ars Technica, wie wichtig es sei, persönliche Daten aus Anfragen an ChatGPT und anderen KI-Diensten zu entfernen.

Im März 2023 hatte die ChatGPT-Entwicklerin OpenAI den KI-Chatbot offline geschaltet, nachdem ein Fehler dazu geführt hatte, dass die Website gegenüber Drittpersonen Titel aus dem Chatverlauf eines aktiven Users anzeigte.

Im November 2023 veröffentlichten Forschende einen Fachartikel (PDF), in dem sie berichteten, wie sie ChatGPT mit Prompts veranlassen konnten, E-Mail-Adressen, Telefon- und Faxnummern, physische Adressen und andere private Daten preiszugeben. Die entsprechenden Daten seien in dem Material enthalten gewesen, das zum Trainieren des grossen Sprachmodells von OpenAI verwendet wurde.

Weiter ruft Ars Technica in Erinnerung, dass mehrere grosse Unternehmen, darunter Apple, die Nutzung von ChatGPT und anderer KI-Chatbots durch die eigenen Angestellten eingeschränkt, oder gleich ganz verboten haben.

Dieser Artikel ist zuerst bei "Watson" erschienen.

Übrigens: Der Swico listet in einem Merkblatt sieben Risiken auf, die es bei ChatGPT und Co. zu beachten gilt. Mehr dazu lesen Sie hier. 

Wenn Sie mehr zu Cybercrime und Cybersecurity lesen möchten, melden Sie sich hier für den Newsletter von Swisscybersecurity.net an. Auf dem Portal lesen Sie täglich News über aktuelle Bedrohungen und neue Abwehrstrategien.

 

 

Webcode
Qftcu4bF

Dossiers

» Mehr Dossiers

Aktuelle Ausgabe

Direkt in Ihren Briefkasten CHF 60.- » Magazin Abonnieren » Zum shop » Newsletter