OpenAI beschränkt ChatGPTs Datensammlung
Unternehmen, die ChatGPT nutzen, können verhindern, dass die von den Nutzern eingegebenen Informationen anschliessend zu Trainingszwecken ausgewertet werden. OpenAI muss jedoch noch weitere Änderungen vornehmen, um seinen Dienst DSGVO-konform zu machen.
OpenAI hat eine neue Funktion von ChatGPT vorgestellt, mit der die Nutzung von Nutzerdaten kontrolliert werden kann. Die Benutzer können nun den Chatverlauf über die Einstellungen des Tools deaktivieren. Dadurch werden die Gespräche nicht mehr für das Training der Modelle der Firma verwendet. OpenAI wird sie 30 Tage lang aufbewahren, um sie auf Missbrauch zu überprüfen, danach werden sie gelöscht.
Die Firma arbeitet ausserdem an einer Business-Version von ChatGPT, die es Unternehmen unter anderem ermöglichen wird, ihre Nutzer zu verwalten und die Auswertung ihrer Daten standardmäßig zu deaktivieren.
Mit diesen Neuerungen reagiert OpenAI auf eine grosse Sorge von Unternehmen, dass vertrauliche Informationen und persönliche Daten dazu verwendet werden, die Modelle von OpenAI zu füttern, mit dem zusätzlichen Risiko, dass diese Informationen in den Antworten des Tools wieder auftauchen.
Andere Datenschutzprobleme bleiben jedoch ungelöst, insbesondere die Frage, ob das Tool der DSGVO entspricht. Zur Erinnerung: Italien hat die Einstellung des ChatGPT-Dienstes gefordert und verlangt, dass OpenAI bis zum 30. April mehrere Änderungen vornimmt, darunter die Information der Nutzer über die Verarbeitung ihrer Daten, die Klärung der Rechtsgrundlage für diese Verarbeitung oder die Möglichkeit, ihre Rechte in Bezug auf ihre Daten auszuüben. Eine weitere offene Frage ist das Urheberrecht, das mit den Inhalten verbunden ist, die im Internet gesammelt werden, um die Modelle von OpenAI zu trainieren.
Künftig soll ChatGPT auch das Internet durchsuchen können, um Trainingsdaten zu sammeln. Wie Unternehmen sich davor schützen können, lesen Sie hier.