OpenAI teilt ChatGPT-Protokolle mit Ermittlern
OpenAI hat erstmals detailliert offengelegt, wie mit Nutzerdaten in ChatGPT umgegangen wird. Dabei wird deutlich: Mitarbeiter dürfen Inhalte einsehen und diese im Ernstfall sogar an die Polizei weiterleiten.
Für viele Menschen ist ChatGPT schon jetzt nicht mehr wegzudenken.
© IMAGO / NurPhotoIn einem Blog-Beitrag hat der KI-Entwickler OpenAI erstmals genauer beschrieben, wie mit den Daten aus ChatGPT umgegangen wird, wie die Plattform Techbook berichtet. Demnach dürfen Mitarbeiter des Unternehmens Chats einsehen und im Verdachtsfall einschreiten. In dem Artikel heißt es, dieses Vorgehen greife, wenn „wir Nutzer entdecken, die anderen Schaden zufügen wollen“.
Ein internes Team bewertet verdächtige Inhalte und kann Konten sperren. In besonders kritischen Fällen betont OpenAI: „Wenn menschliche Prüfer feststellen, dass ein Fall eine unmittelbare Gefahr für die körperliche Unversehrtheit anderer darstellt, leiten wir ihn möglicherweise an die Strafverfolgungsbehörden weiter.“
Zugriff auf Chat-Inhalte durch Mitarbeiter
Den Datenschutz-FAQ von ChatGPT zufolge können sowohl Angestellte von OpenAI als auch „vertrauenswürdige” Dienstleister auf Nutzerdaten zugreifen. Als Gründe werden die Untersuchung von Missbrauch oder Sicherheitsvorfällen, die Bereitstellung von Support, die Bearbeitung rechtlicher Angelegenheiten sowie die Verbesserung der Modellleistung (außer bei Opt-out) genannt. Gleichzeitig stellt OpenAI klar, dass keine sensiblen Informationen weitergegeben werden sollen, die nicht geprüft oder genutzt werden dürfen.
Ausnahmen beim Thema Selbstverletzung
Das Unternehmen grenzt bestimmte Fälle deutlich ab: So werden Chats, die Selbstverletzungen thematisieren, nicht an Behörden übermittelt, „um die Privatsphäre der Menschen zu respektieren“. Angesichts von Vorfällen, bei denen KI-Anwendungen zu tragischen Konsequenzen führten, wirkt diese Haltung jedoch widersprüchlich. In den USA verklagen beispielsweise Eltern OpenAI, da ihr Sohn sich angeblich über ChatGPT eine Anleitung zum Suizid besorgt hat.
Kritik an unzureichendem Schutz
Eine Studie der Stanford University hatte bereits davor gewarnt, dass der Einsatz von KI in der psychischen Gesundheitsversorgung gefährlich sein könne. Deshalb sorgt es für Irritation, dass OpenAI Selbstverletzungsfälle von der Weitergabe an die Polizei ausschließt.
Zudem räumt OpenAI technische Schwierigkeiten ein. Die Schutzmechanismen funktionieren demnach am besten in kurzen Gesprächen. Je länger ein Chat andauert, desto eher „können Teile der Sicherheits-Trainings des Modells degradieren“. Nutzer könnten diese Schwachstelle ausnutzen, um Schutzfilter zu umgehen.
Auch in anderen Bereichen hakt es: Mitunter werden Inhalte angezeigt, die eigentlich blockiert sein sollten. Laut OpenAI liegt das daran, dass der Filter in manchen Fällen die Schwere der Inhalte unterschätzt. Der Konzern arbeitet daran, diese Probleme zu beheben und die Schutzvorkehrungen weiter zu verbessern.