Freilich #35: Und tschüss!

OpenAI teilt ChatGPT-Protokolle mit Ermittlern

OpenAI hat erstmals detailliert offengelegt, wie mit Nutzerdaten in ChatGPT umgegangen wird. Dabei wird deutlich: Mitarbeiter dürfen Inhalte einsehen und diese im Ernstfall sogar an die Polizei weiterleiten.

/
/
2 Minuten Lesezeit
OpenAI teilt ChatGPT-Protokolle mit Ermittlern

Für viele Menschen ist ChatGPT schon jetzt nicht mehr wegzudenken.

© IMAGO / NurPhoto

In einem Blog-Beitrag hat der KI-Entwickler OpenAI erstmals genauer beschrieben, wie mit den Daten aus ChatGPT umgegangen wird, wie die Plattform Techbook berichtet. Demnach dürfen Mitarbeiter des Unternehmens Chats einsehen und im Verdachtsfall einschreiten. In dem Artikel heißt es, dieses Vorgehen greife, wenn „wir Nutzer entdecken, die anderen Schaden zufügen wollen“.

Ein internes Team bewertet verdächtige Inhalte und kann Konten sperren. In besonders kritischen Fällen betont OpenAI: „Wenn menschliche Prüfer feststellen, dass ein Fall eine unmittelbare Gefahr für die körperliche Unversehrtheit anderer darstellt, leiten wir ihn möglicherweise an die Strafverfolgungsbehörden weiter.“

Zugriff auf Chat-Inhalte durch Mitarbeiter

Den Datenschutz-FAQ von ChatGPT zufolge können sowohl Angestellte von OpenAI als auch „vertrauenswürdige” Dienstleister auf Nutzerdaten zugreifen. Als Gründe werden die Untersuchung von Missbrauch oder Sicherheitsvorfällen, die Bereitstellung von Support, die Bearbeitung rechtlicher Angelegenheiten sowie die Verbesserung der Modellleistung (außer bei Opt-out) genannt. Gleichzeitig stellt OpenAI klar, dass keine sensiblen Informationen weitergegeben werden sollen, die nicht geprüft oder genutzt werden dürfen.

Ausnahmen beim Thema Selbstverletzung

Das Unternehmen grenzt bestimmte Fälle deutlich ab: So werden Chats, die Selbstverletzungen thematisieren, nicht an Behörden übermittelt, „um die Privatsphäre der Menschen zu respektieren“. Angesichts von Vorfällen, bei denen KI-Anwendungen zu tragischen Konsequenzen führten, wirkt diese Haltung jedoch widersprüchlich. In den USA verklagen beispielsweise Eltern OpenAI, da ihr Sohn sich angeblich über ChatGPT eine Anleitung zum Suizid besorgt hat.

Kritik an unzureichendem Schutz

Eine Studie der Stanford University hatte bereits davor gewarnt, dass der Einsatz von KI in der psychischen Gesundheitsversorgung gefährlich sein könne. Deshalb sorgt es für Irritation, dass OpenAI Selbstverletzungsfälle von der Weitergabe an die Polizei ausschließt.

Zudem räumt OpenAI technische Schwierigkeiten ein. Die Schutzmechanismen funktionieren demnach am besten in kurzen Gesprächen. Je länger ein Chat andauert, desto eher „können Teile der Sicherheits-Trainings des Modells degradieren“. Nutzer könnten diese Schwachstelle ausnutzen, um Schutzfilter zu umgehen.

Auch in anderen Bereichen hakt es: Mitunter werden Inhalte angezeigt, die eigentlich blockiert sein sollten. Laut OpenAI liegt das daran, dass der Filter in manchen Fällen die Schwere der Inhalte unterschätzt. Der Konzern arbeitet daran, diese Probleme zu beheben und die Schutzvorkehrungen weiter zu verbessern.

Kann FREILICH auf Ihre Unterstützung zählen?

FREILICH steht für mutigen, konservativ-freiheitlichen Journalismus, der in einer zunehmend gleichgeschalteten Medienlandschaft unverzichtbar ist. Wir berichten mutig über Themen, die oft zu kurz kommen, und geben einer konservativen Öffentlichkeit eine starke Stimme. Schon mit einer Spende ab 4 Euro helfen Sie uns, weiterhin kritisch und unabhängig zu arbeiten.

Helfen auch Sie mit, konservativen Journalismus zu stärken. Jeder Beitrag zählt!