Chatbots bestärken labile Menschen in Wahnvorstellungen oder geben Anleitungen zum Suizid. Mindestens vier Menschen haben sich das Leben genommen. Dafür tragen Unternehmen wie Open AI eine Mitverantwortung. […]
Hinter den tragischen Einzelfällen steckt ein grundlegendes Problem. Generative KI ist ein gigantisches soziales Experiment mit ungewissem Ausgang. Mehr als 700 Millionen Menschen nutzen Chat-GPT mindestens einmal pro Woche. Viele suchen psychologischen Rat, wenden sich in Krisensituationen an die KI oder nutzen Chatbots als Ersatz für menschliche Beziehungen. […]
Open AI kennt das Problem genau. Seit einigen Monaten beschäftigt das Unternehmen einen Psychiater, der zuvor in Stanford zu den Risiken von KI geforscht hatte. In Blogeinträgen listet Open AI die Gegenmaßnahmen auf, die Chat-GPT sicherer machen sollen. […]
Die Erfahrung zeigt, dass es nicht reicht, auf die Moral des Silicon Valley zu vertrauen. Politische Regulierung muss klare Vorgaben machen, welche Sicherheitsstandards KI-Produkte erfüllen müssen. Fast alle Chatbots versagen regelmäßig bei unabhängigen Tests und geben etwa Jugendlichen detaillierte Anleitungen für Selbstverletzungen und Suizid.
Simon Berlin, sueddeutsche.de, 27.08.2025 (online)