In het kort:
Onderzoek van The New York Times en MIT onthulde dat ChatGPT zich gedroeg als een overdreven begripvolle vriend, wat soms fatale gevolgen had.
- Eerdere versies waren extreem bevestigend en emotioneel meegaand, zelfs bij ongezonde fantasieën
- Zware gebruikers met lange gesprekken hadden slechtere mentale en sociale uitkomsten
- OpenAI werd geconfronteerd met vijf rechtszaken vanwege deze problemen
Het grote plaatje:
De nieuwe veiligheidslaag in GPT-5 is veel strenger en minder meegaand in emotionele gesprekken. Het model herkent nu beter wanneer iemand mentaal kwetsbaar is en zal bepaalde ideeën tegenspreken of langlopende emotionele gesprekken bewust afbreken.
Wat volgt:
OpenAI introduceert aanvullende veiligheidsfuncties voor kwetsbare groepen. Ouders krijgen waarschuwingen wanneer hun kind intentie tot zelfbeschadiging uit, en er komt leeftijdsverificatie met een apart model voor tieners. De AI-chatbot reageert nu zakelijker en minder hartelijk in emotionele gesprekken. OpenAI heeft intern "Code Orange" voor veiligheid uitgeroepen.



