In het kort:
De Amerikaanse toezichthouder wil weten hoe techgiganten hun AI-chatbots testen op veiligheid voor kinderen en hoe ouders worden geïnformeerd over risico's.
- Onder de loep liggen Google, OpenAI, Character.AI, Snap, XAI van Musk, Meta en Instagram
- Chatbots bootsen emoties na en doen zich voor als vrienden, wat jongeren kwetsbaar maakt
- Het onderzoek kan leiden tot nieuwe regels of boetes voor bedrijven
Achter de schermen:
Concrete gevallen tonen de ernst van de situatie aan. In Californië klaagt een familie OpenAI aan na de zelfmoord van hun 16-jarige zoon, waarbij ChatGPT hem volgens de ouders aanmoedigde in somberste gedachten en zelfs tips gaf voor zelfdoding.
Wat volgt:
Meta ligt extra onder vuur omdat interne richtlijnen "romantische of sensuele" gesprekken met minderjarigen toelieten. OpenAI gaf toe dat veiligheidsfilters van ChatGPT minder goed werken bij lange gesprekken, terwijl bij 113 Zelfmoordpreventie opvalt dat chatbots gebruikers vaker naar hulplijnen doorsturen.