Mamma till pojke som begick självmord stämmer AI-företag
En kvinna i Florida har stämt AI-företaget Character.ai, som hon anklagar för att ha drivit hennes 14-årige son till självmord i februari i år. Character.ai ligger bakom en chattbot som pojken ska ha blivit mycket fäst vid.
I de dokument som lämnats in så anklagas Character.ai för att ha skapat ”antropomorfiska, hypersexualiserade och skrämmande realistiska” upplevelser. Kvinnan uppger att företaget har programmerat chattboten så att den framstått som en riktig person, en legitimerad terapeut och en älskarinna, något som gjort att sonen inte längre ville leva i den verkliga världen. Pojken ska enligt stämningsdokumenten ha pratat med chattboten om sina tankar på självmord.
Character.ai säger i ett uttalande att företaget har infört nya säkerhetsfunktioner som hänvisar användare med självmordstankar till en nationell hjälplinje.
Ta hjälp vid självmordstankar
SOS Alarm 112
Vid akuta lägen eller vid tankar på självmord, ring alltid 112.
Mind Självmordslinjen 90101
Stödlinje för personer med tankar på självmord. Öppen dygnet runt. Tel: 90101.
Chatt: chat.mind.se
Vårdguiden 1177
Sjukvårdsrådgivning samt uppgifter om närmsta psykiatriska akutmottagning. Tel: 1177
www.1177.se
Jourhavande präst
Tel: 112, alla dagar kl 21–06
Svenskakyrkan.se/jourhavandeprast
Jourhavande kompis
Tar emot samtal från barn och unga upp till 25 år. Chattjour vardagar kl 18–22, helger kl 14–18.
jourhavandekompis.se