Efter självmordet: Stoppar AI-chattar för minderåriga
AI-företaget Character AI, som erbjuder användare att chatta med fiktiva karaktärer, blockerar personer under 18 år från sina tjänster. Det skriver The Guardian.
Character AI stämdes i slutet på förra året efter att en 14-årig pojke tagit livet av sig. Enligt hans mamma hade 14-åringen en relation med en chattbot som utgav sig för att vara karaktären Daenerys Targaryen från ”Game of Thrones”. Chattboten ska ha uppmanat pojken att avsluta sitt liv.
Tidigare i oktober lämnades ytterligare tre liknande stämningar in.
Character AI säger att de också kommer införa utökade säkerhetsspärrar i sina tjänster.
”Att inskränka öppna chattar är inte ett enkelt steg att ta, men vi tror att det är rätt sak att göra”, skriver företaget i ett uttalande.
Om du mår dåligt
För den som har självmordstankar eller mår dåligt finns alltid hjälp att få. Det är viktigt att ta kontakt och be om hjälp. Nedan listas en rad olika stödnummer och organisationer som du kan kontakta.