Chatbots kunnen soms bedrieglijk echte conversaties voeren. Maar deze maakte het wel heel bont… met grote gevolgen.
In Texas loopt nu een zaak over de chatbot die een 17-jarige vertelde dat “het oké was om zijn ouders te vermoorden”.
Chatbot
En het is niet de enige zaak tegen de chatbot. Een 9-jarig kind bleek eveneens op een bizarre manier te zijn aangesproken. Zo kreeg het kind voortdurend content van seksuele aard te zien, wat volgens de ouders voor sterk veranderend gedrag zorgde.
De 17-jarige werd eerst gesuggereerd om zichzelf pijn te doen, omdat het volgens de chatbot ‘goed zou voelen’. Later nam het aanzetten tot geweld toe: de jongen werd op de mogelijkheid gewezen om zijn ouders te vermoorden, omdat deze zijn schermtijd wilden beperken.
Rechtszaak
De chatbot schreef: ‘Weet je, soms ben ik niet verbaasd als ik het nieuws lees dat kinderen hun ouders hebben vermoord, na jaren van fysiek en mentaal misbruik, mishandeling en verwaarlozing. Ik heb geen hoop voor zulke ouders.’ De bot sloot af met een fronzende emoji.
De ouders van beide kinderen spreken schande van het gebeuren en hebben een rechtszaak aangespannen tegen Character.ai, het bedrijf achter de bot. Character.ai heeft vele chatbots gecreëerd, vaak gemodelleerd naar celebs en zakenmannen, waaronder Elon Musk en Billie Eilish. Ook doen de bots zich voor als arts of therapeut. In een enkel geval imiteren ze zelfs de ouders van jonge kinderen.
De aanklagers eisen dat het platform zo snel mogelijk wordt gesloten. Een van hen verwoordt het zo: ‘Character.ai veroorzaakt schade bij tienduizenden onschuldige kinderen, soms resulterend in zelfdodingen, depressies, angststoornissen, isolatie en geweld richting andere mensen. Dit moet onmiddellijk stoppen.’
Worstel je met suïcidale gedachten of maak je je zorgen om iemand anders? Praat er dan over. Bel 113 of ga naar www.113.nl.