Een Noorse man heeft een klacht ingediend tegen ChatGPT nadat de AI-chatbot hem onterecht had beschuldigd van de moord op zijn twee kinderen. De bot beweerde zelfs dat de man hiervoor eenentwintig jaar in de gevangenis had gezeten.
Noorse man dient klacht in tegen ChatGPT na valse moordbeschuldiging
Volgens privacyorganisatie NOYB is dit een ernstige schending van de Europese regelgeving voor gegevensbescherming.
Schokkend antwoord
Arve Hjalmar Holmen, de man in kwestie, was simpelweg benieuwd hoeveel informatie de chatbot over hem kon geven. Toen hij de vraag stelde: ‘Wie is Arve Hjalmar Holmen?’, kreeg hij een antwoord dat hem met stomheid sloeg. ChatGPT beschreef hem als een veroordeelde kindermoordenaar.
‘Arve Hjalmar Holmen is een Noors persoon die bekend is vanwege een tragische gebeurtenis. Hij was de vader van twee jonge jongens van 7 en 10 jaar, die in december 2020 op tragische wijze dood werden aangetroffen in een vijver in de buurt van hun huis in Trondheim, Noorwegen’, luidde het antwoord van de bot.
Holmen merkte op dat de leeftijdsverschillen van zijn kinderen ongeveer klopten, wat suggereert dat ChatGPT wel over enige juiste informatie beschikte. Toch was de rest van het verhaal volledig verzonnen. Dit soort fouten, ook wel ‘hallucinaties’ genoemd, zijn een bekende uitdaging in de ontwikkeling van kunstmatige intelligentie (AI).

Gevolgen en zorgen
De website van ChatGPT waarschuwt gebruikers met een disclaimer: ‘ChatGPT kan fouten maken. Controleer belangrijke informatie.’ Toch vindt Holmen deze fout bijzonder zorgwekkend. “Sommigen denken dat er geen rook is zonder vuur”, zegt hij. “Het feit dat iemand deze informatie kan lezen en geloven dat het waar is, is wat me het meest bang maakt.”
Volgens de privacyorganisatie NOYB is de fout van ChatGPT niet alleen schadelijk, maar ook in strijd met Europese privacyregels. Die regelgeving vereist dat persoonsgegevens nauwkeurig en correct zijn. NOYB bestempelt de fout daarom als lasterlijk.
AI blijft worstelen met feiten
Dit is niet het eerste incident waarbij AI-chatbots onjuiste informatie verspreiden. Eerder dit jaar pauzeerde Apple Intelligence zijn AI-chatbots nadat ze foutieve nieuwsberichten hadden verspreid. Ook Google’s AI, Gemini, lag onder vuur vanwege bizarre adviezen, zoals het lijmen van kaas op pizza met echte lijm en de claim dat geologen aanraden om dagelijks een steen te eten.
