ChatGPT skandaliserer nordmænd: Falske mordanklager afsløret!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Artiklen fremhæver juridiske udfordringer for OpenAI efter ChatGPT fejlagtigt stemplede en nordmand som en morder.

ChatGPT skandaliserer nordmænd: Falske mordanklager afsløret!

En chokerende hændelse vækker opsigt i Europa: Norske Arve Hjalmar Holmen har ramt overskrifterne efter ChatGPT, OpenAIs AI-drevne chatbot, spredte falske og stødende oplysninger om ham. Ifølge en rapport af Cosmo Holmen blev fejlagtigt fremstillet som en dømt morder, der havde dræbt sine to børn og forsøgt at myrde sin tredje søn. Denne rædselsvækkende fortælling blev blandet af AI med rigtige detaljer om Holmens liv, hvilket kun gjorde situationen værre.

Disse vildledende "hallucinationer", hvor AI fortæller opdigtede historier, har allerede ført til ødelæggende konsekvenser for de berørte tidligere. Et andet eksempel er falske anklager om korruption skabt af teknologi. Holmen tog herefter retssag mod OpenAI, da General Data Protection Regulation (GDPR) stiller klare krav til nøjagtigheden af ​​persondata. Fortalergruppen Noyb støtter ham i denne sag og har kontaktet det norske datatilsyn.

Juridiske konsekvenser for OpenAI

GDPR kræver, at virksomheder sikrer nøjagtigheden af ​​data, der genereres om enkeltpersoner. Kritikken kom fra Noyb, som slår fast, at OpenAI ikke giver mulighed for at rette forkerte oplysninger, og at de forbliver i systemet. En tidligere klage fra Noyb i april 2024 rejste allerede lignende spørgsmål, men resulterede ikke i de ønskede ændringer. Det faktum, at OpenAI efter denne hændelse nu har opdateret den måde, ChatGPT fungerer på, hvilket gør det muligt for AI at søge efter information om mennesker på internettet, viser alvoren af ​​situationen. Holmen er ikke længere fejlagtigt opført som morder - men muligheden for, at falske og ærekrænkende oplysninger forbliver i AI’en. En advokat for Noyb understregede, at det ikke er nok at vise en lille advarsel om mulige fejl, når der spredes alvorlige falske udsagn om personer.

Mens europæiske databeskyttelsesmyndigheder nøje overvåger udviklingen, opfordrer Noyb til, at lovene også håndhæves over for AI-udbydere. Yderligere klager over ChatGPT viser, at problemet er mere komplekst og vigtigheden af ​​at opstille klare politikker for at beskytte personlige data.