ChatGPT skandaliserer nordmenn: Falske drapsanklager avdekket!
Artikkelen belyser juridiske utfordringer for OpenAI etter at ChatGPT feilaktig stemplet en nordmann som en morder.
ChatGPT skandaliserer nordmenn: Falske drapsanklager avdekket!
En sjokkerende hendelse vekker oppsikt i Europa: Norske Arve Hjalmar Holmen har truffet overskriftene etter at ChatGPT, OpenAIs AI-drevne chatbot, spredte falsk og støtende informasjon om ham. I følge en rapport fra Cosmo Holmen ble feilaktig fremstilt som en dømt drapsmann som hadde drept sine to barn og forsøkt å myrde sin tredje sønn. Denne grufulle fortellingen ble blandet av AI med virkelige detaljer om Holmens liv, som bare gjorde situasjonen verre.
Disse misvisende «hallusinasjonene», der AI forteller oppdiktede historier, har allerede ført til ødeleggende konsekvenser for de berørte tidligere. Et annet eksempel er falske anklager om korrupsjon skapt av teknologi. Holmen tok deretter rettslige skritt mot OpenAI, ettersom General Data Protection Regulation (GDPR) stiller klare krav til nøyaktigheten av personopplysninger. Påvirkningsgruppen Noyb støtter ham i denne saken og har kontaktet Datatilsynet.
Juridiske konsekvenser for OpenAI
GDPR krever at selskaper sikrer nøyaktigheten av data generert om enkeltpersoner. Kritikken kom fra Noyb, som slår fast at OpenAI ikke tilbyr muligheten til å rette feil informasjon og at den forblir i systemet. En tidligere klage fra Noyb i april 2024 reiste allerede lignende problemstillinger, men førte ikke til de ønskede endringene. Det faktum at OpenAI etter denne hendelsen nå har oppdatert måten ChatGPT fungerer på, slik at AI kan søke etter informasjon om mennesker på internett, viser alvoret i situasjonen. Holmen er ikke lenger feilaktig oppført som en drapsmann - men muligheten for at falsk og ærekrenkende informasjon forblir i AI-en. En advokat for Noyb understreket at det ikke er nok å vise en liten advarsel om mulige feil når alvorlige falske utsagn om personer spres.
Mens europeiske databeskyttelsesmyndigheter følger utviklingen nøye, ber Noyb om at lovene også håndheves mot AI-leverandører. Ytterligere klager på ChatGPT viser at problemet er mer komplekst og viktigheten av å sette klare retningslinjer for å beskytte personopplysninger.