ChatGPT škandalizira Norvežane: odkrite lažne obtožbe o umorih!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Članek poudarja pravne izzive za OpenAI, potem ko je ChatGPT Norvežana nepravilno označil za morilca.

ChatGPT škandalizira Norvežane: odkrite lažne obtožbe o umorih!

Šokanten incident je povzročil razburjenje v Evropi: Norvežan Arve Hjalmar Holmen je prišel na naslovnice, potem ko je ChatGPT, klepetalni robot OpenAI, ki temelji na umetni inteligenci, o njem razširil lažne in žaljive informacije. Glede na poročilo avtorja Cosmo Holmen je bil lažno prikazan kot obsojeni morilec, ki je ubil svoja dva otroka in poskušal umoriti svojega tretjega sina. To grozljivo pripoved je umetna inteligenca pomešala z resničnimi podrobnostmi o Holmenovem življenju, kar je situacijo le še poslabšalo.

Te zavajajoče »halucinacije«, v katerih AI pripoveduje izmišljene zgodbe, so v preteklosti že povzročile uničujoče posledice za prizadete. Drug primer so lažne obtožbe o korupciji, ki jih ustvarja tehnologija. Holmen je nato sprožil pravni postopek za ukrepanje proti OpenAI, saj Splošna uredba o varstvu podatkov (GDPR) postavlja jasne zahteve glede točnosti osebnih podatkov. Zagovorniška skupina Noyb ga podpira pri tej zadevi in ​​je stopil v stik z norveškim organom za varstvo podatkov.

Pravne posledice za OpenAI

GDPR od podjetij zahteva, da zagotovijo točnost podatkov, pridobljenih o posameznikih. Kritika je prišla iz Noyba, ki pravi, da OpenAI ne ponuja možnosti popravka napačnih informacij in da ostane v sistemu. Prejšnja pritožba družbe Noyb aprila 2024 je že sprožila podobna vprašanja, vendar ni povzročila želenih sprememb. Dejstvo, da je OpenAI po tem incidentu zdaj posodobil način delovanja ChatGPT, kar AI omogoča iskanje informacij o ljudeh na internetu, kaže na resnost situacije. Holmen ni več nepravilno naveden kot morilec - vendar ostaja možnost, da v AI ostanejo napačne in obrekljive informacije. Noybov odvetnik je poudaril, da ni dovolj prikazati majhno opozorilo o možnih napakah, ko se širijo resne lažne izjave o ljudeh.

Medtem ko evropski organi za varstvo podatkov pozorno spremljajo razvoj dogodkov, Noyb poziva, naj se zakoni uveljavijo tudi proti ponudnikom umetne inteligence. Nadaljnje pritožbe glede ChatGPT kažejo, da je problem bolj zapleten in da je pomembno določiti jasne politike za zaščito osebnih podatkov.