ChatGPT skandalizē norvēģus: atklātas viltus slepkavības apsūdzības!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Rakstā ir uzsvērti juridiskie izaicinājumi OpenAI pēc tam, kad ChatGPT nepareizi norvēģu nosauca par slepkavu.

ChatGPT skandalizē norvēģus: atklātas viltus slepkavības apsūdzības!

Eiropā satraukumu izraisa šokējošs incidents: norvēģis Arve Hjalmars Holmens ir nokļuvis virsrakstos pēc tam, kad ChatGPT, OpenAI AI darbināmais tērzēšanas robots, izplatījis par viņu nepatiesu un aizskarošu informāciju. Saskaņā ar ziņojumu Cosmo Holmens tika nepatiesi attēlots kā notiesāts slepkava, kurš bija nogalinājis savus divus bērnus un mēģinājis nogalināt savu trešo dēlu. Šo šausminošo stāstījumu AI sajauca ar reālām detaļām par Holmena dzīvi, kas situāciju tikai pasliktināja.

Šīs maldinošās “halucinācijas”, kurās mākslīgais intelekts stāsta izdomātus stāstus, jau ir radījušas postošas ​​sekas tiem, kas cietuši pagātnē. Vēl viens piemērs ir tehnoloģiju radītas nepatiesas apsūdzības korupcijā. Pēc tam Holmena uzsāka tiesvedību, lai vērstos pret OpenAI, jo Vispārējā datu aizsardzības regula (GDPR) nosaka skaidras prasības personas datu precizitātei. Aizstāvības grupa Noyb atbalsta viņu šajā jautājumā un ir sazinājies ar Norvēģijas datu aizsardzības iestādi.

OpenAI juridiskās sekas

GDPR nosaka, ka uzņēmumiem ir jānodrošina par personām ģenerēto datu precizitāte. Kritika izskanēja no Noyb puses, kurā teikts, ka OpenAI nepiedāvā iespēju izlabot nepareizu informāciju un tā paliek sistēmā. Iepriekšējā Noyb sūdzība 2024. gada aprīlī jau radīja līdzīgas problēmas, taču nedeva vēlamos grozījumus. Fakts, ka pēc šī incidenta OpenAI tagad ir atjauninājis ChatGPT darbību, ļaujot AI meklēt informāciju par cilvēkiem internetā, liecina par situācijas nopietnību. Holmens vairs nav nepareizi norādīts kā slepkava, taču pastāv iespēja, ka AI paliek nepatiesa un apmelojoša informācija. Noiba advokāts uzsvēra, ka, izplatot nopietnus nepatiesus apgalvojumus par cilvēkiem, nepietiek ar nelielu brīdinājumu par iespējamām kļūdām.

Kamēr Eiropas datu aizsardzības iestādes cieši uzrauga notikumus, Noybs aicina likumus piemērot arī pret mākslīgā intelekta nodrošinātājiem. Citas sūdzības par ChatGPT liecina, ka problēma ir sarežģītāka un ka ir svarīgi noteikt skaidru politiku personas datu aizsardzībai.