ChatGPT škandalizuje Nórov: Odhalené falošné obvinenia z vraždy!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Článok zdôrazňuje právne výzvy pre OpenAI po tom, čo ChatGPT nesprávne označil Nóra za vraha.

ChatGPT škandalizuje Nórov: Odhalené falošné obvinenia z vraždy!

Šokujúci incident spôsobuje v Európe rozruch: Nór Arve Hjalmar Holmen sa dostal na titulky po tom, čo ChatGPT, chatbot OpenAI poháňaný AI, o ňom rozšíril nepravdivé a urážlivé informácie. Podľa správy od Cosmo Holmen bol falošne vykreslený ako odsúdený vrah, ktorý zabil svoje dve deti a pokúsil sa zavraždiť svojho tretieho syna. Tento strašný príbeh zmiešala AI so skutočnými detailmi o Holmenovom živote, čo situáciu len zhoršilo.

Tieto zavádzajúce „halucinácie“, v ktorých AI rozpráva vymyslené príbehy, už v minulosti viedli k ničivým následkom pre postihnutých. Ďalším príkladom sú falošné obvinenia z korupcie vytvorené technológiou. Spoločnosť Holmen následne podnikla právne kroky proti OpenAI, keďže všeobecné nariadenie o ochrane osobných údajov (GDPR) stanovuje jasné požiadavky na presnosť osobných údajov. Advokačná skupina Noyb ho v tejto veci podporuje a kontaktoval nórsky úrad na ochranu údajov.

Právne dôsledky pre OpenAI

GDPR vyžaduje, aby spoločnosti zabezpečili presnosť údajov generovaných o jednotlivcoch. Kritika prišla od Noyba, ktorý uvádza, že OpenAI neponúka možnosť opravy nesprávnych informácií a že zostávajú v systéme. Predchádzajúca sťažnosť od Noyba v apríli 2024 už vyvolala podobné problémy, ale neviedla k požadovaným zmenám. Skutočnosť, že po tomto incidente OpenAI teraz aktualizovalo spôsob, akým funguje ChatGPT, čo umožňuje AI vyhľadávať informácie o ľuďoch na internete, ukazuje vážnosť situácie. Holmen už nie je nesprávne uvedený ako vrah - ale možnosť, že v AI zostanú nepravdivé a hanlivé informácie, zostáva. Právnik Noyba zdôraznil, že pri šírení závažných nepravdivých tvrdení o ľuďoch nestačí len malé upozornenie na možné chyby.

Zatiaľ čo európske orgány na ochranu údajov pozorne sledujú vývoj, Noyb žiada, aby sa zákony uplatňovali aj voči poskytovateľom AI. Ďalšie sťažnosti na ChatGPT ukazujú, že problém je zložitejší a že je dôležité stanoviť jasné pravidlá na ochranu osobných údajov.