A ChatGPT megbotránkoztatja a norvégokat: hamis gyilkossági vádak derültek ki!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

A cikk rávilágít az OpenAI előtt álló jogi kihívásokra, miután a ChatGPT helytelenül gyilkosnak minősített egy norvégot.

A ChatGPT megbotránkoztatja a norvégokat: hamis gyilkossági vádak derültek ki!

Megdöbbentő incidens kavart Európában: a norvég Arve Hjalmar Holmen került a címlapokra, miután a ChatGPT, az OpenAI mesterséges intelligenciájú chatbotja hamis és sértő információkat terjesztett róla. A jelentés szerint Cosmo Holment hamisan úgy ábrázolták, mint egy elítélt gyilkost, aki megölte két gyermekét, és megkísérelte meggyilkolni harmadik fiát. Ezt a rémisztő elbeszélést az MI keverte össze Holmen életének valós részleteivel, ami csak rontott a helyzeten.

Ezek a félrevezető „hallucinációk”, amelyekben a mesterséges intelligencia kitalált történeteket mesél el, már a múltban is pusztító következményekkel jártak az érintettek számára. Egy másik példa a technológia által létrehozott korrupcióval kapcsolatos hamis vádak. Holmen ezután jogi lépéseket tett, hogy fellépjen az OpenAI ellen, mivel az általános adatvédelmi rendelet (GDPR) egyértelmű követelményeket támaszt a személyes adatok pontosságára vonatkozóan. Az érdekképviseleti csoport Noyb támogatja őt ebben az ügyben, és felvette a kapcsolatot a norvég adatvédelmi hatósággal.

Az OpenAI jogi következményei

A GDPR megköveteli a vállalatoktól, hogy biztosítsák az egyénekről generált adatok pontosságát. Kritika Noybtől érkezett, amely szerint az OpenAI nem kínálja fel a téves információk javításának lehetőségét, és az a rendszerben marad. A Noyb korábbi, 2024 áprilisában benyújtott panasza már felvetett hasonló problémákat, de nem eredményezte a kívánt változtatásokat. A helyzet súlyosságát mutatja, hogy az esetet követően az OpenAI frissítette a ChatGPT működését, lehetővé téve az AI számára, hogy információkat keressen az interneten. Holmen már nem szerepel helytelenül a gyilkosok listáján, de fennáll annak a lehetősége, hogy hamis és rágalmazó információk maradjanak az AI-ban. A Noyb ügyvédje hangsúlyozta, hogy nem elég egy apró figyelmeztetés az esetleges hibákról, ha súlyos hamis állításokat terjesztenek emberekről.

Míg az európai adatvédelmi hatóságok szorosan figyelemmel kísérik a fejleményeket, Noyb a törvények érvényre juttatását kéri az AI-szolgáltatókkal szemben is. A ChatGPT-vel kapcsolatos további panaszok azt mutatják, hogy a probléma összetettebb, és fontos a személyes adatok védelmére vonatkozó egyértelmű irányelvek meghatározása.