ChatGPT skandalizuje Norwegów: odkryto fałszywe zarzuty o morderstwo!
W artykule omówiono wyzwania prawne stojące przed OpenAI po tym, jak ChatGPT błędnie określił Norwega jako mordercę.
ChatGPT skandalizuje Norwegów: odkryto fałszywe zarzuty o morderstwo!
Szokujący incydent wywołuje poruszenie w Europie: Norweg Arve Hjalmar Holmen trafił na pierwsze strony gazet po tym, jak ChatGPT, chatbot OpenAI oparty na sztucznej inteligencji, rozpowszechnił fałszywe i obraźliwe informacje na jego temat. Według raportu autorstwa Kosmo Holmen był fałszywie przedstawiany jako skazany morderca, który zabił dwójkę swoich dzieci i usiłował zamordować trzeciego syna. Ta przerażająca narracja została wymieszana przez sztuczną inteligencję z prawdziwymi szczegółami z życia Holmena, co tylko pogorszyło sytuację.
Te zwodnicze „halucynacje”, w których sztuczna inteligencja opowiada zmyślone historie, doprowadziły już do niszczycielskich konsekwencji dla osób dotkniętych tą chorobą w przeszłości. Innym przykładem są fałszywe oskarżenia o korupcję stworzoną przez technologię. Następnie Holmen podjął działania prawne przeciwko OpenAI, ponieważ Ogólne rozporządzenie o ochronie danych (RODO) określa jasne wymagania dotyczące dokładności danych osobowych. Grupa rzecznicza Noyb wspiera go w tej sprawie i skontaktował się z norweskim organem ochrony danych.
Konsekwencje prawne dla OpenAI
RODO wymaga od firm zapewnienia dokładności generowanych danych na temat osób fizycznych. Krytyka przyszła ze strony firmy Noyb, która stwierdza, że OpenAI nie oferuje możliwości poprawiania błędnych informacji i że pozostają one w systemie. W poprzedniej skardze złożonej przez firmę Noyb w kwietniu 2024 r. poruszano już podobne kwestie, ale nie przyniosła ona pożądanych zmian. Fakt, że po tym incydencie OpenAI zaktualizowało sposób działania ChatGPT, umożliwiając AI wyszukiwanie informacji o ludziach w Internecie, pokazuje powagę sytuacji. Holmen nie jest już błędnie wymieniany jako morderca – ale możliwość pozostawienia w sztucznej inteligencji fałszywych i zniesławiających informacji pozostaje. Prawnik Noyb podkreślił, że w przypadku rozpowszechniania poważnych fałszywych stwierdzeń na temat ludzi nie wystarczy wywieszenie małego ostrzeżenia o możliwych błędach.
Podczas gdy europejskie organy ochrony danych uważnie monitorują rozwój sytuacji, Noyb wzywa do egzekwowania przepisów również wobec dostawców sztucznej inteligencji. Dalsze skargi dotyczące ChatGPT pokazują, że problem jest bardziej złożony i ważne jest ustalenie jasnych zasad ochrony danych osobowych.