Chatgpt scandalizza i norvegesi: false accuse di omicidio rivelate!

Chatgpt scandalizza i norvegesi: false accuse di omicidio rivelate!

Norwegen - Un incidente scioccante provoca l'eccitazione in Europa: il norvegese Arve Hjalmar Holmen ha presentato intitolato dopo Chattbot da OpenAai, il chatbot basato sull'intelligenza artificiale ha diffuso informazioni false e offensive. Secondo un rapporto di kosmo , Holmen è stato ingiustamente interpretato come un assassino condannato che ha ucciso i suoi due figli e ha cercato di uccidere il suo terzo figlio. Questa storia orrendo è stata mescolata con veri dettagli sulla vita di Holmen da parte dell'IA, che ha solo rafforzato la situazione.

Queste "allucinazioni" fuorvianti, in cui l'IA racconta storie, hanno già portato a conseguenze devastanti per le persone colpite in passato. Un altro esempio sono le false accuse di corruzione causate dalla tecnologia. Holmen ha quindi avviato i passaggi legali per agire contro OpenAI, poiché il regolamento generale sulla protezione dei dati (GDPR) pone requisiti chiari per la correttezza dei dati personali. Il gruppo di advocacy noyb lo supporta su questa materia e ha trasmesso l'autorità di protezione dei dati norvegesi.

conseguenze legali per OpenAI

Il GDPR obbliga le società a garantire l'accuratezza dei dati generati sugli individui. Le critiche sono arrivate dal Noyb, che si rende conto che OpenAai non offre alcun modo per correggere informazioni errate e che continuano a rimanere nel sistema. Una precedente denuncia di NOYB nell'aprile 2024 ha già affrontato problemi simili senza portare alle modifiche desiderate. Il fatto che OpenAai abbia ora aggiornato il funzionamento di CHATGPT dopo questo incidente in modo che l'IA possa cercare informazioni sulle persone su Internet, mostra la gravità della situazione. Holmen non è più erroneamente elencato come assassino, ma la possibilità che le informazioni false e diffamatori rimangano nell'intelligenza artificiale. Un avvocato Noyb ha sottolineato che non è sufficiente mostrare un piccolo avvertimento su possibili errori se si diffondono gravi false dichiarazioni sulle persone.

Mentre le autorità europee di protezione dei dati osservano attentamente gli sviluppi, Noyb chiede che le leggi siano anche applicate contro i fornitori di intelligenza artificiale. Ulteriori lamentele su Chatt mostrano che il problema è più complesso e quanto sia importante stabilire linee guida chiare per proteggere i dati personali.

Details
OrtNorwegen
Quellen