ChatGPT scandalizza i norvegesi: scoperte false accuse di omicidio!
L'articolo evidenzia le sfide legali per OpenAI dopo che ChatGPT ha erroneamente etichettato un norvegese come assassino.
ChatGPT scandalizza i norvegesi: scoperte false accuse di omicidio!
Un incidente scioccante sta suscitando scalpore in Europa: il norvegese Arve Hjalmar Holmen ha fatto notizia dopo che ChatGPT, il chatbot basato sull'intelligenza artificiale di OpenAI, ha diffuso informazioni false e offensive sul suo conto. Secondo un rapporto di Cosmo Holmen è stato falsamente descritto come un assassino condannato che aveva ucciso i suoi due figli e tentato di uccidere il suo terzo figlio. Questa narrazione terrificante è stata mescolata dall'IA con dettagli reali sulla vita di Holmen, il che non ha fatto altro che peggiorare la situazione.
Queste “allucinazioni” fuorvianti, in cui l’intelligenza artificiale racconta storie inventate, hanno già portato in passato a conseguenze devastanti per le persone colpite. Un altro esempio sono le false accuse di corruzione create dalla tecnologia. Holmen ha quindi intrapreso un’azione legale contro OpenAI, poiché il Regolamento generale sulla protezione dei dati (GDPR) stabilisce requisiti chiari per l’accuratezza dei dati personali. Il gruppo di difesa Noyb lo sostiene in questa questione e ha contattato l'autorità norvegese per la protezione dei dati.
Conseguenze legali per OpenAI
Il GDPR impone alle aziende di garantire l’accuratezza dei dati generati sugli individui. Le critiche sono arrivate da Noyb, il quale afferma che OpenAI non offre la possibilità di correggere le informazioni errate e che queste rimangono nel sistema. Una precedente denuncia di Noyb nell’aprile 2024 aveva già sollevato questioni simili, ma non ha portato ai cambiamenti desiderati. Il fatto che, in seguito a questo incidente, OpenAI abbia ora aggiornato il funzionamento di ChatGPT, consentendo all'IA di cercare informazioni sulle persone su Internet, mostra la gravità della situazione. Holmen non è più erroneamente elencato come assassino, ma rimane la possibilità che nell'IA rimangano informazioni false e diffamatorie. Un avvocato di Noyb ha sottolineato che non basta mettere un piccolo avvertimento sui possibili errori quando vengono diffuse false dichiarazioni gravi su persone.
Mentre le autorità europee per la protezione dei dati monitorano da vicino gli sviluppi, Noyb chiede che le leggi vengano applicate anche contro i fornitori di intelligenza artificiale. Ulteriori denunce su ChatGPT mostrano che il problema è più complesso e l’importanza di stabilire politiche chiare per proteggere i dati personali.