ChatGPT escandaliza noruegueses: descobertas de falsas alegações de assassinato!
O artigo destaca desafios legais para OpenAI depois que ChatGPT rotulou incorretamente um norueguês como assassino.
ChatGPT escandaliza noruegueses: descobertas de falsas alegações de assassinato!
Um incidente chocante está causando agitação na Europa: o norueguês Arve Hjalmar Holmen chegou às manchetes depois que ChatGPT, o chatbot baseado em IA da OpenAI, espalhou informações falsas e ofensivas sobre ele. De acordo com um relatório de Cosmo Holmen foi falsamente retratado como um assassino condenado que matou seus dois filhos e tentou assassinar seu terceiro filho. Essa narrativa horrível foi misturada pela IA com detalhes reais sobre a vida de Holmen, o que só piorou a situação.
Estas “alucinações” enganosas, nas quais a IA conta histórias inventadas, já levaram a consequências devastadoras para as pessoas afetadas no passado. Outro exemplo são as falsas acusações de corrupção criadas pela tecnologia. Holmen então tomou medidas legais contra a OpenAI, já que o Regulamento Geral de Proteção de Dados (GDPR) estabelece requisitos claros para a precisão dos dados pessoais. O grupo de defesa Noyb apoia-o nesta questão e contactou a Autoridade Norueguesa de Protecção de Dados.
Consequências legais para OpenAI
O GDPR exige que as empresas garantam a precisão dos dados gerados sobre os indivíduos. As críticas vieram de Noyb, que afirma que o OpenAI não oferece a possibilidade de correção de informações incorretas e que elas permanecem no sistema. Uma reclamação anterior da Noyb, em abril de 2024, já levantava questões semelhantes, mas não resultou nas alterações desejadas. O facto de, na sequência deste incidente, a OpenAI ter agora actualizado o modo de funcionamento do ChatGPT, permitindo à IA procurar informações sobre pessoas na internet, mostra a gravidade da situação. Holmen não está mais listado incorretamente como assassino – mas a possibilidade de informações falsas e difamatórias permanecerem na IA permanece. Um advogado de Noyb enfatizou que não basta exibir um pequeno aviso sobre possíveis erros quando estão sendo divulgadas declarações falsas graves sobre as pessoas.
Embora as autoridades europeias de proteção de dados acompanhem de perto os desenvolvimentos, Noyb apela a que as leis também sejam aplicadas contra os fornecedores de IA. Outras reclamações sobre o ChatGPT mostram que o problema é mais complexo e a importância de definir políticas claras para proteger os dados pessoais.