ChatGPT escandaliza a los noruegos: ¡Se descubren falsas acusaciones de asesinato!
El artículo destaca los desafíos legales para OpenAI después de que ChatGPT etiquetara incorrectamente a un noruego como asesino.
ChatGPT escandaliza a los noruegos: ¡Se descubren falsas acusaciones de asesinato!
Un incidente impactante está causando revuelo en Europa: el noruego Arve Hjalmar Holmen ha aparecido en los titulares después de que ChatGPT, el chatbot impulsado por inteligencia artificial de OpenAI, difundiera información falsa y ofensiva sobre él. Según un informe de Cosmos Holmen fue retratado falsamente como un asesino convicto que había matado a sus dos hijos e intentado asesinar a su tercer hijo. La IA mezcló esta horrible narrativa con detalles reales sobre la vida de Holmen, lo que sólo empeoró la situación.
Estas “alucinaciones” engañosas, en las que la IA cuenta historias inventadas, ya han tenido consecuencias devastadoras para los afectados en el pasado. Otro ejemplo son las falsas acusaciones de corrupción creadas por la tecnología. Luego, Holmen emprendió acciones legales contra OpenAI, ya que el Reglamento General de Protección de Datos (GDPR) establece requisitos claros para la exactitud de los datos personales. El grupo de defensa Noyb Lo apoya en este asunto y se ha puesto en contacto con la Autoridad Noruega de Protección de Datos.
Consecuencias legales para OpenAI
El RGPD exige que las empresas garanticen la exactitud de los datos generados sobre las personas. Las críticas vinieron de Noyb, que afirma que OpenAI no ofrece la posibilidad de corregir información incorrecta y que permanece en el sistema. Una denuncia anterior de Noyb en abril de 2024 ya planteaba cuestiones similares, pero no dio lugar a los cambios deseados. El hecho de que, tras este incidente, OpenAI haya actualizado la forma en que funciona ChatGPT, permitiendo a la IA buscar información sobre personas en Internet, muestra la gravedad de la situación. Holmen ya no figura incorrectamente como asesino, pero persiste la posibilidad de que quede información falsa y difamatoria en la IA. Un abogado de Noyb destacó que no basta con mostrar una pequeña advertencia sobre posibles errores cuando se difunden declaraciones falsas graves sobre personas.
Si bien las autoridades europeas de protección de datos siguen de cerca los acontecimientos, Noyb pide que las leyes también se apliquen contra los proveedores de IA. Otras quejas sobre ChatGPT muestran que el problema es más complejo y la importancia de establecer políticas claras para proteger los datos personales.