ChatGPT scandalise les Norvégiens : de fausses allégations de meurtre découvertes !

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

L'article met en évidence les défis juridiques d'OpenAI après que ChatGPT ait qualifié à tort un Norvégien de meurtrier.

ChatGPT scandalise les Norvégiens : de fausses allégations de meurtre découvertes !

Un incident choquant fait sensation en Europe : le Norvégien Arve Hjalmar Holmen a défrayé la chronique après que ChatGPT, le chatbot alimenté par l'IA d'OpenAI, ait diffusé des informations fausses et offensantes à son sujet. Selon un rapport de Cosmos Holmen a été faussement présenté comme un meurtrier reconnu coupable qui avait tué ses deux enfants et tenté d'assassiner son troisième fils. Ce récit horrible a été mélangé par l'IA avec de vrais détails sur la vie de Holmen, ce qui n'a fait qu'empirer la situation.

Ces « hallucinations » trompeuses, dans lesquelles l’IA raconte des histoires inventées, ont déjà eu des conséquences dévastatrices pour les personnes concernées dans le passé. Un autre exemple est celui des fausses accusations de corruption créées par la technologie. Holmen a ensuite intenté une action en justice contre OpenAI, car le règlement général sur la protection des données (RGPD) fixe des exigences claires en matière d'exactitude des données personnelles. Le groupe de défense Noyb le soutient dans cette affaire et a contacté l’autorité norvégienne de protection des données.

Conséquences juridiques pour OpenAI

Le RGPD oblige les entreprises à garantir l’exactitude des données générées sur les individus. Les critiques sont venues de Noyb, qui affirme qu'OpenAI n'offre pas la possibilité de corriger les informations incorrectes et qu'elles restent dans le système. Une précédente plainte de Noyb en avril 2024 soulevait déjà des problèmes similaires, mais n'avait pas abouti aux changements souhaités. Le fait qu'à la suite de cet incident, OpenAI ait désormais mis à jour le fonctionnement de ChatGPT, permettant à l'IA de rechercher des informations sur les personnes sur Internet, montre la gravité de la situation. Holmen n'est plus répertorié à tort comme meurtrier - mais la possibilité que des informations fausses et diffamatoires restent dans l'IA demeure. Un avocat de Noyb a souligné qu'il ne suffit pas d'afficher un petit avertissement concernant d'éventuelles erreurs lorsque de graves fausses déclarations sur des personnes sont diffusées.

Alors que les autorités européennes de protection des données surveillent de près l’évolution de la situation, Noyb appelle à ce que les lois soient également appliquées à l’encontre des fournisseurs d’IA. D'autres plaintes concernant ChatGPT montrent que le problème est plus complexe et l'importance de définir des politiques claires pour protéger les données personnelles.