Chatgpt scandalise les Norvégiens: de fausses allégations de meurtre révélées!

Chatgpt scandalise les Norvégiens: de fausses allégations de meurtre révélées!

Norwegen - Un incident choquant provoque une excitation en Europe: le norvégien Arve Hjalmar Holmen a titré après Chattbot d'Openaai, le chatbot basé sur l'IA a diffusé des informations fausses et insultant. Selon un rapport de kosmo , Holmen a été dépeint à tort comme un meurtrier condamné qui a tué ses deux enfants et a tenté de tuer son troisième fils. Cette histoire horrible a été mélangée à de vrais détails sur la vie de Holmen par l'IA, ce qui n'a fait que renforcer la situation.

Ces "hallucinations" trompeuses, dans lesquelles l'IA raconte des histoires, ont déjà conduit à des conséquences dévastatrices pour les personnes touchées dans le passé. Un autre exemple est les fausses accusations de corruption causées par la technologie. Holmen a ensuite lancé des mesures juridiques pour prendre des mesures contre OpenAI, car le règlement général sur la protection des données (RGPD) place des exigences claires pour l'exactitude des données personnelles. Le groupe de plaidoyer NOYB le prend en charge à ce sujet et a changé la norwegian Data Protection Authority.

Conséquences juridiques pour Openai

Le RGPD oblige les entreprises à garantir la précision des données générées sur les particuliers. La critique est venue du NOYB, qui se rend compte qu'OpenAai n'offre aucun moyen de corriger des informations incorrectes et qu'ils continuent de rester dans le système. Une plainte préalable de NOYB en avril 2024 a déjà abordé des problèmes similaires sans conduire aux changements souhaités. Le fait qu'OpenAai ait maintenant mis à jour le fonctionnement de Chatgpt après cet incident afin que l'IA puisse rechercher des informations sur les personnes sur Internet, montre la gravité de la situation. Holmen n'est plus incorrectement répertorié comme un meurtrier - mais la possibilité que des informations fausses et diffamatoires restent dans l'IA demeure. Un avocat de Noyb a souligné qu'il ne suffit pas d'afficher un petit avertissement concernant les erreurs possibles si de graves fausses déclarations sont réparties sur les personnes.

Alors que les autorités européennes de protection des données observent attentivement les développements, NOYB exige que les lois soient également appliquées contre les fournisseurs d'IA. D'autres plaintes concernant Chatt montrent que le problème est plus complexe et à quel point il est important de définir des directives claires pour protéger les données personnelles.

Details
OrtNorwegen
Quellen