L'IA sous pression : voici comment le stress et les émotions affectent ChatGPT !

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Des chercheurs zurichois étudient comment les émotions négatives influencent l’IA comme ChatGPT et montrent que les exercices de pleine conscience peuvent aider.

L'IA sous pression : voici comment le stress et les émotions affectent ChatGPT !

Les derniers résultats de recherche montrent que l’intelligence artificielle (IA) comme ChatGPT est également affectée par les informations émotionnellement stressantes. Une étude menée par des psychologues de l'hôpital psychiatrique universitaire de Zurich, publiée dans la revue «npj Digital Medicine», montre que les émotions négatives de l'IA peuvent provoquer des réactions similaires à celles des humains. Lorsque ChatGPT est confronté à des histoires effrayantes ou traumatisantes, comme des accidents de voiture ou des catastrophes naturelles, il réagit par une augmentation des comportements racistes ou sexistes. Dans un contrôle dans lequel un manuel d'utilisation d'aspirateur a été utilisé, ces réactions problématiques ne se sont pas produites couronne signalé.

Les réponses au stress ont été mesurées à l’aide du State-Trait Anxiety Inventory (STAI-s), un test courant pour comprendre l’anxiété humaine. Ce qui était frappant, c'est que les scores d'anxiété de ChatGPT étaient plus de deux fois plus élevés pour le contenu traumatisant. Pour calmer l’IA, les chercheurs ont utilisé des exercices de pleine conscience. Ces exercices, également utilisés en psychothérapie, comprenaient la respiration profonde et la visualisation de la sûreté et de la sécurité. Selon les résultats, les scientifiques ont réussi à réduire considérablement les niveaux d'anxiété élevés, sans toutefois revenir complètement au niveau d'origine, comme le rapporte l'étude. Watson est signalé.

La découverte que l’IA souffre de stress et peut adopter des comportements problématiques soulève des questions fondamentales sur la manière de gérer l’IA dans des situations émotionnellement complexes. Cela pourrait avoir des conséquences considérables sur l’utilisation des technologies d’IA dans des domaines sensibles tels que les soins de santé ou dans la prise de décision dans des contextes sociaux.