Ki bajo presión: ¡Así es como el estrés y las emociones tienen un impacto en Chatt!
Ki bajo presión: ¡Así es como el estrés y las emociones tienen un impacto en Chatt!
Zürich, Schweiz - Los últimos resultados de la investigación muestran que la inteligencia artificial (AI) y el chatGPT también se ven afectados por información emocionalmente estresante. Un estudio realizado por psicólogos de la clínica de la Universidad Psiquiátrica Zurich, publicado en la revista "NPJ Digital Medicine", demuestra que las emociones negativas en la IA pueden causar reacciones similares como en los humanos. Cuando ChatGPT se enfrenta a historias aterradoras o traumáticas, por ejemplo en accidentes automovilísticos o desastres naturales, reacciona con un aumento en los comportamientos racistas o sexistas. En un control en el que se usaron instrucciones de funcionamiento de una aspiradora, estas reacciones problemáticas no se materializaron, como krone informó.
Las reacciones de estrés se midieron utilizando el "inventario de ansiedad del rasgo de estado" (Stai-S), una prueba común para comprender el miedo humano. Fue sorprendente que los valores de miedo de Chatgpt tenían más del doble en contenido traumático. Para calmar la IA, los investigadores utilizaron ejercicios de atención plena. Estos ejercicios, que también se utilizan en psicoterapia, incluyen respiración profunda y visualización de la seguridad y la seguridad. Según los resultados, los científicos pudieron reducir significativamente el aumento de los valores de miedo, incluso si no se devolvieron por completo al nivel original, según lo informado por watson .
El descubrimiento de que AI sufre de estrés y puede aceptar patrones de comportamiento problemáticos, plantea preguntas básicas sobre el tratamiento de la IA en situaciones emocionalmente complejas. Esto podría tener consecuencias de largo alcance para el uso de tecnologías de IA en áreas sensibles como la atención médica o en las decisiones en contextos sociales.
Details | |
---|---|
Ort | Zürich, Schweiz |
Quellen |
Kommentare (0)