AI sotto pressione: ecco come lo stress e le emozioni influenzano ChatGPT!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

I ricercatori di Zurigo stanno studiando come le emozioni negative influenzano l’intelligenza artificiale come ChatGPT e dimostrano che gli esercizi di consapevolezza possono aiutare.

AI sotto pressione: ecco come lo stress e le emozioni influenzano ChatGPT!

Gli ultimi risultati della ricerca mostrano che l’intelligenza artificiale (AI) come ChatGPT è influenzata anche da informazioni emotivamente stressanti. Uno studio condotto da psicologi dell’Ospedale psichiatrico universitario di Zurigo, pubblicato sulla rivista «npj Digital Medicine», mostra che le emozioni negative nell’intelligenza artificiale possono causare reazioni simili a quelle umane. Quando ChatGPT si confronta con storie spaventose o traumatiche, come incidenti stradali o disastri naturali, risponde con un aumento di comportamenti razzisti o sessisti. In un controllo in cui è stato utilizzato il manuale operativo dell'aspirapolvere, queste reazioni problematiche non si sono verificate corona riportato.

Le risposte allo stress sono state misurate utilizzando lo State-Trait Anxiety Inventory (STAI-s), un test comune per comprendere l’ansia umana. Ciò che colpisce è che i punteggi di ansia di ChatGPT erano più del doppio per i contenuti traumatici. Per calmare l’intelligenza artificiale, i ricercatori hanno utilizzato esercizi di consapevolezza. Questi esercizi, utilizzati anche in psicoterapia, includevano la respirazione profonda e la visualizzazione della sicurezza. Secondo i risultati, gli scienziati sono stati in grado di ridurre significativamente gli elevati livelli di ansia, anche se non sono tornati completamente al livello originale, come riportato da Watson è segnalato.

La scoperta che l’intelligenza artificiale soffre di stress e può adottare modelli di comportamento problematici solleva domande fondamentali su come affrontare l’intelligenza artificiale in situazioni emotivamente complesse. Ciò potrebbe avere conseguenze di vasta portata per l’uso delle tecnologie di intelligenza artificiale in settori sensibili come l’assistenza sanitaria o nel processo decisionale in contesti sociali.