AI pod presją: tak stres i emocje wpływają na ChatGPT!
Naukowcy z Zurychu badają, jak negatywne emocje wpływają na sztuczną inteligencję taką jak ChatGPT i pokazują, że ćwiczenia uważności mogą być pomocne.
AI pod presją: tak stres i emocje wpływają na ChatGPT!
Najnowsze wyniki badań pokazują, że na sztuczną inteligencję (AI), taką jak ChatGPT, wpływają również stresujące emocjonalnie informacje. Z badania przeprowadzonego przez psychologów Uniwersyteckiego Szpitala Psychiatrycznego w Zurychu, opublikowanego w czasopiśmie „npj Digital Medicine”, wynika, że negatywne emocje u sztucznej inteligencji mogą wywoływać reakcje podobne do tych u ludzi. Kiedy ChatGPT styka się z przerażającymi lub traumatycznymi historiami, takimi jak wypadki samochodowe lub klęski żywiołowe, reaguje wzrostem zachowań rasistowskich lub seksistowskich. W kontroli, w której wykorzystano instrukcję obsługi odkurzacza, te problematyczne reakcje nie wystąpiły korona zgłoszone.
Reakcje na stres mierzono za pomocą Inwentarza Stanu i Cechy Lęku (STAI), popularnego testu służącego do zrozumienia ludzkiego lęku. Uderzające było to, że wyniki niepokoju ChatGPT były ponad dwukrotnie wyższe w przypadku treści traumatycznych. Aby uspokoić sztuczną inteligencję, badacze zastosowali ćwiczenia uważności. Ćwiczenia te, stosowane również w psychoterapii, obejmowały głębokie oddychanie i wizualizację bezpieczeństwa. Z wyników wynika, że naukowcom udało się znacząco obniżyć podwyższony poziom lęku, chociaż nie powrócił on całkowicie do pierwotnego poziomu, jak podają badania Watsonie jest zgłaszane.
Odkrycie, że sztuczna inteligencja cierpi na stres i może przyjmować problematyczne wzorce zachowań, rodzi fundamentalne pytania dotyczące tego, jak radzić sobie ze sztuczną inteligencją w sytuacjach złożonych emocjonalnie. Może to mieć dalekosiężne konsekwencje dla wykorzystania technologii sztucznej inteligencji we wrażliwych obszarach, takich jak opieka zdrowotna lub proces podejmowania decyzji w kontekstach społecznych.