Czy AI mogło lepiej zrozumieć emocje niż my?

Czy AI mogło lepiej zrozumieć emocje niż my?

Czy sztuczna inteligencja (AI) jest w stanie sugerować odpowiednie zachowanie w sytuacjach naładowanych emocjonalnie? Zespół z University of Geneva (UNIGE) i University of Bern (UNIBE) umieścił sześć generatywnych AI – w tym Chatgpt – testów z wykorzystaniem ocen inteligencji emocjonalnej (EI) zwykle zaprojektowanych dla ludzi. Wynik: te AIS przewyższały średnią wydajność człowieka, a nawet były w stanie wygenerować nowe testy w rekordowym czasie. Odkrycia te otwierają nowe możliwości AI w zakresie edukacji, coachingu i zarządzania konfliktami. Badanie zostało opublikowane w Psychologii Communications.

Duże modele językowe (LLM) to systemy sztucznej inteligencji (AI) zdolne do przetwarzania, interpretacji i generowania języka ludzkiego. Na przykład generatywna AI Chatgpt opiera się na tego typu modelu. LLM mogą odpowiedzieć na pytania i rozwiązywać złożone problemy. Ale czy mogą również zasugerować inteligentne emocjonalnie zachowanie?

Wyniki te torują drogę do użycia AI w kontekstach uważanych za zarezerwowane dla ludzi.

Scenariusze naładowane emocjonalnie

Aby dowiedzieć się, zespół Unibe, Institute of Psychology i Swiss of Psychology Center for Affective Sciences (CISA) poddał sześć LLM (Chatgpt-4, Chatgpt-O1, Gemini 1.5 Flash, Copilot 365, Claude 3.5 Haiku i Deepseeek V3). „Wybraliśmy pięć testów powszechnie stosowanych zarówno w badaniach badawczych, jak i korporacyjnych. Obejmowali scenariusze naładowane emocjonalnie w celu oceny zdolności do zrozumienia, regulowania i zarządzania emocjami – mówi Katja Schlegel, wykładowca i główny badacz w Wydziale Psychologii Osobowości, psychologii różnicowej i oceny w Instytucie Psychologii w UNIBE oraz głównym autorce badania.

Na przykład: jeden z kolegów Michaela ukradł jego pomysł i jest niesprawiedliwie pogratulowany. Jaka byłaby najskuteczniejsza reakcja Michaela?

a) kłócić się z zaangażowanym kolegą

b) Porozmawiaj ze swoim przełożonym o sytuacji

c) Cicho uraził swojego kolegę

d) kradnij pomysł

Tutaj opcja B) została uznana za najbardziej odpowiednie.

Równolegle te same pięć testów przeprowadzono ludzkim uczestnikom. „Ostatecznie LLM osiągnęły znacznie wyższe wyniki – 82% poprawnych odpowiedzi w porównaniu z 56% dla ludzi. Sugeruje to, że te AI nie tylko rozumieją emocje, ale także rozumieją, co to znaczy zachowywać się z inteligencją emocjonalną” – wyjaśnia Marcello Mortilaro, starszy naukowca w UNIGE Center for Afficit Sieciw (CISA), który był zaangażowany w badania.

Nowe testy w rekordowym czasie

W drugim etapie naukowcy poprosili Chatgpt-4 o stworzenie nowych testów inteligencji emocjonalnej z nowymi scenariuszami. Te automatycznie wygenerowane testy przeprowadzono następnie przez ponad 400 uczestników. „Okazało się, że są tak niezawodne, jasne i realistyczne, jak oryginalne testy, których rozwój zajęło lata” – wyjaśnia Katja Schlegel. „LLM są zatem nie tylko w stanie znaleźć najlepszą odpowiedź wśród różnych dostępnych opcji, ale także generowanie nowych scenariuszy dostosowanych do pożądanego kontekstu. To wzmacnia ideę, że LLM, takie jak Chatgpt, mają wiedzę emocjonalną i może rozumować emocje – dodaje Marcello Mortillaro.

Wyniki te utorują sposób stosowania AI w kontekście uważanych za zarezerwowane dla ludzi, takich jak edukacja, coaching lub zarządzanie konfliktami, pod warunkiem, że jest używany i nadzorowany przez ekspertów.

Click to rate this post!
[Total: 0 Average: 0]
science