Według zespołu kierowanego przez badaczy z Penn State, który badał, w jaki sposób dostosowywanie i postrzegane podobieństwo między osobowością użytkownika i asystenta głosowego (VA) wpływa na wygodę użytkownika, jeden głos nie pasuje do wszystkich w przypadku wirtualnych asystentów, takich jak Siri i Alexa. Odkryli, że zdecydowanie preferują ekstrawertyczne VA – takie, które mówią głośniej, szybciej i w niższej tonacji. Odkryli również, że zwiększanie podobieństwa osobowości poprzez automatyczne dopasowywanie profili głosowych użytkowników i VA zachęcało użytkowników do opierania się przekonującym informacjom, takim jak dezinformacja na temat szczepionek przeciwko COVID-19. W badaniu 38% niezaszczepionych osób zmieniło zdanie na temat szczepień po usłyszeniu dezinformacji na temat szczepień przekazywanych przez wirtualnego asystenta.
Zdaniem badaczy odkrycia mogą mieć wpływ na sposoby zwiększania odporności użytkowników na dezinformację. O swoich odkryciach poinformowali w bieżącym numerze International Journal of Human-Computer Studies.
„Nasze badanie pokazuje, że gdy użytkownicy wchodzą w interakcję z asystentem głosowym podobnym do ich osobowości, lepiej oceniają świadczone przez niego usługi” – powiedział S. Shyam Sundar, współautor badania i profesor mediów Jamesa P. Jimirro Efekty w Penn State.
Badacze odkryli, że użytkownicy, którzy postrzegali osobowość asystenta głosowego jako podobną do swojej, niezależnie od tego, czy w rzeczywistości była, oceniali VA jako bardziej atrakcyjne społecznie i intelektualnie. Użytkownicy wskazali również, że był on bardziej godny zaufania.
„Ta tendencja do utożsamiania postrzeganego podobieństwa z wiarygodnością była bardziej wyraźna wśród osób, które dostosowywały swoje doświadczenia, wybierając preferowany głos asystenta” – powiedział Sundar.
Podobieństwo osobowości sprawiło także, że użytkownicy byli bardziej odporni na informacje płynące od asystenta głosowego.
„Większa liczba niezaszczepionych osób w połączeniu z odpowiadającymi im osobowościami z VA, które zmieniły zdanie na temat szczepień, była sprzecznym z intuicją odkryciem” – powiedział główny autor Eugene C. Snyder, adiunkt nauk humanistycznych i społecznych w New Jersey Institute of Technology. „Ludzie często wykazują opór wobec prób perswazji ze strony źródeł informacji, takich jak eksperci lub osoby wpływowe z mediów społecznościowych. W przypadku nieszczepionych uczestników badania zetknięcie się z dezinformacją ze strony podobnego do nich VA mogło wywołać pewnego rodzaju opór. Konieczne są jednak dalsze prace, aby wyjaśnij tę reakcję, ponieważ osoby nieszczepione stanowiły mniejszość w naszej próbie i stanowiły 27% uczestników badania.”
Odkrycie mówi o naturze sposobu, w jaki ludzie przetwarzają informacje, powiedział Sundar.
„Według naszych danych, gdy uczestnikom przydzielono asystenta głosowego o osobowości podobnej do ich własnej, wykazali oni efekt oporu wobec perswazji” – powiedział. „Sugeruje to, że gdy usłyszysz informację od asystenta głosowego podobnego do ciebie, prawdopodobnie przetworzysz ją ostrożniej. Dzięki temu starannemu przetwarzaniu zdajesz sobie sprawę z perswazyjnego punktu widzenia komunikatu i tego, dlaczego okazujesz mu opór. “
Naukowcy losowo przydzielili 401 uczestników, którzy sami zgłosili swój poziom ekstrawersji, do jednej z trzech grup, aby zbadać, w jaki sposób podobieństwo i dostosowanie osobowości wpływa na doświadczenia użytkowników z wirtualnymi asystentami. Naukowcy losowo przydzielili uczestników do grupy kontrolnej, grupy dostosowywania lub grupy personalizacji.
Uczestnikom grupy kontrolnej losowo przydzielono ekstrawertyczną lub introwertyczną VA. Osoby z grupy dostosowywania mogły wybrać jeden z pięciu głosów wybranych przez badaczy do badania. Badacze powiedzieli uczestnikom grupy personalizacji, że zostanie im dopasowany VA dostosowany do ich osobowości, ale w rzeczywistości uczestnikom losowo przydzielono VA, aby zachować kontrolę nad treścią i zapewnić porównywalność VA we wszystkich trzech warunkach.
Po krótkim wprowadzeniu asystentów głosowych uczestnicy ocenili VA pod kątem atrakcyjności i jakości usług. Następnie odtworzyli klipy audio, na których VA odpowiadali na pytania dotyczące pandemii Covid-19, podając dezinformację na temat wirusa. Następnie badacze poprosili uczestników, aby ponownie ocenili atrakcyjność i jakość usług VA, a także zaufanie do VA i wiarygodność treści. Zadawali także pytania dotyczące stosunku uczestników do szczepionek na Covid-19. Po zakończeniu badania badacze przesłuchali wszystkich uczestników i poinformowali ich o dezinformacji na temat szczepionki.
„Jednym z naszych celów było zrozumienie, w jaki sposób cechy głosu mogą wpływać na zaufanie, dlatego musieliśmy wybrać kontekst, który potencjalnie budzi wątpliwości dotyczące zaufania” – powiedział współautor Saeed Abdullah, adiunkt nauk informatycznych i technologii w Penn State. „Biorąc pod uwagę dużą aktualność choroby COVID-19 w tamtym czasie, okazała się ona silnym kandydatem do wypróbowania naszego systemu”.
Wyniki badania wskazują, że personalizacja prowadzi do bardziej pozytywnych interakcji z asystentami głosowymi, szczególnie w przypadku tych, którzy według badaczy postrzegają niestandardowych agentów wirtualnych jako podobnych do nich.
„To badanie sugeruje, że możemy łączyć funkcje personalizacji i dostosowywania, aby zapewnić użytkownikom lepsze doświadczenia” – powiedział Abdullah. „Zamiast zapewniać użytkownikom automatyczną personalizację lub prosić ich o dostosowanie całego systemu, być może istnieje sens, balansowanie, w którym można zaoferować automatycznie generowane opcje dostosowywania, które łączą te dwa aspekty i prowadzą do większej satysfakcji użytkownika i bardziej uważną ocenę informacji.”
W badania wniosła także wkład Sanjana Mendu, doktorantka nauk informatycznych i technologii na Uniwersytecie Penn State.