W społeczeństwach prehistorycznych ludzie mieli tendencję do uczenia się od członków naszej własnej grupy lub od bardziej prestiżowych jednostek, ponieważ ta informacja była bardziej wiarygodna i skutkowała sukcesem grupy. Jednak wraz z pojawieniem się różnorodnych i złożonych współczesnych społeczności — zwłaszcza w mediach społecznościowych — te uprzedzenia stają się mniej skuteczne. Na przykład osoba, z którą jesteśmy połączeni online, niekoniecznie musi być godna zaufania, a ludzie mogą łatwo udawać prestiż w mediach społecznościowych. W recenzji opublikowanej 3 sierpnia w czasopiśmie Trends in Cognitive Science grupa naukowców z dziedziny nauk społecznych opisuje, w jaki sposób funkcje algorytmów mediów społecznościowych są niezgodne z ludzkimi instynktami społecznymi mającymi na celu wspieranie współpracy, co może prowadzić do polaryzacji na dużą skalę i dezinformacji.
„Kilka ankiet użytkowników, zarówno na Twitterze, jak i na Facebooku, sugeruje, że większość użytkowników jest wyczerpana treściami politycznymi, które widzą. Wielu użytkowników jest niezadowolonych, a Twitter i Facebook muszą stawić czoła wielu elementom reputacji, jeśli chodzi o wybory i rozprzestrzenianie się dezinformacji” – mówi pierwszy autor William Brady, psycholog społeczny w Kellogg School of Management w Northwestern.
„Chcieliśmy opublikować systematyczny przegląd, który próbuje pomóc zrozumieć, w jaki sposób psychologia człowieka i algorytmy wchodzą w interakcje w sposób, który może mieć takie konsekwencje” – mówi Brady. „Jedną z rzeczy, które przedstawia ta recenzja, jest perspektywa uczenia się społecznego. Jako psychologowie społeczni nieustannie badamy, w jaki sposób możemy uczyć się od innych. Te ramy są fundamentalnie ważne, jeśli chcemy zrozumieć, w jaki sposób algorytmy wpływają na nasze interakcje społeczne ”.
Ludzie są skłonni uczyć się od innych w sposób, który zazwyczaj promuje współpracę i wspólne rozwiązywanie problemów, dlatego mają tendencję do uczenia się więcej od osób, które postrzegają jako część swojej grupy i tych, które postrzegają jako prestiżowe. Ponadto, kiedy uprzedzenia w uczeniu się po raz pierwszy ewoluowały, ważne było nadanie priorytetu informacjom naładowanym moralnie i emocjonalnie, ponieważ z większym prawdopodobieństwem byłyby one istotne dla egzekwowania norm grupowych i zapewniania zbiorowego przetrwania.
Z kolei algorytmy zwykle wybierają informacje, które zwiększają zaangażowanie użytkowników w celu zwiększenia przychodów z reklam. Oznacza to, że algorytmy wzmacniają informacje, z których ludzie są skłonni się uczyć, i mogą przesycić kanały mediów społecznościowych tym, co naukowcy nazywają informacjami prestiżowymi, grupowymi, moralnymi i emocjonalnymi (PRIME), niezależnie od dokładności treści lub reprezentatywności opinii grupy . W rezultacie skrajne treści polityczne lub kontrowersyjne tematy są częściej wzmacniane, a jeśli użytkownicy nie są narażeni na opinie z zewnątrz, mogą niewłaściwie zrozumieć opinię większości różnych grup.
„Nie chodzi o to, że algorytm ma zakłócać współpracę” — mówi Brady. „Po prostu jego cele są inne. W praktyce, kiedy połączysz te funkcje, otrzymasz niektóre z tych potencjalnie negatywnych skutków”.
Aby rozwiązać ten problem, grupa badawcza proponuje najpierw, aby użytkownicy mediów społecznościowych byli bardziej świadomi tego, jak działają algorytmy i dlaczego określone treści pojawiają się w ich kanałach. Firmy zajmujące się mediami społecznościowymi zwykle nie ujawniają pełnych szczegółów na temat tego, w jaki sposób ich algorytmy wybierają treści, ale na początek może oferować wyjaśnienia, dlaczego użytkownikowi wyświetla się określony post. Na przykład, czy dzieje się tak dlatego, że znajomi użytkownika angażują się w treść, czy też dlatego, że treść jest ogólnie popularna? Poza firmami zajmującymi się mediami społecznościowymi zespół badawczy opracowuje własne interwencje, aby uczyć ludzi, jak być bardziej świadomymi konsumentami mediów społecznościowych.
Ponadto naukowcy proponują, aby firmy zajmujące się mediami społecznościowymi podjęły kroki w celu zmiany swoich algorytmów, aby były bardziej skuteczne w budowaniu społeczności. Zamiast faworyzować wyłącznie informacje PRIME, algorytmy mogłyby ustalić limit ilości informacji PRIME, które wzmacniają, i nadać priorytet prezentowaniu użytkownikom zróżnicowanego zestawu treści. Zmiany te mogą nadal wzmacniać angażujące informacje, jednocześnie zapobiegając nadreprezentacji bardziej polaryzujących lub skrajnych politycznie treści w kanałach.
„Jako badacze rozumiemy napięcie, z jakim borykają się firmy, jeśli chodzi o wprowadzanie tych zmian i ich wyniki finansowe. Dlatego uważamy, że te zmiany teoretycznie mogą nadal utrzymywać zaangażowanie, jednocześnie uniemożliwiając nadreprezentację informacji PRIME” — mówi Brady. „Wrażenia użytkownika mogą się poprawić, wykonując niektóre z tych czynności”.