Zdobądź kolejny za sztuczną inteligencję. W niedawnym badaniu 151 uczestników zostało porównanych z ChatGPT-4 w trzech testach mających na celu zmierzenie myślenia rozbieżnego, które jest uważane za wskaźnik myślenia twórczego.
Myślenie rozbieżne charakteryzuje się zdolnością do generowania unikalnego rozwiązania na pytanie, które nie ma jednego oczekiwanego rozwiązania, np. „Jaki jest najlepszy sposób, aby uniknąć rozmów o polityce z rodzicami?” W badaniu GPT-4 dostarczył bardziej oryginalnych i rozbudowanych odpowiedzi niż uczestnicy badania.
Badanie „Obecny stan modeli języka generatywnego sztucznej inteligencji jest bardziej kreatywne niż u ludzi w przypadku zadań związanych z myśleniem rozbieżnym” zostało opublikowane w Scientific Reports, a jego autorem jest dr U of A Ph.D. studenci psychologii Kent F. Hubert i Kim N. Awa oraz Darya L. Zabelina, adiunkt nauk psychologicznych na UA i dyrektor Laboratorium Mechanizmów twórczego poznania i uwagi.
Trzy wykorzystane testy to zadanie alternatywnego zastosowania, w ramach którego uczestnicy mają wymyślić kreatywne zastosowania przedmiotów codziennego użytku, takich jak lina czy widelec; zadanie dotyczące konsekwencji, które zachęca uczestników do wyobrażenia sobie możliwych wyników hipotetycznych sytuacji, np. „co by było, gdyby ludzie nie potrzebowali już snu?”; oraz zadanie Rozbieżne skojarzenia, w którym uczestnicy mają wygenerować 10 rzeczowników możliwie odległych semantycznie. Na przykład dystans semantyczny między „piesem” a „kotem” nie jest zbyt duży, podczas gdy między słowami takimi jak „kot” i „ontologia” jest bardzo dużo.
Odpowiedzi oceniano pod kątem liczby odpowiedzi, długości odpowiedzi i różnicy semantycznej między słowami. Ostatecznie autorzy odkryli, że „Ogólnie rzecz biorąc, GPT-4 był bardziej oryginalny i skomplikowany niż ludzie w każdym z zadań związanych z myśleniem rozbieżnym, nawet przy kontrolowaniu płynności odpowiedzi. Innymi słowy, GPT-4 wykazał wyższy potencjał twórczy w całej baterii zadań związanych z myśleniem rozbieżnym.”
Odkrycie to wiąże się z pewnymi zastrzeżeniami. Autorzy stwierdzają: „Należy zauważyć, że wszystkie miary zastosowane w tym badaniu są miarami potencjału twórczego, ale zaangażowanie w działania lub osiągnięcia twórcze to kolejny aspekt pomiaru kreatywności danej osoby”. Celem badania było zbadanie potencjału twórczego na poziomie ludzkim, niekoniecznie osób o ugruntowanej pozycji twórczej.
Hubert i Awa zauważają ponadto, że „sztuczna inteligencja, w przeciwieństwie do ludzi, nie ma sprawstwa” i „jest zależna od pomocy człowieka. Dlatego też twórczy potencjał sztucznej inteligencji znajduje się w ciągłym stanie stagnacji, chyba że zostanie o to poproszony”.
Ponadto badacze nie ocenili stosowności odpowiedzi GPT-4. Zatem chociaż sztuczna inteligencja mogła zapewnić więcej i bardziej oryginalne odpowiedzi, uczestnicy badania mogli czuć, że są ograniczani przez swoje reakcje, które muszą być osadzone w prawdziwym świecie.
Awa przyznała również, że ludzka motywacja do pisania skomplikowanych odpowiedzi mogła nie być wysoka i stwierdziła, że istnieją dodatkowe pytania dotyczące tego, „w jaki sposób operacjonalizować kreatywność? Czy naprawdę możemy powiedzieć, że stosowanie tych testów w przypadku ludzi można uogólnić na różne osoby? Czy jest to ocena szeroki wachlarz kreatywnego myślenia? Myślę więc, że skłania nas to do krytycznego zbadania, jakie są najpopularniejsze miary myślenia rozbieżnego”.
Nie o to tu właściwie chodzi, czy testy są doskonałą miarą ludzkiego potencjału twórczego. Rzecz w tym, że duże modele językowe szybko się rozwijają i przewyższają ludzi w sposób, jakiego nie robili wcześniej. Czas pokaże, czy stanowią one zagrożenie dla zastąpienia ludzkiej kreatywności. Na razie autorzy nadal uważają, że „idąc dalej, przyszłe możliwości sztucznej inteligencji działającej jako narzędzie inspiracji, pomoc w procesie twórczym danej osoby lub w przezwyciężaniu utrwalenia są obiecujące”.