Czy sztuczna inteligencja może zrozumieć powiązane pojęcia po nauczeniu się tylko jednego?

Czy sztuczna inteligencja może zrozumieć powiązane pojęcia po nauczeniu się tylko jednego?

Ludzie mają zdolność uczenia się nowego pojęcia, a następnie natychmiastowego wykorzystania go do zrozumienia powiązanych zastosowań tego pojęcia — gdy dzieci nauczą się, jak „przeskakiwać”, rozumieją, co to znaczy „przeskakiwać dwa razy po pokoju” lub „przeskakiwać ze swoją ręką”. ręce do góry.”

Ale czy maszyny są zdolne do tego typu myślenia? Pod koniec lat 80. Jerry Fodor i Zenon Pylyshyn, filozofowie i kognitywiści, wysunęli hipotezę, że sztuczne sieci neuronowe – silniki napędzające sztuczną inteligencję i uczenie maszynowe – nie są w stanie tworzyć takich połączeń, nazywanych „uogólnieniami kompozycyjnymi”. Jednak przez dziesięciolecia naukowcy opracowywali sposoby zaszczepiania tej zdolności w sieciach neuronowych i pokrewnych technologiach, jednak z różnym powodzeniem, podtrzymując w ten sposób trwającą od kilkudziesięciu lat debatę.

Naukowcy z Uniwersytetu Nowojorskiego i hiszpańskiego Uniwersytetu Pompeu Fabra opracowali obecnie technikę – opisaną w czasopiśmie Nature – która zwiększa możliwości tych narzędzi, takich jak ChatGPT, w zakresie dokonywania uogólnień dotyczących składu. Technika ta, Meta-learning for Compositionality (MLC), przewyższa istniejące podejścia i jest na równi, a w niektórych przypadkach nawet lepiej niż możliwości człowieka. MLC koncentruje się na szkoleniu sieci neuronowych – silników sterujących ChatGPT i powiązanymi technologiami rozpoznawania mowy i przetwarzania języka naturalnego – aby dzięki praktyce mogli lepiej uogólniać kompozycję.

Twórcy istniejących systemów, w tym dużych modeli językowych, mieli nadzieję, że uogólnienie kompozycji wyłoni się ze standardowych metod szkoleniowych lub opracowali architektury specjalnego przeznaczenia, aby osiągnąć te możliwości. Natomiast MLC pokazuje, jak wyraźnie ćwiczenie tych umiejętności pozwala tym systemom odblokować nowe moce – zauważają autorzy.

„Od 35 lat badacze zajmujący się kognitywistyką, sztuczną inteligencją, lingwistyką i filozofią debatują, czy sieci neuronowe mogą osiągnąć systematyczne uogólnianie na poziomie człowieka” – mówi Brenden Lake, adiunkt w Centrum Nauki o Danych i Wydziale Psychologii Uniwersytetu Nowojorskiego. jeden z autorów artykułu. „Po raz pierwszy pokazaliśmy, że ogólna sieć neuronowa może naśladować lub przewyższać ludzkie systematyczne uogólnienia w bezpośrednim porównaniu”.

Badając możliwość wzmocnienia uczenia się kompozycyjnego w sieciach neuronowych, naukowcy stworzyli MLC, nowatorską procedurę uczenia się, w ramach której sieć neuronowa jest stale aktualizowana w celu udoskonalenia swoich umiejętności w ciągu serii epizodów. W odcinku MLC otrzymuje nowe słowo i jest proszony o użycie go w kompozycji — na przykład, aby wziąć słowo „skok”, a następnie utworzyć nowe kombinacje słów, takie jak „skocz dwa razy” lub „dwa razy przeskocz w prawo”. Następnie MLC otrzymuje nowy odcinek, w którym pojawia się inne słowo itd., za każdym razem poprawiając umiejętności komponowania sieci.

Aby przetestować skuteczność MLC, Lake, współdyrektor Inicjatywy Minds, Brains, and Machines na Uniwersytecie Nowojorskim, oraz Marco Baroni, badacz w Katalońskim Instytucie Badań i Studiów Zaawansowanych oraz profesor na Wydziale Tłumaczeń i Nauk o Języku Pompeu Fabra University przeprowadził serię eksperymentów z udziałem ludzi, które były identyczne z zadaniami wykonywanymi przez MLC.

Ponadto zamiast uczyć się znaczenia rzeczywistych słów – terminów, które ludzie już znają – musieli także poznać znaczenie terminów bezsensownych (np. „zup” i „dax”) zgodnie z definicją badaczy i wiedzieć, jak je zastosować je na różne sposoby. Program MLC radził sobie równie dobrze, jak uczestnicy badania – a w niektórych przypadkach lepiej niż jego ludzkie odpowiedniki. MLC i ludzie również osiągnęli lepsze wyniki od ChatGPT i GPT-4, które pomimo swoich uderzających ogólnych zdolności wykazywały trudności w tym zadaniu edukacyjnym.

„Duże modele językowe, takie jak ChatGPT, nadal borykają się z uogólnieniem kompozycji, choć w ostatnich latach uległy poprawie” – zauważa Baroni, członek grupy badawczej Lingwistyki Obliczeniowej i Teorii Lingwistyki na Uniwersytecie Pompeu Fabra. „Uważamy jednak, że MLC może jeszcze bardziej ulepszyć umiejętności kompozytorskie dużych modeli językowych”.

Click to rate this post!
[Total: 0 Average: 0]
science