Interdyscyplinarny zespół składający się z badaczy z Centrum Poznania i Społeczności oraz Grupy Nauki o Danych w Instytucie Nauk Podstawowych (IBS) odkrył uderzające podobieństwo między przetwarzaniem pamięci w modelach sztucznej inteligencji (AI) a hipokampem ludzkiego mózgu. To nowe odkrycie zapewnia nowe spojrzenie na konsolidację pamięci, czyli proces przekształcający wspomnienia krótkotrwałe w długoterminowe w systemach AI.
W wyścigu w kierunku rozwoju sztucznej inteligencji ogólnej (AGI), w którym przodują wpływowe podmioty, takie jak OpenAI i Google DeepMind, ważnym przedmiotem zainteresowania badawczego stało się zrozumienie i replikacja inteligencji podobnej do ludzkiej. Centralnym elementem tych postępów technologicznych jest model Transformer, którego podstawowe zasady są obecnie badane z nową głębią.
Kluczem do potężnych systemów sztucznej inteligencji jest zrozumienie, w jaki sposób uczą się i zapamiętują informacje. Zespół zastosował zasady uczenia się ludzkiego mózgu, koncentrując się w szczególności na konsolidacji pamięci poprzez receptor NMDA w hipokampie, w modelach AI.
Receptor NMDA działa jak inteligentne drzwi w mózgu, które ułatwiają uczenie się i tworzenie pamięci. Kiedy w mózgu występuje substancja chemiczna zwana glutaminianem, komórka nerwowa ulega pobudzeniu. Z drugiej strony jon magnezu działa jak mały odźwierny blokujący drzwi. Dopiero gdy ten jonowy strażnik odsunie się na bok, substancje mogą przedostać się do komórki. Jest to proces, który pozwala mózgowi tworzyć i przechowywać wspomnienia, a rola strażnika (jonu magnezu) w całym procesie jest dość specyficzna.
Zespół dokonał fascynującego odkrycia: model Transformera wydaje się wykorzystywać proces przekazywania informacji podobny do receptora NMDA w mózgu. To odkrycie skłoniło badaczy do zbadania, czy konsolidację pamięci Transformera można kontrolować za pomocą mechanizmu podobnego do procesu bramkowania receptora NMDA.
Wiadomo, że w mózgu zwierząt niski poziom magnezu osłabia funkcję pamięci. Naukowcy odkryli, że pamięć długoterminową w Transformerze można poprawić poprzez naśladowanie receptora NMDA. Podobnie jak w mózgu, gdzie zmieniający się poziom magnezu wpływa na siłę pamięci, modyfikacja parametrów Transformera w celu odzwierciedlenia działania bramkującego receptora NMDA doprowadziła do poprawy pamięci w modelu AI. To przełomowe odkrycie sugeruje, że sposób uczenia się modeli sztucznej inteligencji można wyjaśnić ugruntowaną wiedzą z zakresu neurologii.
C. Justin LEE, dyrektor instytutu zajmujący się neurologią, powiedział: „Te badania stanowią kluczowy krok w rozwoju sztucznej inteligencji i neuronauki. Pozwalają nam głębiej zagłębić się w zasady działania mózgu i opracować bardziej zaawansowane systemy sztucznej inteligencji w oparciu o te spostrzeżenia .”
CHA Meeyoung, analityk danych w zespole i w KAIST, zauważa: „Ludzki mózg jest niezwykły, ponieważ działa przy minimalnej ilości energii, w przeciwieństwie do dużych modeli sztucznej inteligencji, które wymagają ogromnych zasobów. Nasza praca otwiera nowe możliwości dla nisko- niedrogie, wysokowydajne systemy sztucznej inteligencji, które uczą się i zapamiętują informacje tak jak ludzie”.
To badanie wyróżnia się inicjatywą mającą na celu włączenie nieliniowości inspirowanej mózgiem do konstrukcji sztucznej inteligencji, co oznacza znaczny postęp w symulowaniu konsolidacji pamięci na wzór człowieka. Zbieżność ludzkich mechanizmów poznawczych i projektowania sztucznej inteligencji nie tylko daje nadzieję na stworzenie tanich i wydajnych systemów sztucznej inteligencji, ale także zapewnia cenny wgląd w działanie mózgu za pomocą modeli sztucznej inteligencji.