Sztuczne sieci neuronowe uczą się lepiej, gdy spędzają czas w ogóle się nie ucząc

Sztuczne sieci neuronowe uczą się lepiej, gdy spędzają czas w ogóle się nie ucząc

W zależności od wieku człowiek potrzebuje od 7 do 13 godzin snu na dobę. W tym czasie wiele się dzieje: tętno, oddychanie i metabolizm przypływy i odpływy; poziomy hormonów dostosowują się; ciało się relaksuje. Nie tak bardzo w mózgu.

„Mózg jest bardzo zajęty, kiedy śpimy, powtarzając to, czego nauczyliśmy się w ciągu dnia” – powiedział dr Maxim Bazhenov, profesor medycyny i badacz snu na University of California San Diego School of Medicine. „Sen pomaga uporządkować wspomnienia i przedstawić je w najbardziej efektywny sposób”.

W poprzedniej opublikowanej pracy Bazhenov i współpracownicy opisali, w jaki sposób sen buduje racjonalną pamięć, zdolność zapamiętywania arbitralnych lub pośrednich skojarzeń między przedmiotami, ludźmi lub zdarzeniami oraz chroni przed zapominaniem starych wspomnień.

Sztuczne sieci neuronowe wykorzystują architekturę ludzkiego mózgu do ulepszania wielu technologii i systemów, od nauk podstawowych i medycyny po finanse i media społecznościowe. W pewnym sensie osiągnęli nadludzką wydajność, taką jak szybkość obliczeniowa, ale zawodzą w jednym kluczowym aspekcie: kiedy sztuczne sieci neuronowe uczą się sekwencyjnie, nowe informacje nadpisują poprzednie, zjawisko zwane katastroficznym zapominaniem.

„W przeciwieństwie do tego, ludzki mózg uczy się w sposób ciągły i włącza nowe dane do istniejącej wiedzy” – powiedział Bazhenov – „i zazwyczaj uczy się najlepiej, gdy nowy trening jest przeplatany okresami snu w celu konsolidacji pamięci”.

Pisząc w numerze PLOS Computational Biology z 18 listopada 2022 r., główny autor Bazhenov i współpracownicy omawiają, w jaki sposób modele biologiczne mogą pomóc złagodzić zagrożenie katastrofalnym zapominaniem w sztucznych sieciach neuronowych, zwiększając ich użyteczność w całym spektrum zainteresowań badawczych.

Naukowcy wykorzystali kolczaste sieci neuronowe, które sztucznie naśladują naturalne systemy neuronowe: zamiast przekazywania informacji w sposób ciągły, są one przesyłane jako dyskretne zdarzenia (skoki) w określonych punktach czasowych.

Odkryli, że kiedy sieci szczytowe były szkolone w zakresie nowego zadania, ale z okazjonalnymi okresami wyłączenia, które naśladowały sen, katastrofalne zapominanie zostało złagodzone. Podobnie jak ludzki mózg, powiedzieli autorzy badania, „uśpienie” sieci pozwoliło im odtworzyć stare wspomnienia bez wyraźnego używania starych danych treningowych.

Wspomnienia są reprezentowane w ludzkim mózgu przez wzorce masy synaptycznej – siłę lub amplitudę połączenia między dwoma neuronami.

„Kiedy uczymy się nowych informacji”, powiedział Bazhenov, „neurony odpalają się w określonej kolejności, co zwiększa liczbę synaps między nimi. Podczas snu wzorce impulsów wyuczonych podczas stanu czuwania powtarzają się spontanicznie. Nazywa się to reaktywacją lub powtórką.

„Plastyczność synaptyczna, czyli zdolność do zmiany lub kształtowania, jest nadal obecna podczas snu i może dodatkowo wzmacniać wzorce masy synaptycznej reprezentujące pamięć, pomagając zapobiegać zapominaniu lub umożliwiając przenoszenie wiedzy ze starych do nowych zadań”.

Kiedy Bazhenov i współpracownicy zastosowali to podejście do sztucznych sieci neuronowych, odkryli, że pomogło to sieciom uniknąć katastrofalnego zapominania.

„Oznaczało to, że te sieci mogły się uczyć w sposób ciągły, tak jak ludzie czy zwierzęta. Zrozumienie, w jaki sposób ludzki mózg przetwarza informacje podczas snu, może pomóc w zwiększeniu pamięci u ludzi. Zwiększenie rytmu snu może prowadzić do lepszej pamięci.

„W innych projektach używamy modeli komputerowych do opracowywania optymalnych strategii stosowania stymulacji podczas snu, takich jak tony dźwiękowe, które poprawiają rytm snu i poprawiają uczenie się. Może to być szczególnie ważne, gdy pamięć nie jest optymalna, np. starzenia się lub w niektórych stanach, takich jak choroba Alzheimera”.

Współautorami są: Ryan Golden i Jean Erik Delanois, obaj z UC San Diego; oraz Pavel Sanda z Instytutu Informatyki Czeskiej Akademii Nauk.

Click to rate this post!
[Total: 0 Average: 0]
science