Naukowcy z UC San Francisco umożliwili człowiekowi, który jest sparaliżowany kontrolowanie robotycznego ramienia za pomocą urządzenia, które przekazuje sygnały z jego mózgu na komputer.
Był w stanie uchwycić, poruszać i upuścić przedmioty, wyobrażając sobie, że wykonuje działania.
Urządzenie, znane jako interfejs mózg-komputer (BCI), działało przez rekordowe 7 miesięcy bez konieczności dostosowania. Do tej pory takie urządzenia działały tylko od dnia lub dwóch.
BCI opiera się na modelu AI, który może dostosować się do małych zmian, które zachodzą w mózgu, gdy osoba powtarza ruch – lub w tym przypadku wyobrażony ruch – i uczy się to robić w bardziej wyrafinowany sposób.
„To połączenie uczenia się między ludźmi i AI jest kolejną fazą dla tych interfejsów-komputerów mózgowych”-powiedział neurolog, dr Karunesh Ganguly, MD, profesor neurologii i członek UCSF Weill Institute for Neurosciences. „Tego potrzebujemy, aby osiągnąć wyrafinowaną, realistyczną funkcję”.
Badanie, które zostało sfinansowane przez National Institutes of Health, pojawia się 6 marca w komórce.
Kluczem było odkrycie, w jaki sposób aktywność zmienia się w mózgu z dnia na dzień jako uczestnik badania wielokrotnie wyobrażał sobie wykonanie określonych ruchów. Po zaprogramowaniu AI do uwzględnienia tych zmian działało przez wiele miesięcy.
Lokalizacja, lokalizacja, lokalizacja
Ganguly badał, w jaki sposób wzorce aktywności mózgu u zwierząt reprezentują określone ruchy i zauważył, że reprezentacje te zmieniły się z dnia na dzień, jak nauczył się zwierzę. Podejrzewał, że to samo dzieje się u ludzi i dlatego ich BCI tak szybko straciły zdolność rozpoznania tych wzorców.
Dr Ganguly and Neurology Badacz Nikhilesh Natraj współpracował z uczestnikiem badania, który został sparaliżowany przez udar udaru wiele lat wcześniej. Nie mógł mówić ani ruszyć.
Miał małe czujniki wszczepione na powierzchni mózgu, które mogłyby podnieść aktywność mózgu, gdy wyobrażał sobie poruszanie się.
Aby sprawdzić, czy jego wzory mózgu zmieniły się z czasem, Ganguly poprosił uczestnika, aby wyobraził sobie poruszanie różnych części jego ciała, takich jak jego dłonie, stopy lub głowa.
Chociaż tak naprawdę nie mógł się poruszać, mózg uczestnika nadal mógłby wytwarzać sygnały ruchu, kiedy sobie wyobrażał. BCI odnotowało reprezentacje tych ruchów przez mózg przez czujniki na jego mózgu.
Zespół Ganguly stwierdził, że kształt reprezentacji w mózgu pozostał taki sam, ale ich lokalizacje zmieniły się nieznacznie z dnia na dzień.
Od wirtualnych do rzeczywistości
Następnie Ganguly poprosił uczestnika, aby wyobraził sobie proste ruchy palcami, rękami lub kciukami w ciągu dwóch tygodni, podczas gdy czujniki zarejestrowały aktywność mózgu, aby wyszkolić AI.
Następnie uczestnik próbował kontrolować robotyczne ramię i rękę. Ale ruchy wciąż nie były zbyt precyzyjne.
Tak więc Ganguly praktykował uczestnik na wirtualnym ramię robota, które przekazało mu informacje zwrotne na temat dokładności jego wizualizacji. W końcu kazał wirtualne ramię, aby zrobić to, co chciał.
Kiedy uczestnik zaczął ćwiczyć z prawdziwym ramię robota, tylko kilka sesji treningowych zajęło mu przeniesienie umiejętności na prawdziwy świat.
Mógł sprawić, że robotyczne ramię podbijają bloki, obrócić je i przenieść do nowych lokalizacji. Był nawet w stanie otworzyć szafkę, wyjąć filiżankę i przytrzymać do dozownika wody.
Kilka miesięcy później uczestnik nadal był w stanie kontrolować ramię robotyczne po 15-minutowym „dostrojeniu”, aby dostosować się do dryfowania jego reprezentacji ruchu, odkąd zaczął używać urządzenia.
Ganguly udoskonala modele AI, aby ramię robotyczne poruszało się szybciej i płynniej, i planuje przetestować BCI w środowisku domowym.
Dla osób z porażeniem zdolność do karmienia lub napoju wody zmieniłaby życie.
Ganguly uważa, że jest to w zasięgu ręki.
„Jestem bardzo przekonany, że nauczyliśmy się teraz budować system i że możemy sprawić, by to zadziałało” – powiedział.