Wyobraź sobie robota przypominającego śluz, który może płynnie zmieniać swój kształt, aby przecisnąć się przez wąskie przestrzenie, a którego można umieścić w ludzkim ciele, aby usunąć niechciany przedmiot.
Chociaż taki robot nie istnieje jeszcze poza laboratorium, naukowcy pracują nad opracowaniem miękkich robotów, które można rekonfigurować, do zastosowań w opiece zdrowotnej, urządzeniach do noszenia i systemach przemysłowych.
Ale jak można kontrolować delikatnego robota, który nie ma stawów, kończyn ani palców, którymi można manipulować, a zamiast tego może drastycznie zmieniać cały swój kształt według własnego uznania? Naukowcy z MIT pracują nad odpowiedzią na to pytanie.
Opracowali algorytm sterujący, który może samodzielnie uczyć się, jak poruszać, rozciągać i kształtować rekonfigurowalnego robota, aby wykonać określone zadanie, nawet jeśli zadanie to wymaga od robota wielokrotnej zmiany morfologii. Zespół zbudował także symulator do testowania algorytmów sterowania odkształcalnych miękkich robotów w ramach serii trudnych zadań zmieniających kształt.
Opracowana przez nich metoda wykonała każde z ośmiu ocenianych zadań, osiągając lepsze wyniki niż inne algorytmy. Technika ta sprawdzała się szczególnie dobrze w przypadku zadań wieloaspektowych. Na przykład w jednym z testów robot musiał zmniejszyć swój wzrost, jednocześnie wyrastając dwie małe nóżki, aby przecisnąć się przez wąską rurę, a następnie odciąć te nogi i wyprostować tułów, aby otworzyć pokrywkę rury.
Chociaż miękkie roboty z możliwością rekonfiguracji są wciąż w powijakach, taka technika może pewnego dnia stworzyć roboty ogólnego przeznaczenia, które będą mogły dostosowywać swój kształt do wykonywania różnorodnych zadań.
„Kiedy ludzie myślą o miękkich robotach, zwykle myślą o robotach, które są elastyczne, ale wracają do swojego pierwotnego kształtu. Nasz robot jest jak śluz i może faktycznie zmieniać swoją morfologię. To bardzo uderzające, że nasza metoda zadziałała tak dobrze, ponieważ jesteśmy mamy do czynienia z czymś zupełnie nowym” – mówi Boyuan Chen, absolwent inżynierii elektrycznej i informatyki (EECS) oraz współautor artykułu na temat tego podejścia.
Współautorami Chena są główny autor Suning Huang, student studiów licencjackich na Uniwersytecie Tsinghua w Chinach, który ukończył tę pracę podczas wizytującego studenta na MIT; Huazhe Xu, adiunkt na Uniwersytecie Tsinghua; oraz starszy autor Vincent Sitzmann, adiunkt EECS na MIT, który kieruje grupą reprezentacji scen w laboratorium informatyki i sztucznej inteligencji. Wyniki badań zostaną zaprezentowane podczas Międzynarodowej Konferencji na temat reprezentacji uczenia się.
Sterowanie dynamicznym ruchem
Naukowcy często uczą roboty wykonywania zadań, stosując podejście uczenia maszynowego znane jako uczenie się przez wzmacnianie, które jest procesem prób i błędów, w ramach którego robot jest nagradzany za działania przybliżające go do celu.
Może to być skuteczne, gdy ruchome części robota są spójne i dobrze zdefiniowane, np. chwytak z trzema palcami. W przypadku chwytaka robota algorytm uczenia się przez wzmacnianie może nieznacznie poruszyć jednym palcem, ucząc się metodą prób i błędów, czy ten ruch przyniesie mu nagrodę. Następnie przechodził do następnego palca i tak dalej.
Ale roboty zmiennokształtne, kontrolowane przez pola magnetyczne, mogą dynamicznie zgniatać, zginać lub wydłużać całe swoje ciała.
„Taki robot mógłby sterować tysiącami małych kawałków mięśni, dlatego bardzo trudno jest go nauczyć się w tradycyjny sposób” – mówi Chen.
Aby rozwiązać ten problem, on i jego współpracownicy musieli pomyśleć o tym inaczej. Zamiast poruszać każdym maleńkim mięśniem indywidualnie, ich algorytm uczenia się przez wzmacnianie zaczyna się od nauki kontrolowania grup sąsiadujących mięśni, które współpracują.
Następnie, gdy algorytm zbadał przestrzeń możliwych działań, koncentrując się na grupach mięśni, przechodzi do bardziej szczegółowych informacji, aby zoptymalizować politykę lub plan działania, czego się nauczył. W ten sposób algorytm sterowania opiera się na metodologii od zgrubnej do dokładnej.
„Od zgrubnego do dokładnego oznacza, że gdy podejmiesz losowe działanie, prawdopodobnie będzie to miało znaczenie. Zmiana wyniku jest prawdopodobnie bardzo znacząca, ponieważ zgrubnie kontrolujesz kilka mięśni jednocześnie” – mówi Sitzmann.
Aby to umożliwić, badacze traktują przestrzeń działania robota, czyli sposób, w jaki może on poruszać się w określonym obszarze, jak obraz.
Ich model uczenia maszynowego wykorzystuje obrazy otoczenia robota do generowania przestrzeni działania 2D, która obejmuje robota i obszar wokół niego. Symulują ruch robota przy użyciu tak zwanej metody punktu materialnego, w której przestrzeń działania jest pokryta punktami, takimi jak piksele obrazu, i nałożona na siatkę.
W ten sam sposób, w jaki powiązane są pobliskie piksele na obrazie (jak piksele tworzące drzewo na zdjęciu), zbudowali algorytm, aby zrozumieć, że pobliskie punkty akcji mają silniejsze korelacje. Punkty wokół „ramion” robota będą poruszać się podobnie, gdy ten zmieni kształt, natomiast punkty na „nodze” robota również będą się poruszać podobnie, ale w inny sposób niż punkty na „ramionie”.
Ponadto badacze wykorzystują ten sam model uczenia maszynowego do obserwacji otoczenia i przewidywania działań, jakie powinien podjąć robot, co zwiększa jego wydajność.
Budowa symulatora
Po opracowaniu tego podejścia badacze potrzebowali sposobu na jego przetestowanie, dlatego stworzyli środowisko symulacyjne o nazwie DittoGym.
DittoGym zawiera osiem zadań oceniających zdolność rekonfigurowalnego robota do dynamicznej zmiany kształtu. W jednym z nich robot musi wydłużyć i zakrzywić swoje ciało, aby móc omijać przeszkody, aby dotrzeć do punktu docelowego. W innym musi zmienić swój kształt, aby naśladować litery alfabetu.
„Nasz wybór zadań w DittoGym jest zgodny zarówno z ogólnymi zasadami projektowania wzorcowego uczenia się przez wzmacnianie, jak i specyficznymi potrzebami robotów, które można rekonfigurować. Każde zadanie jest zaprojektowane tak, aby reprezentowało pewne właściwości, które uważamy za ważne, takie jak zdolność poruszania się w eksploracjach dalekiego horyzontu, zdolność do analizuj środowisko i wchodź w interakcję z obiektami zewnętrznymi” – mówi Huang. „Wierzymy, że razem mogą zapewnić użytkownikom wszechstronne zrozumienie elastyczności robotów, które można rekonfigurować i skuteczności naszego programu uczenia się przez wzmacnianie”.
Ich algorytm przewyższał metody podstawowe i był jedyną techniką odpowiednią do wykonywania wieloetapowych zadań wymagających kilku zmian kształtu.
„Mamy silniejszą korelację między punktami akcji, które są bliżej siebie, i myślę, że to jest kluczem do tego, aby to wszystko działało tak dobrze” – mówi Chen.
Chociaż może minąć wiele lat, zanim roboty zmiennokształtne zostaną wprowadzone w prawdziwym świecie, Chen i jego współpracownicy mają nadzieję, że ich praca zainspiruje innych naukowców nie tylko do badania miękkich robotów, które można rekonfigurować, ale także do zastanowienia się nad wykorzystaniem dwuwymiarowych przestrzeni akcji do rozwiązywania innych złożonych problemów związanych ze sterowaniem.