Zespół kierowany przez Uniwersytet Kalifornijski w San Diego opracował nowy system algorytmów, który umożliwia czworonożnym robotom chodzenie i bieganie po trudnym terenie, unikając zarówno przeszkód statycznych, jak i ruchomych.
W testach system kierował robotem, aby manewrował autonomicznie i szybko po piaszczystych powierzchniach, żwirze, trawie i wyboistych wzgórzach pokrytych gałęziami i opadłymi liśćmi, bez wpadania na słupy, drzewa, krzewy, głazy, ławki lub ludzi. Robot poruszał się również po ruchliwej przestrzeni biurowej, nie wpadając na pudła, biurka czy krzesła.
Prace przybliżają badaczy o krok do budowy robotów, które mogą wykonywać misje poszukiwawczo-ratownicze lub zbierać informacje w miejscach zbyt niebezpiecznych lub trudnych dla ludzi.
Zespół zaprezentuje swoje prace na Międzynarodowej Konferencji nt. Inteligentnych Robotów i Systemów (IROS) w 2022 r., która odbędzie się w dniach 23-27 października w Kioto w Japonii.
System zapewnia robotowi na nogach większą wszechstronność ze względu na sposób, w jaki łączy zmysł wzroku robota z inną modalnością wykrywania zwaną propriocepcją, która obejmuje wyczucie ruchu robota, kierunek, prędkość, położenie i dotyk – w tym przypadku wrażenie ziemia pod jego stopami.
Obecnie większość podejść do trenowania robotów na nogach do chodzenia i nawigacji opiera się na propriocepcji lub wizji, ale nie na obu jednocześnie, powiedział starszy autor badania Xiaolong Wang, profesor inżynierii elektrycznej i komputerowej w UC San Diego Jacobs School of Engineering. .
„W jednym przypadku jest to jak trenowanie niewidomego robota do chodzenia, po prostu dotykając i czując ziemię. A w drugim robot planuje ruchy nóg w oparciu o sam wzrok. Nie uczy się dwóch rzeczy jednocześnie” – powiedział. Wang. „W naszej pracy łączymy propriocepcję z widzeniem komputerowym, aby umożliwić robotowi na nogach sprawne i płynne poruszanie się – przy jednoczesnym unikaniu przeszkód – w różnych trudnych środowiskach, nie tylko dobrze zdefiniowanych”.
System opracowany przez Wanga i jego zespół wykorzystuje specjalny zestaw algorytmów do łączenia danych z obrazów w czasie rzeczywistym wykonanych przez kamerę głębinową na głowie robota z danymi z czujników na nogach robota. Nie było to proste zadanie. „Problem polega na tym, że podczas pracy w warunkach rzeczywistych czasami dochodzi do niewielkiego opóźnienia w odbieraniu obrazów z aparatu”, wyjaśnia Wang, „więc dane z dwóch różnych modalności wykrywania nie zawsze docierają w tym samym czasie”.
Rozwiązaniem zespołu było symulowanie tego niedopasowania poprzez randomizację dwóch zestawów danych wejściowych — technikę, którą naukowcy nazywają randomizacją opóźnień wielomodalnych. Połączone i randomizowane dane wejściowe zostały następnie wykorzystane do szkolenia polityki wzmacniania uczenia się w sposób kompleksowy. Takie podejście pomogło robotowi szybko podejmować decyzje podczas nawigacji i przewidywać zmiany w otoczeniu z wyprzedzeniem, dzięki czemu mógł szybciej poruszać się i omijać przeszkody na różnych rodzajach terenu bez pomocy operatora.
Idąc dalej, Wang i jego zespół pracują nad uczynieniem robotów na nogach bardziej wszechstronnymi, aby mogły pokonywać jeszcze trudniejsze tereny. „W tej chwili możemy wyszkolić robota, aby wykonywał proste ruchy, takie jak chodzenie, bieganie i omijanie przeszkód. Naszym następnym celem jest umożliwienie robotowi chodzenia po schodach, chodzenia po kamieniach, zmiany kierunku i przeskakiwania przez przeszkody”.
Wideo: https://youtu.be/GKbTklHrq60
Zespół opublikował swój kod online pod adresem: https://github.com/Mehooz/vision4leg.
Źródło historii:
Materiały dostarczone przez Uniwersytet Kalifornijski – San Diego. Oryginał napisany przez Liezel Labios. Uwaga: Treść można edytować pod kątem stylu i długości.