Nowe algorytmy pomagają czworonożnym robotom biegać na wolności

Nowe algorytmy pomagają czworonożnym robotom biegać na wolności

Zespół kierowany przez Uniwersytet Kalifornijski w San Diego opracował nowy system algorytmów, który umożliwia czworonożnym robotom chodzenie i bieganie po trudnym terenie, unikając zarówno przeszkód statycznych, jak i ruchomych.

W testach system kierował robotem, aby manewrował autonomicznie i szybko po piaszczystych powierzchniach, żwirze, trawie i wyboistych wzgórzach pokrytych gałęziami i opadłymi liśćmi, bez wpadania na słupy, drzewa, krzewy, głazy, ławki lub ludzi. Robot poruszał się również po ruchliwej przestrzeni biurowej, nie wpadając na pudła, biurka czy krzesła.

Prace przybliżają badaczy o krok do budowy robotów, które mogą wykonywać misje poszukiwawczo-ratownicze lub zbierać informacje w miejscach zbyt niebezpiecznych lub trudnych dla ludzi.

Zespół zaprezentuje swoje prace na Międzynarodowej Konferencji nt. Inteligentnych Robotów i Systemów (IROS) w 2022 r., która odbędzie się w dniach 23-27 października w Kioto w Japonii.

System zapewnia robotowi na nogach większą wszechstronność ze względu na sposób, w jaki łączy zmysł wzroku robota z inną modalnością wykrywania zwaną propriocepcją, która obejmuje wyczucie ruchu robota, kierunek, prędkość, położenie i dotyk – w tym przypadku wrażenie ziemia pod jego stopami.

Obecnie większość podejść do trenowania robotów na nogach do chodzenia i nawigacji opiera się na propriocepcji lub wizji, ale nie na obu jednocześnie, powiedział starszy autor badania Xiaolong Wang, profesor inżynierii elektrycznej i komputerowej w UC San Diego Jacobs School of Engineering. .

„W jednym przypadku jest to jak trenowanie niewidomego robota do chodzenia, po prostu dotykając i czując ziemię. A w drugim robot planuje ruchy nóg w oparciu o sam wzrok. Nie uczy się dwóch rzeczy jednocześnie” – powiedział. Wang. „W naszej pracy łączymy propriocepcję z widzeniem komputerowym, aby umożliwić robotowi na nogach sprawne i płynne poruszanie się – przy jednoczesnym unikaniu przeszkód – w różnych trudnych środowiskach, nie tylko dobrze zdefiniowanych”.

System opracowany przez Wanga i jego zespół wykorzystuje specjalny zestaw algorytmów do łączenia danych z obrazów w czasie rzeczywistym wykonanych przez kamerę głębinową na głowie robota z danymi z czujników na nogach robota. Nie było to proste zadanie. „Problem polega na tym, że podczas pracy w warunkach rzeczywistych czasami dochodzi do niewielkiego opóźnienia w odbieraniu obrazów z aparatu”, wyjaśnia Wang, „więc dane z dwóch różnych modalności wykrywania nie zawsze docierają w tym samym czasie”.

Rozwiązaniem zespołu było symulowanie tego niedopasowania poprzez randomizację dwóch zestawów danych wejściowych — technikę, którą naukowcy nazywają randomizacją opóźnień wielomodalnych. Połączone i randomizowane dane wejściowe zostały następnie wykorzystane do szkolenia polityki wzmacniania uczenia się w sposób kompleksowy. Takie podejście pomogło robotowi szybko podejmować decyzje podczas nawigacji i przewidywać zmiany w otoczeniu z wyprzedzeniem, dzięki czemu mógł szybciej poruszać się i omijać przeszkody na różnych rodzajach terenu bez pomocy operatora.

Idąc dalej, Wang i jego zespół pracują nad uczynieniem robotów na nogach bardziej wszechstronnymi, aby mogły pokonywać jeszcze trudniejsze tereny. „W tej chwili możemy wyszkolić robota, aby wykonywał proste ruchy, takie jak chodzenie, bieganie i omijanie przeszkód. Naszym następnym celem jest umożliwienie robotowi chodzenia po schodach, chodzenia po kamieniach, zmiany kierunku i przeskakiwania przez przeszkody”.

Wideo: https://youtu.be/GKbTklHrq60

Zespół opublikował swój kod online pod adresem: https://github.com/Mehooz/vision4leg.

Źródło historii:

Materiały dostarczone przez Uniwersytet Kalifornijski – San Diego. Oryginał napisany przez Liezel Labios. Uwaga: Treść można edytować pod kątem stylu i długości.

Click to rate this post!
[Total: 0 Average: 0]
science