Nowy framework pozwala robotom uczyć się za pomocą filmów demonstracyjnych online osób.

21 Lipiec 2024 2675
Share Tweet

19 lipca 2024 funkcja

Ten artykuł został przeglądnięty zgodnie z procesem redakcyjnym i zasadami Science X. Redaktorzy wyodrębnili następujące cechy, dbając jednocześnie o wiarygodność treści:

  • sprawdzane pod kątem faktów
  • opublikowane w wersji preprint
  • zaufane źródło
  • skorygowane/redagowane

według Ingrid Fadelli , Tech Xplore

Aby z powodzeniem mogły być wdrożone w realnych warunkach, roboty muszą być zdolne do niezawodnego wykonywania różnorodnych codziennych zadań, począwszy od obowiązków domowych po procesy przemysłowe. Niektóre zadań, które moglyby wykonywać obejmują manipulację tkaninami, na przykład składanie ubrań do schowania ich do szafy lub pomaganie starszym osobom z zaburzeniami mobilności zawiązać krawaty przed wyjściem na wydarzenie społeczne.

Rozwój robotów zdolnych do skutecznego radzenia sobie z tymi zadaniami do tej pory okazał się dość wymagający. Wiele proponowanych podejść do szkolenia robotów do manipulacji tkaninami polega na uczeniu przez naśladowanie, technice polegającej na szkoleniu kontroli robota za pomocą nagrań wideo, ujęć ruchu i innych danych pokazujących ludzi wykonujących zadania interesujące dla robota.

Chociaż niektóre z tych technik osiągnęły obiecujące rezultaty, aby działać skutecznie, zazwyczaj wymagają one znacznych ilości danych demonstracyjnych ludzi. Dane te mogą być drogie i trudne do zebrania, a istniejące zbiory danych typu open-source nie zawsze zawierają tyle danych co te służące do szkolenia innych technik obliczeniowych, takich jak techniki widzenia komputerowego czy modele sztucznej inteligencji generatywnej.

Niedawno badacze z National University of Singapore, Shanghai Jiao Tong University i Nanjing University wprowadzili alternatywne podejście, które mogłoby usprawnić i uprościć szkolenie algorytmów robotyki za pomocą demonstracji ludzkich. To podejście, opisane w artykule opublikowanym wcześniej na arXiv, zostało zaprojektowane w celu wykorzystania licznych nagrań wideo zamieszczanych każdego dnia w internecie, korzystając z nich jako demonstracji ludzkich codziennych zadań.

'Ta praca zaczyna się od prostego pomysłu, polegającego na zbudowaniu systemu, który pozwala robotom wykorzystać liczne nagramia ludzkich demonstracji dostępnych online do nauki złożonych umiejętności manipulacyjnych,' powiedział Tech Xplore Weikun Peng, współautor artykułu. 'Innymi słowy, dając dowolne nagranie ludzkiej demonstracji, chcieliśmy, aby robot wykonał to samo zadanie pokazane na nagraniu.'

Chociaż wcześniejsze badania także wprowadziły techniki uczenia przez naśladowanie, wykorzystujące nagrania wideo, to korzystały z nagrań specyficznych dla dziedziny (tj. nagrania ludzi wykonujących konkretne zadania w tym samym środowisku, w którym robot miałby później wykonywać zadanie), w odróżnieniu od przypadkowych nagrań zbieranych w dowolnym środowisku czy ustawieniu.

Framework opracowany przez Peng i jego kolegów, z kolei, ma na celu umożliwienie robotom uczenia się przez naśladowanie z przypadkowych nagrań demonstracyjnych znalezionych online.

Podejście zespołu składa się z trzech głównych komponentów, nazwanych Real2Sim, Learn@Sim i Sim2Real. Pierwszy z tych komponentów jest centralną i najważniejszą częścią frameworku.

'Real2Sim śledzi ruch obiektu na nagraniu demonstracyjnym i replikuje ten sam ruch na modelu siatki w symulacji,' wyjaśnił Peng. 'Innymi słowy, próbujemy zreplikować demonstrację ludzką w symulacji. Ostatecznie otrzymujemy sekwencję siatek obiektów, reprezentujących prawdziwą trajektorię obiektu.'

Podejście badaczy wykorzystuje siatki (tj. dokładne cyfrowe reprezentacje geometrii, kształtu i dynamiki obiektu) jako reprezentacje pośrednie. Po tym, jak komponent Real2Sim replikuje nagranie ludzkie w symulowanym środowisku, drugi komponent frameworku, o nazwie Learn@Sim, uczy się punktów chwytania i umieszczania, które umożliwiłyby robotowi wykonanie tych samych działań za pomocą uczenia się wzmocnieniowego.

'Po nauczeniu punktów chwytania i umieszczania w symulacji, wdrożyliśmy politykę do rzeczywistego robota z dwiema rękami, co stanowi trzeci krok w naszej procedurze (tzn. Sim2Real),' powiedział Peng. 'Nauczyliśmy residualnej polityki w celu zminimalizowania różnicy między symulacją a rzeczywistością.'

Badacze ocenili swoje proponowane podejście w serii testów, skupiając się w szczególności na zadaniu wiązania krawata. Podczas gdy to zadanie może być niezwykle trudne dla robotów, podejście zespołu umożliwiło roboticznemu manipulatorowi skuteczne jego wykonanie.

'Warto zauważyć, że wiele wcześniejszych prac wymaga 'nagrań w obszarze', co oznacza, że środowisko nagrań demonstracyjnych powinno być takie samo jak środowisko wykonania robota,' stwierdził Peng. 'Nasza metoda, z drugiej strony, może uczyć się z nagrań 'poza obszarem', ponieważ wydobywamy ruch obiektu w przestrzeni 3D z nagrania demonstracyjnego.'

 


POWIĄZANE ARTYKUŁY