Neues Framework ermöglicht es Robotern, durch Online-Vorführvideos von Menschen zu lernen.

21 Juli 2024 1930
Share Tweet

19. Juli 2024

feature

Dieser Artikel wurde gemäß des Redaktionsprozesses und der Richtlinien von Science X überprüft. Die Herausgeber haben die folgenden Eigenschaften hervorgehoben, während sie die Glaubwürdigkeit des Inhalts sicherstellen:

  • Faktencheck
  • Preprint
  • Vertrauenswürdige Quelle
  • Korrekturgelesen

von Ingrid Fadelli, Tech Xplore

Um in realen Situationen erfolgreich eingesetzt zu werden, sollten Roboter in der Lage sein, verschiedene alltägliche Aufgaben zuverlässig zu erledigen, von Haushaltsaufgaben bis hin zu industriellen Prozessen. Einige der Aufgaben, die sie erledigen könnten, beinhalten das Manipulieren von Stoffen, beispielsweise beim Falten von Kleidung, um sie im Schrank zu verstauen, oder älteren Erwachsenen mit Mobilitätseinschränkungen zu helfen, ihre Krawatten vor einem gesellschaftlichen Ereignis zu binden.

Die Entwicklung von Robotern, die diese Aufgaben effektiv bewältigen können, hat sich bisher als recht herausfordernd erwiesen. Viele vorgeschlagene Ansätze zum Training von Robotern in Stoffmanipulationsaufgaben beruhen auf dem Imitationslernen, einer Technik, um die Robotersteuerung mithilfe von Videos, Bewegungsaufnahmen und anderen Daten zu trainieren, die Menschen bei der Ausführung der interessierenden Aufgaben zeigen.

Obwohl einige dieser Techniken vielversprechende Ergebnisse erzielt haben, erfordern sie in der Regel, um gut zu funktionieren, beträchtliche Mengen an menschlichen Demonstrationsdaten. Diese Daten können teuer und schwierig zu sammeln sein, während vorhandene Open-Source-Datensätze nicht immer so viele Daten enthalten wie solche für das Training anderer Rechentechniken, wie zum Beispiel Computer Vision oder generative AI-Modelle.

Forscher der National University of Singapore, der Shanghai Jiao Tong University und der Nanjing University haben kürzlich einen alternativen Ansatz vorgestellt, der die Schulung von Roboteralgorithmen mithilfe menschlicher Demonstrationen verbessern und vereinfachen könnte. Dieser Ansatz, der in einem auf ArXiv vorveröffentlichten Papier detailliert beschrieben wird, soll einige der täglich online geposteten Videos nutzen, um sie als menschliche Demonstrationen von alltäglichen Aufgaben zu verwenden.

'Diese Arbeit beginnt mit einer simplen Idee, nämlich der Entwicklung eines Systems, das es Robotern ermöglicht, die unzähligen menschlichen Demonstrationsvideos online zu nutzen, um komplexe Manipulationsfertigkeiten zu erlernen', sagte Weikun Peng, Mitautor des Papiers, gegenüber Tech Xplore. 'Mit anderen Worten, soll der Roboter eine beliebige menschliche Demonstrationsvideos bekommen, um die gleiche Aufgabe auszuführen, die im Video gezeigt wird.'

Bereits zuvor wurden Immitationslern-Techniken vorgestellt, die Videomaterial nutzten, allerdings verwendeten sie domainspezifische Videos (z. B. Videos von Menschen, die spezifische Aufgaben in der gleichen Umgebung wie der Roboter ausführen sollte, abschließen), im Gegensatz zu beliebigen Videos, die in beliebiger Umgebung oder Einstellung gesammelt wurden.

Das Framework, das von Peng und seinen Kollegen entwickelt wurde, hingegen soll das Imitationslernen des Roboters aus beliebigen Online-Demonstrationsvideos ermöglichen.

Der Ansatz des Teams besteht aus drei Hauptkomponenten, die als Real2Sim, Learn@Sim und Sim2Real bezeichnet werden. Die erste davon ist der zentrale und wichtigste Teil des Frameworks.

'Real2Sim verfolgt die Bewegung des Objekts im Demonstrationsvideo und repliziert dieselbe Bewegung in einem Mesh-Modell in einer Simulation', erklärte Peng. 'Mit anderen Worten versuchen wir, die menschliche Demonstration in der Simulation zu replizieren. Schließlich erhalten wir eine Sequenz von Objektmeshs, die die tatsächliche Objektbahn darstellen.'

Der Ansatz der Forscher verwendet Meshs (genaue digitale Darstellungen der Geometrie, Form und Dynamik eines Objekts) als Zwischenrepräsentationen. Nachdem die Komponente Real2Sim eine menschliche Demonstration in einer simulierten Umgebung repliziert hat, lernt die zweite Komponente des Frameworks, die als Learn@Sim bezeichnet wird, die Greifpunkte und Ablagepunkte, die es einem Roboter ermöglichen würden, dieselben Aktionen mithilfe von Verstärkungslernen auszuführen.

'Nachdem wir in der Simulation Greif- und Ablagepunkte gelernt haben, haben wir die Richtlinie in einen echten Dualarmroboter implementiert, was unser dritter Schritt im Ablauf ist (d. h. Sim2Real)', sagte Peng. 'Wir haben eine Restrichtlinie trainiert, um die Sim2Real-Lücke zu verringern.'

Die Forscher haben ihren vorgeschlagenen Ansatz in einer Reihe von Tests evaluiert, wobei sie sich speziell auf die Aufgabe des Bindens einer Krawatte konzentrierten. Obwohl diese Aufgabe für Roboter extrem schwierig sein kann, ermöglichte der Ansatz des Teams einem robotischen Manipulator, sie erfolgreich abzuschließen.

'Bemerkenswert ist, dass viele vorherige Arbeiten 'im Domain' Demonstrationsvideos erfordern, was bedeutet, dass die Einstellung der Demonstrationsvideos der Einstellung der Ausführungsumgebung des Roboters entsprechen sollte', sagte Peng. 'Unsere Methode hingegen kann aus 'außerhalb des Domain' Demonstrationsvideos lernen, da wir die Bewegung des Objekts im 3D-Raum aus dem Demonstrationsvideo extrahieren.'

 


ZUGEHÖRIGE ARTIKEL