Eine Deep Learning Technik, um zu verbessern, wie Roboter Gegenstände greifen

23 August 2023 2136
Share Tweet

22. August 2023 Funktion

Dieser Artikel wurde gemäß dem Redaktionsprozess und den Richtlinien von Science X überprüft. Die Herausgeber haben beim Sicherstellen der Glaubwürdigkeit des Inhalts die folgenden Merkmale hervorgehoben:

  • Faktengestützt
  • Vorabdruck
  • Vertrauenswürdige Quelle
  • Korrigiert und lektoriert

von Ingrid Fadelli , Tech Xplore

Die meisten Erwachsenen sind von Natur aus in der Lage, Objekte in ihrer Umgebung aufzuheben und in einer Art und Weise festzuhalten, die ihre Verwendung ermöglicht. Zum Beispiel würden sie beim Aufheben eines Kochutensils normalerweise die Seite greifen, die nicht in den Kochtopf oder die Pfanne gelegt wird.

Roboter hingegen müssen darauf trainiert werden, wie sie am besten Objekte aufnehmen und halten, während sie verschiedene Aufgaben erledigen. Dies ist oft ein schwieriger Prozess, da der Roboter auch auf Objekte stoßen kann, mit denen er zuvor noch nie in Kontakt gekommen ist.

Die Forschungsgruppe für Autonome Intelligente Systeme (AIS) der Universität Bonn hat kürzlich eine neue Lernpipeline entwickelt, um die Fähigkeit eines Roboterarms zur Manipulation von Objekten zu verbessern, um ihre praktische Verwendung besser zu unterstützen. Ihr Ansatz, der in einem auf dem Preprint-Server arXiv veröffentlichten Artikel vorgestellt wurde, könnte zur Entwicklung von Robotersystemen beitragen, die manuelle Aufgaben effektiver bewältigen können.

"Ein Objekt ist funktional ergriffen, wenn es verwendet werden kann, zum Beispiel ein Zeigefinger am Auslöser einer Bohrmaschine", sagte Dmytro Pavlichenko, einer der Forscher, die die Studie durchgeführt haben, gegenüber Tech Xplore. "Ein solcher spezifischer Griff ist nicht immer erreichbar, wodurch eine Manipulation erforderlich wird. In diesem Artikel behandeln wir geschickte Vorgriffmanipulationen mit einer anthropomorphen Hand."

Der kürzlich von Pavlichenko und Co-Autor Sven Behnke veröffentlichte Artikel baut auf den bisherigen Forschungsanstrengungen der AIS-Gruppe auf, insbesondere auf einem Artikel, der auf der IEEE-RAS International Conference on Humanoid Robots 2019 in Toronto vorgestellt wurde. Im Rahmen dieser vergangenen Studie hat das Team einen anspruchsvollen Ansatz für das zweihändige robotische Umgreifen von Objekten entwickelt, der auf mehreren komplexen handgestalteten Komponenten beruhte.

"Die Motivation für unseren neuen Artikel bestand darin, eine solch komplexe Pipeline durch ein neuronales Netzwerk zu ersetzen", erklärte Pavlichenko. "Dies reduziert die Komplexität und entfernt festcodierte Manipulationsstrategien, was die Flexibilität des Ansatzes erhöht."

Der von den Forschern in ihrem neuen Artikel vorgestellte vereinfachte Ansatz zur Vorgriffmanipulation beruht auf dem tiefenbestärkenden Lernen, einer starken und bekannten Technik zur Schulung von KI-Algorithmen. Mit dieser Technik trainierte das Team ein Modell, um Objekte geschickt zu manipulieren, bevor es sie greift, und stellt sicher, dass der Roboter sie letztendlich auf effektive Weise hält, genau wie gewünscht.

"Unser Modell lernt unter Verwendung einer mehrkomponentigen dichten Belohnungsfunktion, die das Heranführen eines Objekts an den vorgegebenen funktionellen Griff durch Finger-Objekt-Interaktion fördert", sagte Pavlichenko. "In Verbindung mit einer simulationsfähigen GPU-basierten Simulation Isaac Gym kann das Lernen schnell erfolgen."

Bislang haben die Forscher ihren Ansatz in einer Simulationsumgebung namens Isaac Gym evaluiert und dabei äußerst vielversprechende Ergebnisse erzielt. In ihren ersten Tests ermöglichte ihr Modell simulierten Robotern das Erlernen, wie sie unterschiedlich geformte Objekte in ihren Händen bewegen können, um schließlich den besten Weg zu finden, sie ohne menschliche Demonstrationen zu manipulieren.

Bemerkenswerterweise könnte der Lernansatz, den Pavlichenko und sein Behnke vorgeschlagen haben, leicht auf eine Vielzahl von Roboterarmen und -händen angewendet werden und gleichzeitig die Manipulation zahlreicher Objekte mit unterschiedlichen Formen unterstützen. In Zukunft könnte er daher auf verschiedenen physischen Robotern eingesetzt und getestet werden.

"Wir haben demonstriert, dass das Erlernen eines komplexen, menschenähnlichen dynamischen Verhaltens mit einem einzigen Computer und mehreren Stunden Schulungszeit möglich ist", sagte Pavlichenko. "Unsere Pläne für zukünftige Forschung beinhalten das Übertragen des gelernten Modells in die reale Welt und das Erreichen einer ähnlichen Leistung auf einem echten Roboter. Dies ist in der Regel ziemlich herausfordernd, daher erwarten wir, dass ein zusätzlicher Lernschritt, der jetzt online auf dem echten Roboter stattfindet, erforderlich sein könnte, um die Lücke zwischen Simulation und Realität zu schließen."

© 2023 Science X Network


ZUGEHÖRIGE ARTIKEL