Nieuw framework maakt het mogelijk voor robots om te leren via online menselijke demonstratievideo's

21 Juli 2024 1670
Share Tweet

19 juli 2024 functie

Dit artikel is beoordeeld volgens het redactionele proces en beleid van Science X. Redacteuren hebben de volgende kenmerken benadrukt terwijl ze de geloofwaardigheid van de inhoud waarborgden:

  • feiten gecontroleerd
  • preprint
  • betrouwbare bron
  • nagekeken

door Ingrid Fadelli , Tech Xplore

Om met succes te worden ingezet in real-world omgevingen, moeten robots in staat zijn om betrouwbaar verschillende alledaagse taken uit te voeren, variërend van huishoudelijke klusjes tot industriële processen. Enkele van de taken die ze kunnen volbrengen omvatten het manipuleren van stoffen, bijvoorbeeld bij het vouwen van kleding om ze in een kast te leggen of het helpen van oudere volwassenen met mobiliteitsbeperkingen om hun stropdassen te knopen voor een sociaal evenement.

Het ontwikkelen van robots die effectief met deze taken kunnen omgaan, blijkt tot nu toe behoorlijk uitdagend te zijn. Veel voorgestelde benaderingen om robots te trainen in het manipuleren van stoffen steunen op imitatieleren, een techniek om robotbesturing te trainen met behulp van video's, motion capture-beelden en andere gegevens van mensen die de gewenste taken uitvoeren.

Hoewel sommige van deze technieken bemoedigende resultaten hebben behaald, vereisen ze meestal aanzienlijke hoeveelheden menselijke demonstratiegegevens om goed te presteren. Deze gegevens kunnen duur en moeilijk te verzamelen zijn, terwijl bestaande open-source datasets niet altijd zoveel gegevens bevatten als die voor het trainen van andere rekenkundige technieken, zoals computervisie of generatieve AI-modellen.

Onderzoekers van de National University of Singapore, de Shanghai Jiao Tong University en de Nanjing University introduceerden recentelijk een alternatieve benadering die de training van robotica-algoritmen via menselijke demonstraties zou kunnen verbeteren en vereenvoudigen. Deze benadering, beschreven in een paper die vooraf is gepubliceerd op arXiv, is ontworpen om wat van de vele video's die dagelijks online worden gepost, te benutten als menselijke demonstraties van alledaagse taken.

'Dit werk begint met een eenvoudig idee, namelijk het bouwen van een systeem dat robots in staat stelt de ontelbare menselijke demonstratievideo's online te gebruiken om complexe manipulatievaardigheden te leren,' vertelde Weikun Peng, medeauteur van het paper, aan Tech Xplore. 'Met andere woorden, gegeven een willekeurige menselijke demonstratievideo, wilden we dat de robot dezelfde taak zou voltooien als die in de video werd getoond.'

Hoewel eerdere studies ook imitatieleren-technieken introduceerden die gebruik maakten van videomateriaal, maakten ze gebruik van domeinspecifieke video's (d.w.z. video's van mensen die specifieke taken uitvoeren in dezelfde omgeving waarin de robot later de taak zou aanpakken), in plaats van willekeurige video's verzameld in elke omgeving of setting.

Het door Peng en zijn collega's ontwikkelde raamwerk is daarentegen ontworpen om robotimulatieleer van willekeurige demonstratievideo's die online zijn gevonden, mogelijk te maken.

De aanpak van het team heeft drie primaire componenten, Real2Sim, Learn@Sim en Sim2Real genaamd. De eerste van deze componenten is het centrale en belangrijkste onderdeel van het raamwerk.

'Real2Sim volgt de beweging van het object in de demonstratievideo en bootst dezelfde beweging na op een meshmodel in een simulatie,' legde Peng uit. 'Met andere woorden, we proberen de menselijke demonstratie in de simulatie na te bootsen. Uiteindelijk krijgen we een reeks objectmeshes, die de echte trajectorie van het object representeren.'

De aanpak van de onderzoekers maakt gebruik van meshes (d.w.z. nauwkeurige digitale representaties van de geometrie, vorm en dynamiek van een object) als tussenliggende representaties. Nadat het Real2Sim-component een menselijke demonstratie in een gesimuleerde omgeving heeft gerepliceerd, leert het tweede component van het raamwerk, genaamd Learn@Sim, de grijppunten en plaatsingspunten die een robot in staat zouden stellen dezelfde acties uit te voeren via reinforcement learning.

'Nadat we de grijppunten en plaatsingspunten hebben geleerd in de simulatie, hebben we het beleid geïmplementeerd op een echte dual-arm-robot, wat de derde stap van ons proces is (d.w.z. Sim2Real),' zei Peng. 'We hebben een restbeleid getraind om het Sim2Real-gat te verkleinen.'

De onderzoekers hebben hun voorgestelde aanpak geëvalueerd in een reeks tests, waarbij ze zich specifiek richtten op de taak om een stropdas te knopen. Hoewel deze taak extreem moeilijk kan zijn voor robots, stelde de aanpak van het team een robotmanipulator in staat om deze succesvol af te ronden.

'Het is opmerkelijk dat veel eerdere werken 'in-domein' demonstratievideo's vragen, wat betekent dat de instelling van de demonstratievideo's hetzelfde moet zijn als de instelling van de roboticawerkomgeving,' zei Peng. 'Onze methode kan daarentegen leren van 'out of domain' demonstratievideo's omdat we de beweging van het object in 3D-ruimte uit de demonstratievideo extraheren.'

 


AANVERWANTE ARTIKELEN