När vi människor utför en enkel uppgift, som att duka ett bord, kan vi agera på flera olika sätt beroende på hur förutsättningarna ser ut. Om en stol oväntat står i vägen flyttar vi på den eller går en omväg, vi använder omväxlande höger eller vänster hand, gör pauser eller har andra oplanerade beteenden.
Robotar fungerar inte på samma sätt. De behöver exakt programmering hela vägen mot målet. Det innebär att de arbetar effektivt i miljöer där de hela tiden följer samma mönster, som i en fabrik. Men för att interagera tillsammans med människor inom exempelvis service eller sjukvård, krävs att robotarna utvecklar ett mycket mer flexibelt beteende.
– I framtiden förutser vi att robotar ska utföra vissa grundläggande hushållsaktiviteter, som att duka och städa ett bord, placera köksredskap i diskhon eller hjälpa till med att organisera matvaror, säger Karinne Ramirez-Amaro, forskarassistent på institutionen för elektroteknik.
Forskarna ville undersöka om de gick att lära en robot att i högre utsträckning lösa uppgifter på samma sätt som människor. Alltså att skapa en förklarande AI som utvinner övergripande istället för specifik information vid en demonstration, för att sedan kunna planera en flexibel väg mot ett långsiktigt mål. Förklarande AI (Explainable AI eller XAI) är en metod som kan beskriva för människor hur en AI-algoritm fattar ett visst beslut.
De lät människor utföra samma uppgift – att stapla kuber på varandra – tolv gånger i en VR-miljö. Varje gång utfördes uppgiften på olika sätt och människornas rörelser registrerades med hjälp av lasersensorer.
– När vi människor har en uppgift delar vi upp den i en kedja av mindre mål på vägen, och varje handling vi utför syftar till att uppfylla ett sådant delmål. Istället för att lära roboten en exakt imitation av mänskligt beteende fokuserade vi på vad målet var med alla de handlingar som människorna i studien utförde, säger Karinne Ramirez-Amaro, forskarassistent på institutionen för elektroteknik.
Forskarnas unika metod gick ut på att systemet extraherade meningen med delmålen, och byggde bibliotek bestående av olika handlingar för varje delmål. Slutligen skapade systemet en AI i form av ett planeringsverktyg som användes av en TIAGo-robot, som är designad för att arbeta i inomhusmiljöer, med en utdragbar torso och en arm som kan gripa och flytta föremål. Med hjälp av verktyget kunde roboten automatiskt skapa en plan för att stapla muggar på varandra även när omgivningens förutsättningar förändrades. Kort sagt: Roboten fick i uppgift att stapla muggar och valde sedan själv bland flera möjliga handlingar den sekvens som, efter omständigheterna, ledde till att uppgiften utfördes. Roboten klarade alltså att själv planera hur den skulle göra för att lyckas stapla muggarna trots att förutsättningarna förändrades lite vid varje försök.
– Resultaten visade att vår metod kan skapa planer som utförs korrekt till 92 procent efter en enda mänsklig demonstration, och hela 100 procent korrekt när informationen från alla tolv demonstrationer användes, säger Maximilian Diehl.
Chalmersforskarnas studie presenterades på IROS 2021, en av de största och mest inflytelserika konferenserna om intelligenta robotar och system. Nästa studie i forskningsprojektet, som nu är i sitt slutskede, undersöker hur robotar kan kommunicera till människor och förklara vad som gått fel och varför om de inte lyckas utföra en uppgift.
Industribranschen och inom sjukvården
På lång sikt är målet att använda robotar i industribranschen för att hjälpa tekniker med uppgifter som kan orsaka långsiktiga hälsoproblem, till exempel att dra åt bultar/muttrar på lastbilsshjul. Inom vården kan det vara uppgifter som att hämta och dela ut medicin eller mat.
– Vi vill göra vårdpersonalens jobb enklare så att de kan fokusera på uppgifter som behöver mer uppmärksamhet, säger Karinne-Ramirez Amaro.
– Helt autonoma och flexibla robotar för exempelvis sjukvård och serviceyrken ligger fortfarande flera år framåt i tiden. Utmaningarna ligger främst inom datorseende, kontroll och säker interaktion med människor. Men vi tror att vår metod kommer att bidra till att snabba på lärandeprocessen för robotar, så att de kan ta in alla de aspekterna och tillämpa dem i nya situationer, säger Maximilian Diehl.
Text: Sandra Tavakoli och Karin Wik
Forskningen utfördes i samarbete med Chris Paxton, en forskare på NVIDIA. Detta projekt fick stöd av Chalmers AI Research Centre (CHAIR)
Läs mer om forskningen https://research.chalmers.se/project/9253
Se filmen som förklarar projektet Automated Generation of Robotic Planning Domains from Observations - YouTube
För mer information, kontakta:
Maximilian Diehl, doktorand vid institutionen för elektroteknik
diehlm@chalmers.se
+46 31 772 171
Karinne Ramirez-Amaro, forskarassistent vid institutionen för elektroteknik
karinne@chalmers.se
+46 31 772 10 74