8 min

De lär robotar fatta bättre beslut

Robotar som lär sig nya uppgifter själva, som kan förstå att ett föremål är en kopp även om de aldrig har sett någon dricka ur den, det arbetar forskare vid KTH med. Målet är att framtidens robotar ska kunna utföra lika avancerade uppgifter som människor.

Projektanslag 2014

Interactive Physical Systems: Moduli Spaces, Inference and Control

Huvudsökande:
Danica Kragic Jensfelt, professor i datalogi

Medsökande:
Dimos Dimarogonas
Aaron Bobick
Florian Pokorny

Lärosäte:
KTH

Anslag i kronor:
18,6 miljoner kronor under fem år

En robot står vid spisen och lagar mat. Den behöver röra om i grytan men hittar ingen slev. Hur ska den förstå att det går lika bra att röra om med en sked men inte med en penna?

Den typen av frågeställningar arbetar Danica Kragic Jensfelt och hennes kollegor vid KTH med i ett projekt som fått anslag från Knut och Alice Wallenbergs Stiftelse.

– Vi människor använder våra sinnen för att förstå omgivningen - vi tittar och känner vilket material skeden är gjord av för att avgöra om den är bra att röra om med. På samma sätt försöker vi få robotar att kombinera information från sina sensorer för att kunna fatta intelligentare beslut och interagera bättre med omvärlden, säger Danica Kragic Jensfelt.

Från industrirobot till smart hemhjälp

Robotar har sedan många år en självklar plats inom industrin, där de används för att exempelvis montera, svetsa och lyfta. De kan vistas i farliga arbetsmiljöer och utföra arbetsuppgifter med stor precision. På senare tid har robottekniken också gjort sitt intåg i vår hemmiljö. Det går idag att köpa självgående robotar som klipper gräs eller dammsuger. Men fortfarande är robotarnas egenskaper och beteende oftast begränsat till enkla rörelser och förprogrammerade uppgifter.

Danica Kragic Jensfelt och hennes forskarkollegor vill att robotar ska kunna interagera med sin omgivning på mer avancerade sätt och utföra mer komplicerade uppgifter. Till exempel röra sig i våra hem för att hämta saker, laga mat, hjälpa till med toalettbesök eller vaka över en människa som behöver assistans och kunna larma om något farligt är på väg att hända.

För att klara det måste roboten kunna anpassa sig efter sin omgivning och hantera väldigt varierande situationer - långt ifrån den statiska miljön vid löpande bandet i en fabrik. Forskarna vid KTH försöker därför få robotarna att lära sig nya uppgifter själva, med hjälp av den kunskap de har från början och den de får av människor i sin närhet.

– Det påminner om hur barn lär sig. De samlar in information på olika sätt; ser hur föräldrarna gör, testar själva och försöker igen. Att titta på samspelet mellan olika sensorer är ganska nytt inom robotik, tidigare har man främst arbetat med information från individuella sensorer, säger Danica Kragic Jensfelt.

Likheter gör det svåra enkelt

Danica Kragic Jensfelt lyfter upp en halvmeterhög, människoliknande robot från en hylla. I projektet utgår forskarna från robotar som kan plocka upp och flytta föremål med hjälp av enkla händer med kontaktsensorer, som kan se med hjälp av kameror, uppfatta ljud genom mikrofoner och avgöra ett föremåls vikt. Men den grundläggande forskningen är oberoende av hur själva robotkroppen ser ut, och i labbet tränas robotar med mer industriellt utseende att greppa och flytta diskmedelsflaskor, koppar och ballonger.

En viktig del av forskningen handlar om att utveckla sätt för robotar att inhämta och agera på information. Matematiska metoder används för att utveckla nya teorier och nya sätt att organisera all data som kommer från robotens sensorer - data i form av bilder, ljud eller någonting roboten känner - så att den kan användas i robotens beslutsfattande.

– Vi försöker hitta relationer mellan olika objekt för att roboten ska kunna resonera om objekt den inte har sett förut; kunna generalisera. Även om den inte har sett en viss kopp användas ska den kunna säga att det är en kopp eftersom den liknar en annan kopp den har sett förut - kanske till material, vikt och form, säger Danica Kragic Jensfelt.

Ett enkelt exempel är att använda olika typer av koordinatsystem för att beskriva ett föremål geometriskt och på så sätt kunna avgöra vad som är likt.

Plockar upp en bok lika lätt som en kopp

I projektet samarbetar forskare från flera olika discipliner: matematik, robotik, reglerteknik, datalogi och maskininlärning. Detta för att kunna gå hela vägen från matematisk modell, via datorprogram till att testa om roboten beter sig som forskarna vill.

Hittills har de bland annat visat att en robot som vet hur den håller i en kopp kan överföra det greppet för att plocka upp en bok, ett geometriskt sett väldigt olikt objekt.

– Med den teori vi har börjat utveckla kan roboten generalisera mellan olika objekt, olika grepp och delvis olika material, säger Danica Kragic Jensfelt.

Att generalisera är en stor forskningsfråga inom robotteknik och en viktig förmåga om robotar ska bli mer självständiga.

Forskningsprojektet finansieras i fem år. Inom den perioden vill Danica Kragic Jensfelt bland annat visa vilken typ av matematik som gör att inlärningen fungerar bäst samt visa att en robot kan anpassa den kraft den använder för att plocka upp ett okänt, skört föremål så att det inte förstörs. Ett annat mål är att kunna säga vilka likheter det finns mellan äpplen och tomater.

– Är det bara formen, eller är det något annat som roboten kan mäta? Det är viktigt för oss att besvara ganska enkla, fokuserade frågor som sedan underlättar för roboten att göra mer intelligent beslutsfattande, säger Danica Kragic Jensfelt.

Text Sara Nilsson
Foto Magnus Bergström

 

Läs mer om Danica Kragic Jensfelts forskning