Grounded Object and Grasp Representations in a Cognitive Architecture

Publikation: AfhandlingPh.d.-afhandling

Abstrakt

Robotsystemer er selv i dag for det meste ude af stand til at udføre komplekse opgaver i et ukendt miljø. Mens der er mange tilgange til hvorledes ukendte omgivelser kan håndteres, for eksempel indenfor mobil robot navigation, så er mængden af arbejde indenfor mere komplekse opgaver som eksempelvis objekt håndtering betydelig mere begrænset.

Arbejdet, der bliver præsenteret her, indeholder et system, som er i stand til autonomt at lære om objekter og mulige greb i et ukendt miljø. Metoden fungerer ved hjælp af udforskende manipulering og efterfølgende at bruge denne rodfæstende viden i planlægningsøjemed og derved adressere komplekse opgaver. Til at opnå dette mål er det nødvendigt med en række forskellige delsystemer. I denne afhandling vil vi derfor præsentere et set af komponenter samt hvorledes de interagerer med hinanden.

Disse komponenter samt information omkring deres integration findes beskrevet i en samling artikler, hvilket udgør kernen af denne afhandling. Disse artikler er sorteret til en samling af relevante kapitler, der hver indeholder en introduktion, der relaterer indholdet til det samlede system. Til at give et overblik findes en fælles introduktion, der motiverer arbejdet og relaterer det til anden forskning. Der findes desuden en samlet konklusion og opsummering, der inkluderer mulige udvidelser. Emnerne er ordnet således at vi starter med en generel introduktion og bevæger os mod dele, som beskriver de individuelle komponenter.

Det første kapitel giver et overblik over det system, der er i stand til at lære en rodfæstende visuel- og griberepræsentation. I den efterfølgende del beskrives hvorledes disse rodfæstningsprocedurer kan integreres i en arkitektur med tre kognitive niveauer. Vores indledende arbejde med at benytte en taktil sensor til at berige en objektrepræsentation samt tillade mere komplekse aktioner er også præsenteret her.

Eftersom at vores system beskæftiger sig med læring af for eksempel ukendte objekter, har vi behov for at etablere om noget er et objekt (og ikke en forhindring). Et af de indledende skridt er her at se om vi kan manipulere objektet. Vi præsenterer derfor arbejde, der beskriver hvorledes man kan opnå fysisk kontrol af et objekt. Dette arbejde benytter en feature-action relation. Vi beskriver også hvordan denne relation kan blive forbedret ved hjælp af læring fra et sæt af tidligere erfaringer.

Når fysisk kontrol er opnået kan vi flytte objektet således, at vi kan samle visuel information fra en række forskellige synsvinkler. Vi beskriver hvorledes denne information kan integreres til en enkelt objektrepræsentation. Den samlede information kan afslutningsvis blive anvendt i et system, der er i stand til at udføre forskellige planer. Vi præsenterer et system, der er i stand til at generere planer for simple opgaver såsom at rydde af bordet. Systemet er her i stand til at opsamle nødvendig information (sensor aktioner) og indeholder en overvågningskomponent til detektion af problemer, der måtte opstå under eksekvering af planen.
OriginalsprogEngelsk
Udgiver
StatusUdgivet - 2009

Fingeraftryk Dyk ned i forskningsemnerne om 'Grounded Object and Grasp Representations in a Cognitive Architecture'. Sammen danner de et unikt fingeraftryk.

Citationsformater