Till innehåll på sidan

Efficient and Trustworthy Artificial Intelligence for Critical Robotic Systems

Tid: Ti 2022-11-29 kl 14.00

Plats: F3, Lindstedtsvägen 26 & 28, Stockholm

Språk: Engelska

Ämnesområde: Datalogi

Respondent: Christopher Sprague , Robotik, perception och lärande, RPL

Opponent: Associate professor Todor Stoyanov, McMaster University, Hamilton, Ontario, Canada

Handledare: Professor Petter Ögren, Robotik, perception och lärande, RPL; Associate Professor John Folkesson, Robotik, perception och lärande, RPL; Ivan Stenius, Farkostteknik och Solidmekanik

Exportera till kalender

QC 20221107

Abstract

Kritiska robotsystem är system vars funktion antingen är kritiska för slutförandet av en uppgift, eller kritiska på så sätt att ett misstag allvarligt kan skada människor eller miljö. Dessa kritiska aspekter fångas formellt av konvergens, i den meningen att systemets tillstånd går till en önskad region av tillståndsrummet, och säkerhet, i den meningen att systemets tillstånd undviker osäkra regioner i tillståndsrummet. Datadrivnakontrollpolicyer, hittade genom t.ex. imitationsinlärning eller förstärkningsinlärning, kan överträffa modellbaserade metoder för att effektivt uppnå konvergens och säkerhet; men de gör det ofta bara genom att öka möjligheterna för ett effektivt och säkert uppträdande, utan att ge några garantier, därför kan de vara svåra att lita på. Modellbaserade kontrollpolicyer, å andra sidan, är ofta väl lämpade för att möjliggöra formella garantier vad gäller konvergens och säkerhet, så de är ofta lättare att lita på. Huvudfrågan som ställs i denna avhandling är: hur kan vi kombinera datadrivna och modellbaserade styrpolicyer för att förbättra effektivitet samtidigt som vi formellt garanterar konvergens och säkerhet?

Vi besvarar denna fråga med Beteendeträd, ett ramverk för att representera hybridstyrsystem på ett modulärt sätt. Vi presenterar den första formella definitionen av beteendeträd som ett hybridsystem och presenterar villkoren under vilka exekveringen av ett beteendeträd som ett hybridkontrollsystem formellt kommer att garantera konvergens och säkerhet. Dessutom presenterar vi villkoren under vilka sådana formella garantier kan upprätthållas när man inkluderar overifierade datadrivna kontrollpolicyer, till exempel de som kommer från imitationsinlärning eller förstärkningsinlärning. Vi presenterar också ett tillvägagångssätt för att syntetisera sådana datadrivna kontrollpolicyer på ett sådant sätt att de stöttar konvergens och säkerhet genom att anpassa sig till oförutsedda händelser. Vid sidan av ovanstående utforskar vi också en viktig delfunktion inom robotautonomi genom att förbättra effektiviteten av samtidig lokalisering och kartläggning genom imitationsinlärning. Slutligen validerar vi fördelarna med behaviour trees modularitet i ett verkligt autonomt undervattensfordons kontrollsystem, och ser att denna modularitet bidrar till effektivitet, i termer av användarvänlighet och förtroende, när det gäller att underlätta mänsklig förståelse.

urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-321151