Explainable Artificial Intelligence for Telecommunications
Tid: Fr 2026-02-06 kl 09.30
Plats: F3 (Flodis), Lindstedtsvägen 26 & 28, Stockholm
Språk: Engelska
Ämnesområde: Maskinkonstruktion
Respondent: Ahmad Terra , Mekatronik och inbyggda styrsystem
Opponent: Professor Kary Främling, Umeå Universitet
Handledare: Professor Martin Törngren, Mekatronik och inbyggda styrsystem; Adjunkt Professor Rafia Inam, Mekatronik och inbyggda styrsystem; Adjunkt Professor Elena Fersman, Mekatronik och inbyggda styrsystem
Abstract
Artificiell Intelligens (AI) är en viktig drivkraft för teknologisk utveckling inom många industriella sektorer. Den implementeras i många delar av telekommunikationsnätverk för att optimera deras funktionalitet på olika sätt. AI-teknologier utvecklats snabbt, med alltmer sofistikerade tekniker som introduceras. Därför är det avgörande att förstå hur en AI-modell fungerar och kommer fram till sitt resultat för att säkerställa systemets integritet. Ett sätt att uppnå detta är att tillämpa förklarbara-AI-tekniker för att generera information om en AI-modells funktion. Denna avhandling utvecklar och utvärderar förklarbara-AI-tekniker för att förbättra transparensen hos AI-modeller.
Inom övervakad inlärning tillämpades flera förklarbara-AI-metoder som beräknar variabelsviktighet för att identifiera den bakomliggande orsaken till nätverksdriftsproblem. Deras egenskaper jämfördes och analyserades på lokal, grupp- och global nivå. Dock ger de genererade attributiva förklaringarna ingen handlingsbar insikt för att lösa det underliggande problemet. Därför utforskades en annan typ av förklaring, nämligen kontrafaktisk, under studien. Den här typen av förklaring indikerar de förändringar som krävs för att erhålla ett annat resultat. Kontrafaktiska förklaringar användes för att förhindra potentiella problem, såsom brott mot servicenivåavtal (Service Level Agreements, SLA). Den här metoden visade sig minska SLA-överträdelser i ett emulerat nätverk avsevärt, men kräver en konvertering från förklaring till handling.
Till skillnad från den tidigare metoden kan en förstärkningsinlärningsagent utföra en handling i sin miljö för att uppnå sitt mål, vilket eliminerar behovet av konvertering från förklaring till handling. Därför blir det viktigt att förstå dess beteende, särskilt när den styr en kritisk infrastruktur. I denna avhandling undersöktes och implementerades två nya metoder för förklarbar förstärkningsinlärning, nämligen belöningsdekomposition och Autonomous Policy Explanation (APE), för att generera förklaringar för olika användare, tekniska och icke-tekniska. Medan belöningsdekomposition förklarar en modells utdata och variabelsattribution förklarar indata, saknades kopplingen mellan dessa i litteraturen. I denna avhandling föreslogs en kombination av metoder för variabelsviktighet och belöningsdekomposition för att generera detaljerade förklaringar samt för att identifiera och mildra bias i AI-modellerna. Dessutom kan en detaljerad kontrastiv förklaring genereras för att förklara varför en åtgärd föredras framför en annan. För icke-tekniska användare integrerades APE med attributmetoden för att generera förklaringar för ett visst tillstånd. APE integrerades också med en kontrafaktisk metod för att skapa en meningsfull förklaring. Dock har APE en begränsning när det gäller skalbarhet med antalet predikat. Därför föreslogs en alternativ textförklarare, nämligen Clustering-Based Summarizer (CBS), för att hantera denna begränsning. Utvärderingen av textuella förklaringar är begränsad i litteraturen. Därför föreslogs en regelutvinningsmetod för att utvärdera textuella förklaringar baserat på deras egenskaper, tillförlitlighet och prestanda.Dessutom föreslogs två förfiningstekniker för att förbättra F1-poängen och minska antalet duplicerade villkor.
Sammanfattningsvis, avhandlingen har utvecklat följande bidrag: a) implementering och analys av olika förklarbara-AI-metoder; b) metoder för att använda förklaringar och förklarare; c) utvärderingsmetoder för AI-förklaringar; och d) metoder för att förbättra förklaringars kvalitet. Avhandlingen kretsar kring nätverksautomation inom telekommunikationsområdet. Förklaringsbarhetsmetoderna för övervakad inlärning tillämpades på ett fall för nätverksskiveförsäkran, och för förstärkningsinlärning tillämpades de på ett nätverksoptimeringsfall (nämligen fjärrstyrd elektrisk tilt). Dessutom presenterades tillämpningar i andra öppna miljöer, vilket visar bredare användningsområden i olika tillämpningsfall.