De utmanar AI-porren med designverktyg
Tema: Teknik för vem?
Det krävs bara ett foto och en arbetsinsats på fem minuter – sedan kan ditt ansikte dyka upp i en AI-genererad porrfilm. KTH-forskarna Madeline Balaam och Alejandra Gómez Ortega undersöker hur generativ AI driver på dessa övergrepp – och hur interaktionsdesign kan bli ett verktyg för att motverka dem.
Sångerskan Taylor Swift, skådespelerskan Scarlett Johansson och den amerikanska politikern Alexandria Ocasio-Cortez har alla fått se sina ansikten manipuleras in i falska, sexuellt explicita bilder – och spridas på nätet utan deras samtycke. Men det kan hända vem som helst. I takt med att generativa AI-verktyg blir allt mer avancerade och lättillgängliga växer antalet människor som drabbas av manipulerade bilder och videor, och därmed också behovet av att förstå och förebygga problemet.
– Det krävs inte mycket teknisk kunskap. En bild, rätt app – och det är klart på fem minuter, säger Madeline Balaam, professor i interaktionsdesign vid KTH.
Tillsammans med kollegan Alejandra Gómez Ortega undersöker hon hur generativ AI används för att skapa intima bilder utan samtycke – en form av digitalt könsbaserat våld som ofta kallas deepfake-pornografi – och, framför allt, hur det går att stoppa.
Fotoautomat tar implicita bilder
Från sitt kontor under takåsarna i KTH:s äldsta byggnad utforskar de hur design och teknik kan användas inte bara för att synliggöra AI:s mörkare sida, utan också för att väcka reflektion och skapa förändring.
– Vi är alla sårbara. Bara genom att det publiceras ett foto på oss för den här intervjun ökar risken att någon skulle kunna använda det i en deepfake, säger Balaam.
– Vi vill att fler ska förstå hur digital teknik kan underlätta övergrepp, tillägger Alejandra Gómez Ortega.
För att väcka eftertanke har de skapat en interaktiv fotoautomat – blankt orange och lekfull i sitt uttryck, men med ett allvarligt budskap.
Den som vill kan ta en serie bilder och får sedan en utskrift som påminner om hur en manipulerad, subtilt sexualiserad versionav dem själva skulle kunna se ut. Upplevelsen speglar verkligheten på nätet: du vet aldrig riktigt vart dina bilder tar vägen eller hur de kan användas.
– Vi vill att människor ska känna ett lätt obehag, att de ska få veta hur snabbt tekniken kan kränka gränserna för den personliga integriteten, säger Alejandra Gómez Ortega.
– AI-modeller tenderar att porträttera kvinnor på ett väldigt snävt sätt: sexualiserade, vackra, smala. De har en begränsad syn på vad det innebär att vara kvinna.
Reaktionerna på bilderna från automaten har varit många: från förvåning och obekväma skratt till samtal om dataintegritet, AI och makt.
– Vi kan inte förvänta oss att kvinnor ska försvinna från nätet – det är kulturen som möjliggör övergrepp som måste förändras, säger Madeline Balaam.
Kartlägga förövares drivkrafter
Nästa fas i forskningen kommer att fokusera på att förstå drivkrafterna hos dem som skapar och delar deepfake-material.
– De flesta upplever inte att de gör något fel. Vi vill skapa öppna samtal som kan förändra det., säger Madeline Balaam.
Hon menar att deflesta digitala plattformar är byggda för att minimera friktion och uppmuntra delning – men sällan till eftertanke.
– När någon laddar upp innehåll som avbildar andra uppmanas man sällan att stanna upp och fråga sig: Är det okej att posta det här? Har jag personens samtycke? Borde jag ha det? Vi måste börja bygga in design för samtycke.
Målet är ökad medvetenhet och utbildningsinsatser för allt från skolor till polisutbildningar.
En del menar samtidigt att vi snart kommer att vara avtrubbade inför falskt innhåll. Men KTH-forskarna håller inte med.
– De som drabbas av deepfake-porr blir ofta fullständigt förkrossade. Det påverkar deras självbild och relationer på djupet. Det kan hända vem som helst – även tonårsflickor i skolan – och det måste finnas stöd för dem, säger Alejandra Gómez Ortega.
Att förändra attityder i en tid när AI-verktyg utvecklas i rasande takt är en rejäl utmaning. Men det är en uppgift som Madeline Balaam och Alejandra Gómez Ortega är fast beslutna att ta sig an.
– Vem ska annars göra det, om inte forskarna? Det finns inget kommersiellt intresse här, säger Madeline Balaam.
– KTH har en viktig roll i att hjälpa samhället att förstå hur vi ska leva med tekniken – och hur vi använder den ansvarsfullt.
Text: Anna Gullers