Etikettarkiv: Mediateknik

Källkritik blir allt viktigare

Fake news, eller falska nyheter på svenska, kan beskrivas som en elektronisk pandemi. Många är exemplen, och du möter dem nästan varje dag om du använder internet.

Hittills har de varit begränsade till exempelvis bleka manipulerade skärmdumpar om ihopljugna Twitter-inlägg från kända politiker eller journalister, men tekniska landvinningar öppnar för fler ”möjligheter”.

Som de här teknikerna som The Washington Post döpt till ”verktygen som kan användas för att skapa morgondagens falska nyheter”. Det vill säga teknik som i realtid kan förvanska vad människor säger i bild och ljud.

Gabriel Skantze, som är universitetslektor på KTH.

Sätt verktygen i händerna på människor med till exempel en rasistisk agenda och de kommer använda den, är min första tanke. Då behöver dessa personer inte längre dåligt photoshopade skärmdumpar som snabbt kan granskas och skjutas ner som de lögner dessa bilder är.

Teknikerna som presenteras av The Washington Post kommer från ett flertal olika forskargrupper, verksamma vid bland annat Münchens tekniska universitet (Visual Computing
Lab) och Skolkovo Institute of Science and Technology (Skoltech) i Ryssland. Men kunnandet finns överallt, även på KTH.

Här jobbar till exempel Hedvig Kjellström, Gabriel Skantze med flera med så väl artificiell intelligens, ansiktsigenkänning och visuell presentation som har det gemensamt att de spelar en stor roll för hur tekniken ovan fungerar. I KTH-forskarnas fall är dock syftet bland annat demensforskning och pedagogisk kommunikation.

Jag skickar ett mejl till Gabriel Skantze, som är universitetslektor på KTH, och undrar hur han ser på de tekniska landvinningarna.

– Det görs mycket sådant nu, har sett många exempel. Tekniken är definitivt mogen för de som vill använda den. Frågan är väl vad som händer med bevisvärdet hos till exempel bilder och ljudmaterial när man så lätt kan manipulera detta, säger Gabriel Skantze.

Universitetets visualiseringslabb VIC med föreståndaren Björn Thuresson i spetsen jobbar med visualiseringsteknik, också med stark koppling till ämnet.

Jag ber även Björn reflektera lite.

– Det är synnerligen intressant att det är så pass enkelt att nå ett övertygande resultat. ”Sanna” källor blir mer och mer problematiska. På Reddit har de sedan en tid tillbaka ”fake history” som utgår ifrån att knyta felaktig metadata till bilder eller filmer. Till slut blir förekomsten så stor att de felaktiga beskrivningarna potentiellt prioriteras högre än de korrekta. Det ansluter till problemet med fel tillskrivna citat, enklare bildmanipulation etcetera. Med den här tekniken kan vi skapa än mer trovärdiga artefakter som blir helt felaktiga referenser och – när det blir riktigt knäppt – i realtid ändra en utsaga. Det är en hel hög med Black Mirror-avsnitt som nu börjar bli verklighet.

Mm. Alla och envar kan konstatera vilka risker och möjligheter som ovan omskrivna tekniker erbjuder. Förvisso ett extremt exempel, men det skulle förmodligen gå att kapa en tv-utsändning och se till att den amerikanska presidenten förklarar krig på mot Nordkorea. Eller bara fejka för arbetsgivaren att du ligger i sjuksängen hemma med feber när du i själva verket befinner dig på en strand i Mexiko och lapar sol. Ja, den dag Facebook eller Iphone utvecklat en liknande app för mobilen.

Helt klart är att teknik och etik i allt större usträckning behöver stötas och blötas. Kanske är det just därför som Storbritannien i deras höstbudget 2017 offentliggjorde en satsning på AI och etik med 450 doktorander. Något som KTH-professorn Jan Gulliksen berättade för mig häromdagen då vi pratade om en pressinbjudan till ett AI-seminarium om just etik och moral på KTH som han är moderator för.