Experter om fejktrenden: Samma läxa igen

Tekniken är räddningen när tekniken lurar ögat. Det menar två svenska experter på deepfake. –Det här ser äkta ut men det behöver det inte vara, säger en av dem.

Skådespelaren och komikern Bill Hader kan med deepfake-teknik ögonblickligen förvandlas till Arnold Schwarzenegger. Bilden är ett montage.

Skådespelaren och komikern Bill Hader kan med deepfake-teknik ögonblickligen förvandlas till Arnold Schwarzenegger. Bilden är ett montage.

Foto: Youtube/Montage

Vetenskap & teknologi2021-04-03 08:15

Kändisars ansikten i porr. Politiker som säger grovt rasistiska saker. Att kunna manipulera video har blivit lättare och mer tillgängligt i takt med teknikutvecklingen. Så även kvaliteten på så kallade deepfakes, att klistra på någons ansikte på ett redan existerande filmklipp.

Tekniken används bland annat för att få det att framstå som om kvinnliga kändisar, däribland Bianca Ingrosso, medverkat i porr.

Två svenska experter inom deepfake som TT pratat med menar att utvecklingen nått stadiet där det mänskliga ögat inte längre hänger med.

– Mycket i ai-världen blir enklare att göra för varje dag, säger Jörgen Ahlberg, docent i datorseende vid Linköpings universitet.

Enligt Ahlberg krävs det fortfarande en viss detaljkunskap för att göra övertygande fejkfilmer, men i grunden behövs det bara en bra bild för att "dataprogrammet" man skapat sedan ska göra resten.

Program mot program

Ahlberg jämför deepfake-läget med hur uttrycket "kameran ljuger inte" fick sig en törn i takt med allt mer utbredd och lättillgänglig bildmanipulering.

– Det är nog samma läxa man får lära sig igen, på nästa nivå, säger han.

Men om det mänskliga ögat inte längre kan avgöra vad som är äkta och vad som är falskt, vad kan då få fram sanningen?

Ahlberg menar att svaret är "dataprogram" som slår ut andra "dataprogram".

– Det handlar om att ta fram ai-metoder som kan avslöja andra ai-metoder.

Han får medhåll av Kalle Åström, professor i matematik vid Lunds universitet och en av de som jobbat med system som avslöjar falskt videoinnehåll på nätet.

– Ofta tränar man de här programmen sida vid sida. Du har ett som du optimerar för att göra förfalskningar och ett som du optimerar för att avslöja dem. Det blir som en inbyggd katt och råtta-lek där du tränar upp den ena biten samtidigt som du tränar upp den andra, säger han.

Inte hundra

En möjlig framtida utveckling är att webbläsare, sociala medier eller hemsidor har inbyggda system som direkt flaggar om något på plattformen har manipulerats.

Det skulle dock, enligt Åström, inte vara något hundraprocentigt skydd.

– Systemen som finns som ska upptäcka falskt innehåll är inte hundraprocentiga. Det är svårt att göra även maskinellt.

Anledningen till det stavas återigen teknikutveckling.

– Det är ju inget som säger att metoderna som kanske utvecklas om ett år blir ännu bättre på att lura de här som ska identifiera, säger Kalle Åström.

Datorseende och algoritmer

Mycket av den så kallade deepfake-tekniken grundar sig på datorseende och algoritmer.

Grovt förenklat går det ut på att datorer eller program i sig inte kan särskilja på exempelvis en bild på en bil eller en blomma. Men med hjälp av algoritmer kan de lära sig. Med hjälp av algoritmer kan en dator eller ett program "se".

Algoritmerna, speciella instruktioner som antingen gjorts av människor eller av andra algoritmer, lär datorer att se en bild och avgöra innehållet. Är det en bil? Är det en blomma? Eller är det Stefan Löfven?

Det är på detta sätt datorer, med rätt algoritmer, kan avgöra vad som är och vad som inte är ett ansikte. Och eftersom algoritmerna därmed kan titta på andra parametrar än den faktiskt visuella representationen av en bild eller en film kan den till skillnad från människor avgöra om något är falskt eller inte.

Så jobbar vi med nyheter  Läs mer här!