Kändisars ansikten i porr. Politiker som säger grovt rasistiska saker. Att kunna manipulera video har blivit lättare och mer tillgängligt i takt med teknikutvecklingen. Så även kvaliteten på så kallade deepfakes, att klistra på någons ansikte på ett redan existerande filmklipp.
Tekniken används bland annat för att få det att framstå som om kvinnliga kändisar, däribland Bianca Ingrosso, medverkat i porr.
Två svenska experter inom deepfake som TT pratat med menar att utvecklingen nått stadiet där det mänskliga ögat inte längre hänger med.
– Mycket i ai-världen blir enklare att göra för varje dag, säger Jörgen Ahlberg, docent i datorseende vid Linköpings universitet.
Enligt Ahlberg krävs det fortfarande en viss detaljkunskap för att göra övertygande fejkfilmer, men i grunden behövs det bara en bra bild för att "dataprogrammet" man skapat sedan ska göra resten.
Program mot program
Ahlberg jämför deepfake-läget med hur uttrycket "kameran ljuger inte" fick sig en törn i takt med allt mer utbredd och lättillgänglig bildmanipulering.
– Det är nog samma läxa man får lära sig igen, på nästa nivå, säger han.
Men om det mänskliga ögat inte längre kan avgöra vad som är äkta och vad som är falskt, vad kan då få fram sanningen?
Ahlberg menar att svaret är "dataprogram" som slår ut andra "dataprogram".
– Det handlar om att ta fram ai-metoder som kan avslöja andra ai-metoder.
Han får medhåll av Kalle Åström, professor i matematik vid Lunds universitet och en av de som jobbat med system som avslöjar falskt videoinnehåll på nätet.
– Ofta tränar man de här programmen sida vid sida. Du har ett som du optimerar för att göra förfalskningar och ett som du optimerar för att avslöja dem. Det blir som en inbyggd katt och råtta-lek där du tränar upp den ena biten samtidigt som du tränar upp den andra, säger han.
Inte hundra
En möjlig framtida utveckling är att webbläsare, sociala medier eller hemsidor har inbyggda system som direkt flaggar om något på plattformen har manipulerats.
Det skulle dock, enligt Åström, inte vara något hundraprocentigt skydd.
– Systemen som finns som ska upptäcka falskt innehåll är inte hundraprocentiga. Det är svårt att göra även maskinellt.
Anledningen till det stavas återigen teknikutveckling.
– Det är ju inget som säger att metoderna som kanske utvecklas om ett år blir ännu bättre på att lura de här som ska identifiera, säger Kalle Åström.