Sagde Mette Frederiksen virkelig det?
En video på Tik Tok viser Mette Frederiksen i en indrømmelse over minksagen, slettede sms’er og beskyttelsen af Barbera Bertelsen. Men den er en deep fake, og det er et kæmpe demokratisk problem.
Videoen er en såkaldt deep fake, og den er faktisk ikke engang særlig godt lavet. (du kan se den hvis du klikker på billedet). Kroppen står helt stille og ansigtet er også ret statisk. Men stemmen er meget godt ramt. Men selvom jeg og du måske godt kan se det er fake, så vil der stadig være mange, som slet ikke er forberedt på, at der findes teknologi, som kan det her.
Vi har ikke set toppen af isbjerget. Deep fakes kommer til at spille en kæmpe rolle i valgkampe fremover. Modstandere vil få deres hadekandidater til at fremstå dårligt og sige ting, de aldrig har sagt. Og problemet er, at selv hvis man godt ved det er falskt, så planter en deep fake stadig en mistro. Er der noget om det? Jeg forventer det eksploderer til det amerikanske valg. Især lige omkring valgdagen, hvor man kan nå at få vælgerne til at tvivle.
Det er enormt vigtigt, at der kommer en regulering på deep fakes. For det er ikke kun den demokratiske proces, der er truet. Også du kan blive udsat for et deep fake angreb. Enten fra en forsmået Xkæreste eller en misundelig kollega. Du kan også få et opkald, fra dit barn som desperat fortæller hun er kidnappet, og du skal overføre penge. (det er allerede sket. Så I kan ligeså godt blive enige om at hemmeligt ord som kan verificere ægthed). Eller måske “barnebarnet” som ringer og ønsker sig penge til udbetalingen til en lejlighed.
Vi har at gøre med en teknologi, som gør det muligt for mørke aktører at udgive sig for andre mennesker og handle på deres vegne. De destruktive muligheder er desværre uendelige, og vi har selvfølgelig allesammen ret til at andre ikke bruger os som hånddukke.
Men hvad med satire? Selvfølgelig skal der være plads til kritisk politisk satire. Men vi skal vide det, hvis der er tale om en deep fake. For selvom DR laver en sjov deep fake sketch i Tæt på Sandheden (som de har gjort allerede), så er det ikke alle der oplever konteksten, når det spredes som et enkeltstående klip på nettet. Mon ikke vi kommer til at se nogle regler, som påbyder at deep fakes skal markeres med en slags vandmærke? Og mon ikke det kommer til at være en nødvendighed ved alle former for billeder og tekster, som er lavet med AI? Alternativt kan vi jo bare stemple alt, vi selv laver som “Made by humans”. Hvad tror du?
Jeg gør mig i hvertfaldt mange tanker om emnet, og skriver en masse om det i bogen “Argumenter for Mennesker”, som jeg satser på at få ud i sensommeren.
Del
Christiane Vejlø
Christiane er direktør for Elektronista Media og en af Danmarks førende eksperter i digital kultur, digitalt content og forholdet mellem mennesker og teknologi. Christiane holder foredrag og rådgiver om digitale trends i ind- og udland. Hun har en kandidatgrad i religionsvidenskab og medievidenskab og så sidder Christiane i dataetisk råd. Følg @christianevejlo på Twitter og på Instagram.