Mette Frederiksen og Kamala Harris har været ofre for teknologien. Børns Vilkår har brugt den i en kampagne. ‘Deepfakes’ er kommet for at blive og skaber »dyb bekymring«.
Vi afskaffer pinsen. Vi afskaffer påsken. Og vi afskaffer julen.«
Det chokerende budskab leveres fra Spejlsalen i Statsministeriet med Mette Frederiksens velkendte tonefald i en video, hvor statsministeren lige så velkendt gestikulerer roligt med hænderne, som vi kender det fra pressemøderne.
»Mine mareridt med den her regering bliver altså stadig mere uhyggelige. Nu også med Mette F og hendes pressemøder,« skrev DF-formand Morten Messerschmidt, der i april delte videoen, som selvfølgelig er fake.
»Jeg, Kamala Harris, er jeres demokratiske præsidentkandidat, fordi Joe Bidens senilitet endelig viste sig ved debatten,« siger en stemme lig Kamala Harris’ i en række videoklip, der er en parodi på hendes kampagnefilm.
»Det her er fantastisk,« skrev Tesla-milliardæren Elon Musk, da han delte videoen, der selvfølgelig også var fake, til sine knap 200 millioner følgere på X – det sociale medie, som han selv ejer.
Begge videoer er såkaldte ‘deepfakes’ skabt med hjælp fra kunstig intelligens.

»Et fundamentalt problem«
Sammen vidner de om en teknologi, der bliver bedre og mere tilgængelig og dermed også er mere problematisk end nogensinde, pointerer lektor Aske Mottelson, der forsker i menneskers interaktion med digital teknologi ved IT-Universitetet i København (ITU):
»Falske videoer er snart allemandseje. Selvom kvaliteten af DF’s video ikke levnede meget tvivl om, at den var fake, så vidner det om begyndelsen til et presserende samfundsmæssigt problem,« siger Aske Mottelson til Videnskab.dk.
»Videoen med Harris er mere på kanten, fordi den er velproduceret og tydeligvis klippet sammen og redigeret. Musk forsvarede det med, at det var satire. Men det synes jeg ikke, at man kunne se med det samme. Det krævede lidt kildekritik,« lyder det fra lektoren.
Når Aske Mottelson (som regel om aftenen) sidder og scroller gennem feedet på X – tidligere Twitter – støder han selv på flere og flere videoer, hvor han reelt er i tvivl om, de er sande eller falske:
»Og det er jo det, der er interessant. Det handler ikke kun om misinformation og desinformation. Det skaber en generel skepsis mod information, selv når den er sand. Det er et fundamentalt problem,« siger han.
‘Deepfake’-biologitime
I et forskningsprojekt, der begyndte sidste år, forsøger Aske Mottelson netop at løfte på låget til problemet:
Udfordrer ‘deepfake’-videoer tilliden til information? Og er vi i stand til at skelne de kunstige videoer fra de ægte?
For at undersøge det har Aske Mottelson gennemført en række eksperimenter, som han lige nu venter på at få udgivet i et tidsskrift. Ifølge planen sker det til foråret næste år.
Til forskningen hyrede Aske Mottelson og hans kollegaer en ukendt skuespiller til at give en forelæsning om biologi, som de filmede. Ud fra filmen skabte ITU-forskerne en ‘deepfake’-video af den samme forelæsning. Og så skulle der hverves forsøgspersoner.
»Vi fortalte dem selvfølgelig ikke, at det havde noget med falske videoer at gøre, for det ville ødelægge studiet og afsløre vores hensigt,« fortæller Aske Mottelson.
Iøjnefaldende resultater
I alt tre eksperimenter, der alle foregik online, fik forskerne stablet på benene:
I det første forsøg fandt de, at forsøgspersonerne (333 styks) faktisk lærte lige så meget af den falske biologiforelæsning som den, der blev givet af et menneske af kød og blod. Det peger på, at der også er en positiv udnyttelse af ‘deepfakes’, pointerer Aske Mottelson.
»Hvis teknologien kan bruges til at læse op fra en bog eller holde en online-præsentation, som opleves troværdig, og hvor man samtidig ikke siger ‘øh’ eller noget forkert, så er der er et klart potentiale der,« siger Aske Mottelson.
I det andet forsøg konkluderede forskerne, at forsøgspersonerne (400 styks) havde mindre tiltro til informationen, når det gennem fejl i videoen blev tydeligt, at den var falsk. De havde altså en indbygget skepsis mod information fra falske videoer, når de altså kunne spotte dem.
I det tredje forsøg, der måske er mest interessant for denne artikel, undersøgte Aske Mottelson, om forsøgspersonerne (365 styks) overhovedet var i stand til at skelne den falske video fra den ægte og omvendt:
- Halvdelen bedømte den rigtige video til at være ægte, mens den anden halvdel ikke var sikre eller ligefrem troede, at den var falsk.
- 25 procent troede, at den falske video var ægte. De resterende 75 procent var i tvivl eller stemplede den som falsk.
»Så til en vis grad kan de jo se forskel. Men det er da iøjnefaldende, at der er ret mange, der generelt er i tvivl – også når det kommer til den rigtige video,« siger Aske Mottelson.
»Og det er jo min pointe i en nøddeskal. ‘Deepfakes’ udvasker vores forhold til, hvad der er sandt og falsk, selv når det faktisk er sandt,« siger lektoren om forskningen, der altså stadig venter på at blive udgivet og læst af fagfæller.

Ansigtet er et fingeraftryk
Og det er ikke kun Aske Mottelson, der de seneste år har fundet interesse i ‘deepfakes’.
I et 2022 åbnede Aarhus Universitet forskningscentret ‘Centre for Aesthetics of AI Images (AIIM)’, der undersøger hvordan AI-skabte billeder påvirker os socialt og kulturelt og former vores syn på æstetik og sandhed.
En af forskerne på centret hedder Mette-Marie Zacher Sørensen, og hun ser på fænomenet fra en anderledes vinkel end de fleste.
I kunsthistorien har vi altid interesseret os for modtagerens syn på et værk eller kunstneren bag værket, påpeger hun:
»Jeg er interesseret i den portrætterede. I en verden, hvor vores ansigter er overalt og kan bruges til alt, undersøger jeg, hvad det vil sige at blive portrætteret i en ‘deepfake’-video,« siger Mette-Marie Zacher Sørensen, der er lektor ved Aarhus Universitet.
»For vores ansigt er et slags fingeraftryk,« som hun siger:
»Så snart et billede er delt på sociale medier, har vi i princippet mistet kontrollen over det.«
Porno og politik
Du er måske stødt på kuriøse ‘deepfake’-videoer af ultrakendte mennesker som Tom Cruise og Barack Obama – og altså for nylig af Kamala Harris og Mette Frederiksen.
Men det er kun »toppen af isbjerget«, pointerer Mette-Marie Zacher Sørensen.
I 2019 udgav firmaet DeepTrace, der udvikler værktøjer til at spotte falske videoer, en rapport med et opsigtsvækkende fund: Hele 96 procent af alle ‘deepfake’-videoer på nettet bestod af pornografisk indhold lavet med kendte såvel som ukendte mennesker.
»Jeg er interesseret i forskellen på de to genrer; pornografiske ‘deepfakes’ og politiske,« siger Mette-Marie Zacher Sørensen, der har undersøgt forskellene på de to udbredte typer ‘deepfakes’.
Én af de ting grundlæggende forskelle var, at politikere havde en magt og en platform til at sige fra, når de blev misbrugt i ‘deepfakes’. De har altså en mulighed for at korrigere den falske virkelighed.
For folk der er blevet misbrugt i ‘deepfake’-pornografi, og det er i 99 procent af tilfældene kvinder, er det knap så simpelt at tage til genmæle.
»De kan godt sige, at ‘det har jeg aldrig gjort’. Men så snart det er oplevet og set som en film, der indeholder nogle meget kropslige bevægelser, er det ikke så relevant, hvorvidt det er sandt eller falsk – det er stadig en krænkelse,« siger Mette-Marie Zacher Sørensen.
Og det leder til endnu en pointe fra samme forskning: ‘Deepfake’-pornografi åbner op for, at seksuelle fantasier kan tage en ekstrem virkelig form og ikke mindst deles med andre på en helt ny måde:
»Alle kan have en fantasi om et eller andet eller en eller anden. At man kan producere sin fantasi som en video, med en teknologi der kun bliver bedre, har nogle helt nye og usete konsekvenser.«
»Jeg kan godt frygte, at det bliver hverdagsbrug blandt unge mennesker,« siger lektoren, der tilføjer, at det i Danmark er ulovligt at dele den slags videoer, men at hun mener, at det også skal gøres ulovligt at producere dem.
Da Børns Vilkår brugte AI
Et andet sted på Aarhus Universitets forskningscenter for AI-billeder finder man Maja Bak Herrie.
Hun ser på den vildtvoksende ‘deepfake’-teknologi med samme dystre blik som hendes to forskerkollegaer:
»Jeg ser på det med dyb bekymring men også stor nysgerrighed,« siger Maja Bak Herrie, der som postdoc forsker i billedkultur på Aarhus Universitet, til Videnskab.dk
De seneste to år er der især to sager, der har fanget hendes opmærksomhed:
I foråret 2023 lancerede Børns Vilkår en stor kampagne om vold mod børn. Børns Vilkår fandt det uetisk at bruge børnemodeller til kampagnen, og derfor tyede de til AI-skabte billeder af børn.
»Hvorfor var der ingen, som fik øje på Aya?« står på teksten over et billede af en pige med triste øjne. Men pigen på billedet var altså ikke så virkelig, som hun så ud til.
Psykiatrifonden brugte tidligere i år kunstige fotos af børn til at illustrere forsiden på en rapport om psykisk sygdom. Også Amnesty sprang i 2023 på AI-vognen.
»Jeg kan sagtens følge de etiske overvejelser bag beslutningerne,« siger Maja Bak Herrie, der mener, at den slags billeder altid bør være deklarerede, men derudover hverken er for eller imod tendensen.
En smeltedigel af forvirring
Maja Bak Herrie er mere interesseret i, hvad tendensen gør ved »vores visuelle kultur«:
»Historisk set har vi haft nogle særlige forventninger til fotografi og film som en objektiv gengivelse af virkeligheden – eksempelvis når det kommer til pressefotografiet fra krigszonen.«
»En tese kunne jo være, at det bidrager til, at vi med tiden tror mindre på fotografiet, og at det rykker ved den dokumentariske rolle som fotografiet og filmen har haft i vores samfund,« siger Maja Bak Herrie.
En betragtning, som ITU-lektor Aske Mottelson er enig i:
»Det efterlader os i en smeltedigel af forvirring,« siger han og fortæller, hvordan han allerede oplever det på egen krop.
»Forleden aften sad jeg og scrollede på X og faldt over en video med Trump, der sagde noget vanvittigt. Han kunne sikkert sagtens have sagt det, men for mig var det fifty-fifty, om den var sand eller falsk. Jeg kunne simpelthen ikke aflæse det.«
Fandt du så ud af det?
»Det gjorde jeg faktisk aldrig,« siger Aske Mottelson og griner.
»Jeg scrollede bare videre.«
Om
VidenSkaber samarbejder med Videnskab.dk, Danmarks største videnskabsmedie. I løbet af efteråret 2024 skriver de en række videnskabsjournalistiske artikler under det overordnede tema ”hvordan forandrer kunstig intelligens vores samfund?” Læs hele artikelserien her.