Deepfakes, Cheapfakes og fake nudes: De falske billeder bruges til at ydmyge kvinder

Deepfakes og cheapfakes bliver stadig i størstedelen af tilfældene brugt til internettets to ældste erhverv: At lave porno og chikanere kvinder.

Deepfakes, Cheapfakes og fake nudes: De falske billeder bruges til at ydmyge kvinder

I DR artiklen ‘Kunstig intelligens klæder kvinder ‘ på nettet’ kan man læse om en gruppe unge kvinder, der har fået delt falske nøgenbilleder lavet på en hjemmeside, der hurtigt og let kan manipulere kvindernes ansigter ind på på nøgne kroppe, så det ligner et realistisk nøgenbillede.

Billederne i DRs historie er skabt med en nyere deep learning teknik. Men det har længe været et problem at der, enten med photoshop, forskellige apps eller andre video-manipulationsprogrammer, skabes og deles falsk pornografi og nøgenbilleder af kvinder, både kendte såvel som ukendte, på trods af at det er ulovligt.

Deep fakes panik om politisk disinformation

I 2018 udgav komiker og filminstruktør Jordan Peele den geniale manipulerede video, der fik det til at se ud som om Barack Obama sagde “Killmonger havde ret” og “præsident Trump er en klaphat”. I virkeligheden var det Jordan Peele selv der sagde det, og hans mund var blevet redigeret ind på en video af Obama. Pointen med videoen var, at det med ny deepfake-teknologi, bliver lettere og lettere at producere vellignende falske videoer og billedmateriale, og vi skal passe på hvem vi stoler på.

Videoen blev flittigt delt på sociale medier og panikken over dette nye fænomen - deepfakes - begyndte at brede sig. Hvem kan vi stole på i en verden hvor AI og onde genier kan sprede løgn og misinformation og kapre dagsordenen gennem falske videoer, lydfiler eller billeder af politikere, forretningsledere og skuespillere og andre offentlige personer.

Der er blevet skrevet meget om deepfakes og som en potentiel bombe under vores demokrati, men som Samantha Cole skriver i Vice er politiske deepfakes “A problem that doesnt exist”. For selvom videoerne bliver bedre og bedre, og teknologien til at fremstille deepfakes hele tiden udvikler sig, har deepfakes endnu ikke været brugt i nogen seriøs grad til politisk manipulation.

Når det kommer til politisk manipulation behøver man for det første slet ikke adgang til sofistikerede redigeringsprogrammer og deep learning algoritmer for at kunne sprede falsk information på nettet. Såkaldte ‘cheapfakes’, der blot er simple manipulerede billeder, hvor en politiker eksempelvis vises sammen med et manipuleret citat, eller et screenshot af en nyhedsoverskrift der er ændret i et simpelt redigeringsprogram, har i lang tid været en effektiv teknik til at påvirke og manipulere den politiske samtale på sociale medier.

Men det betyder ikke at deepfakes er ufarlige. Teknologien bag er overvejende udviklet til at manipulere med billeder af kvinders kroppe. Deepfakes og cheapfakes bliver stadig i størstedelen af tilfældene brugt til internettets to ældste erhverv: At lave porno og chikanere kvinder.

Fake nudes på bestilling

Der er et kæmpe marked for at lave pornografiske videoer og billeder af både kendte og ukendte kvinder. Apps som Deepnude, som jeg udtalte mig om til DR i sommeren 2019, gør det lettere at klæde kvinder i ens omgangskreds af, idet app’en bruger deepfake teknologi til at fotomanipulere et billede fra f.eks. en instagramprofil over på en nøgen krop med samme hudtone.

Man har længe kunne bestille redigerede billeder af påklædte kvinder rundtomkring på nettet, hvilket DR dokumenterede i deres artikelserie “Sexkrænket på nettet” fra 2017. Der har været enkelte af denne typer sager for retten i Danmark, én af dem hvor en 23-årig mand står anklaget for at have fabrikeret 231 pornobilleder af 19 forskellige kvinder til hjemmesiden fakethebitch.com. 17 af de 19 forurettede var under 18, da han manipulerede deres billeder.

En app som Deepnude udbreder denne mulighed til automatisk at fabrikere porno på baggrund af helt almindelige profilbilleder, og gør dermed denne type indhold mere tilgængeligt.

Og den hjemmesiden DR omtaler i sin artikel fra april 2021 viser, at det bliver lettere og lettere at skaffe sig adgang til falsk pornografisk materiale på kvinder, hvis billeder man har adgang til.

Når hensigten er at ydmyge

I 2009, hvor vi endnu ikke havde ord som deepfakes, fake nudes, hævnporno og ulovlig billeddeling på den offentlige dagsorden, lavede provo-kunstneren Christian Hornslet en collage, hvor han satte af journalisten Camilla Stockmans ansigt ind i en hardcore pornoscene. Collagen var et svar på en kritisk artikel, der beskyldte Hornsleths firma The Ivy for løgn og bedrag.

“Enhver kvinde, der pludselig ser sig selv i den situation i et billede, vil føle det nedværdigende. Det er tænkt sådan, og det er modtaget sådan, siger Camilla Stockmann til Politiken i forbindelse med sagen.

Fake nudes og cheapfakes handler nemlig ikke altid om det pornografiske potentiale, men bruges ofte målrettet til at ydmyge kvinder i en professionel kontekst, hvor det at blive fremstillet i en grafisk seksuel situation er ydmygende og underminerende. Dermed er det et effektivt våben i smædekampagner.

Den amerikanske demokratiske politiker Alexandra Ocasio-Cortez fake nøgenbillede var ikke engang et redigeret billede af hende. Det var bare et par ben i et badekar, som nogen postede på Twitter med påstanden om, at det var et billede den kendte politiker, som fans og kritikere refererer til som ‘AOC’, der selv havde lagt det på Instagram for år tilbage.

Som et kuriosum kan det nævnes, at det var et online fællesskab af fodfetischister der afslørede at billedet umuligt kunne være AOC’s på grund af længden på personen på fotoets tæer. Alligevel blev det delt af det konservative nyhedsmedie The Daily Caller med titlen ‘“Here’s the Photo Some People Described as a Nude Selfie of Alexandria Ocasio-Cortez.”. I artiklen anerkender journalisten at fotoet ikke er hende, men overskriften viderefører idéen om, at det *kunne* være hende. På denne måde kan man se, at nøgenbilleder, selvom de tydeligt er falske, alligevel bringes til torvs hvis offeret er interessant nok, eller det er politisk opportunt.

Falske pornografiske billeder tvinger kvinder der stiller op til politiske poster, bestrider vigtige embeder eller deltager i den offentlige debat til at tage stilling, for de er nødt til at afvise, at det er dem. Særligt i et puritansk samfund som USA har deling af hævnporno stadig størst konsekvens for offeret, som vi så det i sagen med den amerikanske kongreskvinde Kathy Hill, der endte med at trække sig fra sit embede, fordi en hævngerrig eks delte nøgenbilleder af hende. På samme måde er selve insinuationen af, at der eksisterer nøgenbilleder et våben, der kan bruges til at underminere en kvindes professionelle ry og rygte.

StopChikane: Problemet er stigende.

Ifølge organisationen StopChikane, der rådgiver mennesker der er udsat for digital chikane med særlig fokus på billedkrænkelser, er antallet af henvendelser omkring manipulerede billeder steget kraftigt i løbet af de seneste par år.

“Deep fakes startede med kendte i udlandet. Men i Danmark støder vi på at det er helt almindelige kvinder, også få mænd, de støder på at de optræder i en pornofilm.

Vi ser at folk stjæler et billede fra FB eller instagram, f.eks profilbillede, så lægger de dem op i grupper hvor man kan bede om at få dem manipuleret, nogen gange mod betaling,” fortæller Signe Aare, som er projektleder i StopChikane.

StopChikane får mange henvendelser hvert år, og de ser at flere og flere kendisser, politikere, sangere og skuespillere er at finde i materialet. Problemet er dog underbelyst, fordi de færreste har lyst til at stå frem og pådrage sig mere opmærksomhed om det forfalskede materiale, fortæller Signe Aare.

En undtagelse er tv-værten Michelle Bellaiche, der var en af de krænkede i sagen mod den 23-årige dansker, som har forfalsket pornofilm og billeder af 19 kvinder. Bellaiche gik først til politiet, og derefter medierne og fortalte om sin oplevelse længe efter at hun selv fandt ud af, at hun blev udstillet i deep fake pornofilm. I en artikel til BT forklarer hun, at det skyldtes hensynet til hendes omdømme.

“Hvis alle gjorde som mig, var der aldrig blevet rejst tiltale i sagen. I virkeligheden er jeg mega flov over, at jeg ikke meldte det til politiet med det samme. At jeg tænkte på mig selv og mit omdømme og ikke tænkte på de mange andre kvinder, der ikke på samme måde har en 'stemme' i samfundet som mig,« udtaler hun i artiklen til BT i marts 2019.

Signe Aare fra StopChikane fortæller, at effekterne er ligeså alvorlige for ikke-kendte, der er bange for at blive genkendt af folk, der har set videoer af dem på nettet, og især bange for at børn, familiemedlemmer eller kolleger ser materialet.

“Folk smyger sig langs væggene og er bange for at blive genkendt på gaden. Det har virkelig alvorlige konsekvenser for dem, der er udsat for det,” fortæller hun.

Voldsramte kvinder, som er en gruppe StopChikane har særligt fokus på igennem deres forankring i Dansk Kvindesamfunds krisecentre, udsættes også for forskellige former for manipulerede billeder, der ikke altid er pornografiske.

“Det er ofte fake profiler hvor man udgiver sig for at være kvinden på f.eks. og så deler gamle billeder ufrivilligt, eller eks’en photoshoppes ind på dem, så det ligner de stadig er sammen. Kan også være en falsk mandeprofil som taler grimt og nedsættende om kvinden. Det er ekstremt pressende at det foregår på Facebook, fordi det er her kvindernes sociale netværk er og de udstilles foran dem. Det er en fortsættelse af volden og den kontrollerende adfærd,” fortæller Signe Aare.

Hun tilføjer også at det har konkrete materielle og sociale konsekvenser, da det kan gå ud over ofrenes ry og dermed skade deres jobmuligheder og anseelse på arbejdspladsen.

Mens vi garderer os imod indflydelsen som sofistikeret deepfake kan have på vores politiske og demokratiske systemer, er det værd først at kigge på den meget reelle effekt manipulationerne og teknologierne allerede bliver brugt til at udstille og ydmyge kvinder ved at klæde dem af imod deres vilje.

Du kan kontakte StopChikane hvis du har været udsat for cheapfakes, deepfakes eller andre former for digital chikane - se deres hjemmeside her

Dette indlæg blev skrevet af

Maia Kahlke Lorentzen

Maia Kahlke Lorentzen

Maia researcher og formidler internetkultur, online hadfællesskaber og digital chikane. Hun er forfatter til bogen 'Kan Trold Tæmmes'.
Læs mere.