Forbud på populære hjemmesider bremser ikke falsk porno
Virkelighedstro falsk porno vakte for få måneder siden opsigt og udfordrer etikken. Digitale vandmærker kan være løsningen.
Hvis du i december faldt over en Reddit-tråd med videoer af kendisser, der havde sex, kunne du fristes til at tro, at de her meget berømte kvinder havde påbegyndt en pornokarriere, for videoerne så meget ægte ud.
Man kunne eksempelvis tydeligt se, at det var Taylor Swifts ansigt på én af videoerne.
Men det var dog ikke popstjernen, der pludselig havde foretaget et voldsomt karriereskift. Videoen var falsk produceret, så det lignede til forveksling.
Ansigtet tilhørte godt nok Taylor Swift, men kroppen på de levende billeder var i stedet en pornoskuespillerindes.
Videoerne var noget, man aldrig før havde set i så overbevisende form: Virkelighedstro falsk porno.
Fænomenet blev døbt 'DeepFakes' og fik sit navn efter brugeren, som i første omgang uploadede videoerne med de kendte kvinder.
Falsk porno spreder sig trods forbud
Frygten for de virkelighedstro DeepFake-videoer har fået folkene bag Reddit, Twitter og Pornhub til at forbyde DeepFake-porno.
Men på trods af at Reddits, Twitters og PornHubs forbud mod DeepFake-videoer på deres sider, stopper det på ingen måde folk i at give sig i kast med at lave falsk porno derhjemme via pc'en.
Det eneste, det umiddelbart kræver for at lave DeepFake-porno, er nemlig et datasæt med 150-200 billeder eller et til to videoklip af den person, man vil putte ind i et pornoklip. Gratisprogrammet FakeApp tager sig af resten af processen.
Og der findes mange sider derude, hvor du med lethed kan finde - og endda bestille - DeepFake-porno.
Fra Hollywood til kælderen
DeepFake-videoer laves ved hjælp af maskinlæring og datasæt i form af billeder eller videoklip med kvinderne.
Maskinlæring er den teknologi, der gør det muligt at skabe falske levende billeder ved at bruge datasættene - billeder eller video - fra to forskellige personer og 'smelte' dem sammen til én.
Før i tiden var det typisk store filmstudier i Hollywood, der benyttede sig af den slags teknologi. Og det var ekstremt dyre filmeffekter lavet af specialister, som var resultatet.
Men med programmet FakeApp kan helt almindelige mennesker nu altså lave falske videoer.
I den harmløse ende gør en del DeepFake-eksempler brug af internettets yndling, skuespilleren Nicolas Cage, og indsætter ham i alle mulige film, han aldrig har medvirket i.
Det kan være klassikeren 'Titanic' eller Superman-filmen 'Man of Steel'. Et par af de mærkværdige, men sjove Nicolas Cage-eksempler kan du se i videoen øverst i artiklen.
Ubegribelige konsekvenser
Men teknologien kan også bruges til at producere 'falsk hævnporno', der kan have ufattelige konsekvenser for de involverede.
Spredning af hævnporno foregår på nettet, hvor pornografisk eller privat intimt materiale deles online uden tilladelse fra den afbildede person.
Hævnporno, som typisk deles af ekspartnere eller hackere, kender vi dog til og har lovgivning omkring. Det er ikke tilfældet med falsk hævnporno.
- En stor del af problemet er, at der ikke er fortilfælde. Vores juridiske og politiske systemer er ikke sat op til at håndtere ukendte problemer eller umoden teknologi, siger digitaliseringsekspert Anders Hvid.
- Det har ikke tidligere været et væsentligt problem, fordi spredningen af teknologien tog tid. Med digitale teknologier går det rigtig stærkt.
Det går faktisk så stærkt, at man om få år sandsynligvis ikke vil kunne se forskel på en falsk og en ægte video.
Vi bliver snydt inden længe
- Hvis man kigger godt efter, vil de fleste mennesker i dag være i stand til at afgøre, om du har lavet en falsk video ved hjælp af neurale netværk eller ej, fortæller Peter Eckersley, chief computer scientist hos Electronic Frontier Foundation til amerikanske Motherboard.
- Nogle af teknikkerne, der bruges, er stadig ret avancerede. Om et år eller to vil det dog være fortid, lyder vurderingen fra Peter Eckersley til Motherboard, som var blandt de første medier, der skrev om DeepFakes.
Ekspert i digitalisering herhjemme, Anders Hvid, er mere påpasselig med at sætte en tidsramme.
- Præcis hvornår teknologien gør det umuligt at kende forskel på rigtig og fake, kan være svært at sige. Det er dog et faktum, at det kommer til at ske, siger Anders Hvid.
Findes der en løsning?
Et af løsningsforslagene til problemet er en slags digitalt vandmærke, som indlejres i videoproduktioner, så man kan se, om videoen er ægte eller ej. Med et vandmærke vil man for eksempel kunne se, hvor og hvornår videoen er optaget.
I 2018 er avanceret teknologi dog blevet demokratiseret i en sådan grad, at private relativt let kan benytte sig af det.
Det kan derfor være svært at vide sig sikker på, om samtlige private aktører, der eksempelvis laver DeepFake-videoer, vil angive med et vandmærke, om deres video er falsk produceret.
- Kunstig intelligens, biotech og 3D-print skaber DeepFakes, gør-det-selv-bioforsøg og 3D-printede pistoler samt hundredevis af andre ting, der grundlæggende udfordrer vores samfundsnormer, etik og regulative systemer, siger Anders Hvid.
Men på trods af udfordringerne med den nye teknologi, mener digitaliseringseksperten også, at vi mennesker har brug for den hjælp, teknologien kan give os.
- Det er teknologien, der skal hjælpe os med at løse klimaforandringerne samtidig med, at vi løfter to millarder mennesker ind i middelklassen, siger Anders Hvid, digitaliseringsekspert og forfatter til bogen 'Forstå fremtiden'.