Er 'Deep Fakes' den nye grensen for digital kriminalitet?

Spesialeffektteknologi har sett en veritabel boom de siste tiårene, med CGI som beveger seg fra rudimentært rå og primitiv til nesten ikke å skille seg fra virkeligheten. Nå som opprettelsen av verisimilitudinous bilder blir stadig mer vanlig, forventer politiske eksperter og strafferettseksperter en panikk rundt såkalt 'deep fake' teknologi, som har potensial til å ytterligere komplisere en pågående internasjonal diskusjon om 'falske nyheter'. Men hva er egentlig en 'deep fake' og hvor stor trussel vil denne teknologien utgjøre i fremtiden?





Deep fake (noen ganger stilisert som 'deepfake') teknologi refererer til syntetiserte og / eller overlagrede bilder og / eller videoer opprettet av kunstig intelligens ved bruk av eksisterende bilder og videoer. Ved hjelp av maskinlæring kunne denne teknologien teoretisk skape overbevisende opptak av en person som utførte en handling som faktisk aldri skjedde i det virkelige liv.

Owen Williams, en profesjonell programvareingeniør og kunstner for visuelle effekter, ga en enkel forklaring.



'Det er en måte å bruke et automatisert programvaresystem for å erstatte ansiktet til en person i en video med et annet ansikt som er mye mer automatisk og overbevisende enn det som hadde vært mulig med tidligere teknologi,' sa Williams. Oxygen.com .



Williams bemerket at vanlige, populære filmer som 'Jurassic Park' og 'Blade Runner: The Final Cut' brukte programvare for visse scener på måter som kan ha vært en forløper for dype forfalskninger: 'I filmindustrien er dette veldig vanlig. La oss si at du har en karakter som trenger å utføre et stunt, og du foretrekker å ha ansiktet deres synlig. Den klassiske løsningen ville være at du bare ville se dem bakfra, ellers ville håret være i ansiktet, slik at du ikke kunne fortelle at det var en dobbel. Men det er en ganske involvert historie om filmskapere som bruker datamaskiner for å legge ansiktet til en skuespiller over en stunt-dobbel. '



hvilke bevis hadde de mot ted bundy

'Det pleide å være en veldig manuell prosess,' fortsatte Williams. Nå, med dyp falsk teknologi, mater du en datamaskin to ting: Først videoen du skal erstatte, og deretter en haug med innganger i ansiktet du skal erstatte med. Du må få nok bilder av en person som lager forskjellige ansiktsuttrykk og fra forskjellige vinkler. Du lager et bibliotek med hvordan denne personens ansikt kan se ut i forskjellige situasjoner, og deretter går datamaskinen gjennom og ser på videoen. Det trenger heller ikke noe nøyaktig samsvar. Det kan squish og morph hva det har i biblioteket for å passe det det trenger. Det som tidligere krevde dusinvis av kunstnere hundrevis av timer for å prøve å utføre en veldig komplisert effekt nå, er bare et knappetrykk. '

En fasett av denne teknologien som bekymrer folk, er at en person ikke nødvendigvis trenger å villig sende inn ansiktet for at denne prosessen skal utføres, med tanke på hvor mange bilder som finnes online av folk flest - spesielt kjendiser og politiske personer.



'Det er nok bilder av enhver kjendis i nok vinkler til at du kan lage det biblioteket [uten samtykke],' sa Williams. 'Det kreves en viss mengde arbeid for å gjøre det, men for enhver marginalt populær figur vil ting eksistere. Min forstand er at det er mindre sannsynlig at dette vil være som mulig for en vanlig person. '

De første dype falske videoene dukket opp på Reddit-fora i slutten av 2017, ifølge Variety . En bruker hevdet å ha brukt datamaskinen sin til å lage svært realistiske pornografiske videoer av forskjellige kjendiser som var engasjert i seksuelle aktiviteter som aldri skjedde i det virkelige liv. Brukeren hevdet at han matet datamaskinen med tusenvis av bilder av stjernene, hvorfra AI kunne hente ansiktsuttrykk og bevegelser avbildet. En app brukt av dype falske skapere og delt på Reddit ble til slutt lastet ned over 100.000 ganger. (Reddit ville til slutt fortsette å forby denne typen innhold og sa at det brøt deres politikk for 'ufrivillig pornografi'. ifølge The Verge .)

Realismen dette mediet kan oppnå for øyeblikket tviler på Williams.

'Hvis du noen gang faktisk så på en av disse dype forfalskningene ... er det en viss rarthet der,' sa Williams. 'De er ikke polerte. Det vil sannsynligvis bli bedre og bedre, spesielt fordi Hollywood har en interesse i å gjøre dette automatisert i stedet for å betale dyre artister. '

Tilsvarende gjettet Williams det til tross panikken rundt dyp falsk porno , de skiftende kulturelle holdningene rundt arten av ting som hevnporno eller lekke nakenbilder betyr at det er sannsynlig at folk som lager denne typen medier vil bli fordømt og ikke bli feiret, selv ikke i voksenunderholdningsindustrien.

'Det kommer aldri til å bli vanlig,' teoretiserte Williams. 'Etter ' The Fappening 'ting skjedde på Reddit, folk var i stand til å endre samtalen og si,' Dette er ikke en skandale, det er en sexforbrytelse. ' Så jeg ser bare ikke at dette blir så mye av en skandale som folk tror det vil. Folk kan også ganske enkelt finne den originale pornoen som den dype falsken ble opprettet fra, noe som betyr at det er ganske enkelt å avkaste. '

Men det forårsaker ikke bare bekymring fordi det kan brukes til å lage falske kjendisporno. Folk er også bekymret for de politiske konsekvensene.

Politiske eksperter begynte å skrive om spredning av dype forfalskninger i 2018. En Guardian-artikkel fra november samme år bemerket den virale spredningen av en video som angivelig viser president Donald Trump som oppfordrer nasjonen Belgia til å trekke seg fra Paris klimaavtale. Dette katalyserte en større diskusjon om potensialet for ulike regjeringer å bruke denne teknologien i massedisinformasjonskampanjer, en samtale som allerede var startet takket være den pågående etterforskningen av Russlands involvering i 2016 USAs presidentvalg.

åsene har øyne basert på sann historie

Panikken rundt dype forfalskninger inspirerte til og med redaksjonen til Bloomberg Media Group til å gi en sterkt formulert mening om saken.

'Videobevis har blitt en søyle i strafferettssystemet ... nettopp fordi filmen virker som en så pålitelig oversikt over noens tale eller handlinger. Dype forfalskninger kan muligens gjøre mistanke om slike bevis, ' de skrev i juni 2018. 'En overordnet utfordring vil da være å identifisere og utkalle disse forfalskningene - hvis det er mulig.'

Williams var enig i at naturen til dype forfalskninger truer våre forestillinger om 'virkelighet' med hensyn til videobevis, men bemerket at dette juridiske hengemyret ikke er unikt for vårt moderne digitale landskap.

'Det kommer liksom ned på denne ideen om at folk har den videoen lik sannhet, noe som aldri har vært tilfelle. Vi visste dette fra Rodney King og utover. Eller tenk på Eric Garner : Folk trodde [offiseren som drepte ham] var uskyldig, uansett hvilken video av hendelsen spådde. For meg [mye av frykten rundt dype forfalskninger] virker noe ubegrunnet. '

Williams listet opp flere andre hendelser som ikke involverte dyp falsk teknologi som viste hvordan video har blitt modig manipulert for å skjevle opinionen om en sak, som James O'Keefes kontroversielle fjerning av ACORN og en nylig skandale som involverte doktrert video som visstnok skildrer CNN-reporter Jim Acosta som angriper en ansatt i Det hvite hus .

Williams 'endelige konklusjon var at hysteriet rundt dype forfalskninger er noe overblåst.

'Det jeg ser skje er at det vil fungere begge veier. Hvis en video kommer ut og den er ekte, vil folk hevde at den er falsk. Hvis en video kommer ut og den er falsk, vil folk hevde at den er ekte. Hver sak antar en viss sannhet tildelt videoen [seg selv]. Det er vanskelig å vite hvilken retning dette vil gå i. Hvis Pee Tape faktisk kom ut, for eksempel, du vet nøyaktig hva som ville skje: Halvparten av folket ville sagt: 'Dette er okser - t, det er en eller annen skuespiller!' og halvparten av folket ville si: 'Det er det! Det er virkelig!' Så ingenting ville virkelig endre seg. Det har en tendens til å være det som skjer med ny teknologi: Ting endrer seg ikke så mye som folk tror. '

[Foto: SAUL LOEB / AFP / Getty Images]

Populære Innlegg