content/da-dk/images/repository/isc/2020/how-to-protect-yourself-against-deepfake.jpg

Den nye verden af Deepfake

Deepfake-videoer er en sammensætning af to ord – "deep" kommer fra "dyb indlæring", og "fake" kommer fra "falsk". Dyb indlæring er en avanceret metode inden for kunstig intelligens, der bruger flere lag af maskinindlæringsalgoritmer til at udtrække et gradvist højere niveau af funktioner fra rå input. Maskinerne er i stand til at lære af ustrukturerede data såsom det menneskelige ansigt. For eksempel kan en kunstig intelligens indsamle data om dine fysiske bevægelser.

Disse data kan derefter behandles for at skabe en Deepfake-video via et GAN-netværk (Generative Adversarial Network). Dette er en anden form for specialiseret maskinlæringssystem. To neurale netværk kan bruges til at konkurrere med hinanden om at lære egenskaberne ved et træningssæt (f.eks. fotografier af ansigter) og derefter generere nye data med de samme karakteristika (nye "fotografier").

Fordi et sådant netværk bliver ved med at teste de billeder, det skaber, mod træningssættet, bliver de falske billeder stadig mere overbevisende. Dette gør Deepfake til en stadig større trussel. Derudover kan GAN-netværk forfalske andre data udover fotos og video. Faktisk kan de samme Deepfake-maskinindlærings- og syntetiseringsteknikker bruges til at forfalske stemmer.

Eksempler på Deepfake

Det er ikke svært at finde eksempler på Deepfake med berømtheder. Et eksempel på en Deepfake er videoen, som blev udsendt af skuespiller Jordan Peele, hvor han brugte rigtige optagelser af Barack Obama sammen med sine egne imitationer af Obamas stemme for at give alle en advarsel mod Deepfake-videoer. Han viste derefter, hvordan de to halvdele af den fusionerede video så ud, når de var adskilt. Hans bedste råd? Vi er nødt til at sætte spørgsmålstegn ved det, vi ser.

En video af Facebooks CEO Mark Zuckerberg synes at handle om, hvordan Facebook "styrer fremtiden" via stjålne brugerdata – især på Instagram. Den oprindelige video stammer fra en tale, Zuckerberg holdt om russisk valgindblanding. Blot 21 sekunder af denne tale var nok til at syntetisere den nye video. Men stemmen var ikke så god som Jordan Peeles imitation af Obama, og videoen afslørede derved sig selv.

Men selv dårlige forfalskninger kan have en bemærkelsesværdig indvirkning. En video af Nancy Pelosi "beruset" fik millioner af visninger på YouTube. Det var en falsk video, som blev lavet ved at bremse en videos sekvenser kunstigt op for at give indtryk af, at hendes ord var slørede. Mange kendte kvinder har desuden opdaget, at de har fået "hovedrollen" i hævnporno, som er lavet ved at indsætte deres ansigter i pornofilm og på billeder.

Trusler ved Deepfake – bedrageri og afpresning

Deepfake-videoer er hidtil blevet brugt til politiske formål samt til personlig hævn. Men nu bliver de i stigende grad brugt i store forsøg på afpresning og bedrageri.

En administrerende direktør for et britisk energiselskab blev snydt for 243.000 GDP af en Deepfake-stemme, som imiterede koncernchefen, der bad om en nødoverførsel af penge. Svindlen var så overbevisende, at offeret ikke tænkte på at tjekke det. Men pengene blev ikke overført til hovedkontoret. De blev overført til en tredjeparts bankkonto. Den administrerende direktør blev først mistænksom, da hans "chef" bad om en ny overførsel. Denne gang ringede alarmklokkerne, men det var for sent at få pengene tilbage.

I Frankrig brugte en svindler for nylig ikke Deepfake-teknologi, men efterligningens kunst. Ved omhyggeligt at kopiere udenrigsminister Jean-Yves le Drians kontor og dets møbler blev en række direktører bedraget for millioner af euro. Svindleren Gilbert Chikli menes at have forklædt sig som ministeren for at bede velhavende enkeltpersoner og virksomhedsledere om løsepenge til at befri franske gidsler i Syrien. Han er i øjeblikket stillet for rette

 
Trusler og farer ved Deepfake

Det er også muligt, at Deepfake-forfattere kan afpresse virksomhedsdirektører ved at true med at udgive en skadelig Deepfake-video, medmindre ofrene betaler. Eller ubudne gæster kan trænge ind i dit netværk ved blot at syntetisere et videoopkald fra IT-chefen og narre medarbejdere til at oplyse adgangskoder og privilegier, som derefter giver hackere adgang til følsomme databaser.

Deepfake-pornovideoer er allerede blevet brugt til at afpresse kvindelige journalister som f.eks. journalisten Rana Ayyub i Indien, der afslører magtmisbrug. Efterhånden som teknologien bliver billigere, må vi forvente at se flere tilfælde, hvor Deepfake bruges til afpresning og bedrageri.

Hvordan kan vi beskytte os mod Deepfake?

Lovgivningen er allerede begyndt at tage fat på truslerne fra Deepfake-videoer. I Californien blev der f.eks. vedtaget to love sidste år, som gjorde aspekter af Deepfake ulovlige. AB-602 forbød brugen af menneskelig billedsyntese til at lave pornografi uden samtykke fra de afbildede personer, og AB-730 forbød manipulation af billeder af politiske kandidater inden for 60 dage før et valg.

Men er det nok? Heldigvis udvikler cybersikkerhedsvirksomheder hele tiden flere og bedre detekteringsalgoritmer. Disse analyserer videobilledet og ser de små forvrængninger, der skabes under forfalskningsprocessen. For eksempel modellerer de nuværende Deepfake-synthesizere et 2D-ansigt og forvrænger det, så det passer til videoens 3D-perspektiv. Ved at se på, hvilken vej næsen peger, kan forfalskningen afsløres.

Deepfake-videoer er stadig på et niveau, hvor du selv kan se de afslørende tegn. Se efter følgende karakteristika for en Deepfake-video:

  • rykvise bevægelser
  • skift i belysning fra ét billede til det næste
  • skift i hudtone
  • mærkeligt blinkende øjne, eller de blinker slet ikke
  • læber er dårligt synkroniseret med tale
  • digitale artefakter i billedet

Men efterhånden som Deepfakes bliver bedre, kan du i mindre grad stole på dine egne øjne og må i højere grad forlade dig på et godt cybersikkerhedsprogram.

Den nyeste anti-fake-teknologi

Nye teknologier kan nu hjælpe videoproducenter med at godkende deres videoer. En kryptografisk algoritme kan bruges til at indsætte hashtags med faste intervaller under videoen. Hvis videoen ændres, ændres hashtaggene. Kunstig intelligens og Blockchain kan registrere et manipulationssikret digitalt fingeraftryk til videoer. Det svarer til at påføre et vandmærke på dokumenter. Vanskeligheden med video er, at hashtaggene skal overleve, hvis videoen komprimeres til brug med forskellige codecs.

En anden måde til at bekæmpe forsøg på Deepfake er at bruge et program, der indsætter specielt designede digitale "artefakter" i videoer for at skjule de pixelmønstre, som bruges af ansigtsdetektionssoftware. Disse gør derefter Deepfake-algoritmerne langsommere, hvilket medfører dårlig kvalitet i resultaterne. Dette gør chancen for en vellykket Deepfaking mindre sandsynlig.

Gode sikkerhedsprocedurer er den bedste beskyttelse

Men teknologi er ikke den eneste metode til at beskytte sig mod Deepfake-videoer. Gode grundlæggende sikkerhedsprocedurer er bemærkelsesværdigt effektive til at modvirke Deepfake.

F.eks. ville en automatisk kontrol i en hvilken som helst proces til udbetaling af penge kunne have stoppet mange Deepfakes og lignende bedragerier. Du kan selv gøre følgende:

  • Sørg for, at medarbejdere og familie ved, hvordan Deepfaking fungerer, og hvilke udfordringer det kan give.
  • Uddan dig selv og andre om, hvordan man spotter en Deepfake.
  • Vær mediekritisk, og brug nyhedskilder af god kvalitet.
  • Hav gode grundlæggende protokoller på plads – "Hav tillid, men husk at verificere". At have en skeptisk holdning til talebeskeder og videoer garanterer ikke, at du aldrig bliver bedraget, men det kan hjælpe dig med at undgå mange faldgruber.

Husk, hvis Deepfake begynder at blive implementeret af hackere i deres forsøg på at bryde ind i hjemme- og virksomhedsnetværk, vil den grundlæggende bedste praksis for cybersikkerhed spille en afgørende rolle, når det drejer sig om at minimere risikoen:

  • Regelmæssige sikkerhedskopieringer beskytter dine data mod ransomware og giver dig mulighed for at gendanne ødelagte data.
  • Brug af forskellige, stærke adgangskoder til forskellige konti betyder, at bare fordi ét netværk eller én tjeneste er blevet kompromitteret, betyder det ikke, at andre er blevet det. Hvis nogen trænger ind på din Facebook-konto, ønsker du ikke, at de også kan komme ind på dine andre konti.
  • Brug en god sikkerhedspakke som f.eks. Kasperskys Total Security til at beskytte dit hjemmenetværk, din bærbare pc og din smartphone mod cybertrusler. Denne pakke tilbyder antivirussoftware, en VPN-forbindelse til at forhindre, at dine Wi-Fi-forbindelser bliver hacket, samt beskyttelse af dine webkameraer.

Hvordan ser fremtiden ud for Deepfake?

Deepfake vil fortsat udvikle sig. For to år siden var det virkelig nemt at afsløre Deepfake-videoer på grund af den klodsede kvalitet af bevægelserne og det faktum, at den forfalskede person aldrig så ud til at blinke. Men den nyeste generation af falske videoer har udviklet og tilpasset sig.

Der skønnes at være over 15.000 Deepfake-videoer derude lige nu. Nogle er bare for sjov, mens andre forsøger at manipulere dine meninger. Men nu, hvor det kun tager en dag eller to at lave en ny Deepfake-video, kan antallet stige meget hurtigt.

Relaterede links

Omfangsrige hack af berømtheder, og hvordan de påvirker dig

Kan dit webcam udspionere dig?

Hvad betyder stigningen i mængden af Deepfakes for cybersikkerhedens fremtid?

Falske videoer og Deepfake – Hvordan kan brugerne beskytte sig selv?

Hackere er blevet langt mere avancerede end blot at Photoshoppe en politikers ansigt oven på en pornostjernes krop. Nu kan Deepfake-videoer fremstilles med teknologi svarende til den, der bruges i Hollywood-film, og dermed lægge ord i offerets mund, som derefter kan bruges til at skade deres omdømme eller endda afpresse dem.
Kaspersky Logo