Kunstig intelligens (AI)-drevet deepfake-teknologi er ikke et nytt fenomen. Begrepet "deepfake" har blitt brukt for å beskrive syntetiske medier siden så langt tilbake som i 2017, og mange eksempler på deepfakes har blitt mye publisert. Virale eksempler inkluderer en AI-generert video av Mark Zuckerberg som snakker om Facebooks uhyggelige kraft, en TikTok-konto dedikert til å dele dypfalske videoer av skuespilleren Keanu Reeves, og til og med en video av USAs hustaler Nancy Pelosi, behandlet for å få henne til å virke full. 

Deepfake-teknologien fortsetter å utvikle seg i tempo, og det er mer komplisert enn noen gang å fortelle hva som er og ikke er ekte. Med stortingsvalget i Storbritannia i gang, har dype forfalskninger formet måten velgerne ser på politiske kandidater på – og til og med påvirket hvordan de stemmer?

Deepfakes i stortingsvalget i Storbritannia

I forrige måned ble en manipulert video av Labour-politikeren Wes Streeting publisert på X (tidligere Twitter), som angivelig viser at han kaller Labour-parlamentsmedlem Diane Abbott en "tullete kvinne". BBC rapporterte at videoen og mange av kommentarene som svarte på X kom fra et nettverk av kontoer som lager og deler klipp av politikere og deretter legger ut villedende kommentarer for å forsterke inntrykket av at de er ekte. 

Har nettverket som mål å undergrave og diskreditere de målrettede politikerne, enten det er for politiske formål eller bare for underholdning? BBC-rapporten fant at de samme kontoene postet dypt falske klipp av Labours Luke Akehurst samt Reform UKs Nigel Farage, som spenner over Storbritannias politiske spekter. I en ikke-relatert hendelse ble satiriske dypfalske videoer av Storbritannias statsminister Rishi Sunak også viralt nylig etter at han kunngjorde forslag til nasjonaltjeneste. 

Virkningen av AI er heller ikke begrenset til sosiale medier: det er til og med en AI Independent kandidat kalt AI Steve, en avatar av den virkelige forretningsmannen Steven Endacott. 

En studie av YouGov fant at 43 % av britene får nyhetene sine under stortingsvalget fra sosiale medier, nest etter TV (58 %). Totalt får 77 % nyhetene sine på nett. Så selv om mange anvendelser av deepfake-teknologi kan være ufarlige og underholdende, kan konsekvensene av videoer som Wes Streeting-klippet være politisk skadelige. Ettersom briter avgir sine stemmer, vil deepfakes sannsynligvis påvirke valgene deres for noen.

GenAI fortsetter å påvirke bedrifter også

Trusselaktører fortsetter også å målrette bedrifter og deres kunder. Forrige uke fant den australske nyhetskanalen 7News sin YouTube hacket av trusselaktører, som brukte den til å livestreame en AI-generert video av Elon Musk som utropte en kryptovaluta-svindel. The Sydney Morning Herald rapporterte at deepfake oppfordret seere til å skanne en Tesla-merket QR-kode og sette inn penger i kryptovalutaordningen for å "doble kryptoaktiva". 

Hacket viser at trusselaktører blir stadig mer kunnskapsrike i sin tilnærming til å kompromittere virksomheter for å få tilgang til kritiske data – og kunder. YouTube-kanalen 7News har over en million abonnenter, noe som lar svindlerne bak angrepet nå 7News sitt betydelige publikum: CryptoNews rapporterte at livestrømmen ble sett av rundt 60,000 45,000 seere, og en annen samtidig stream ble sett av rundt XNUMX XNUMX mennesker. 

Deepfakes tillater også trusselaktører å utføre forretnings-e-postkompromiss-angrep (BEC) mot organisasjoner, ved å bruke AI-generert lyd, bilder og video for å etterligne seniormedarbeidere. I april delte LastPass at en trusselskuespiller hadde utgitt seg for administrerende direktør Karim Toubba ved å bruke WhatsApp, sende en ansatt anrop, tekstmeldinger og talemeldinger med en lyddeepfake. I dette tilfellet rapporterte den ansatte hendelsen og trusselen ble dempet av LastPass. Likevel er det mange nylige hendelser der denne angrepsmåten har vært vellykket, noe som har ført til økonomisk tap.

Fremskritt innen AI-teknologi fører til økte cybertrusler

AI blir en stadig mer tilgjengelig teknologi for trusselaktører, noe som fører til en økning i angrep på enkeltpersoner og bedrifter. Vår Status for informasjonssikkerhetsrapport undersøkte over 1,500 fagfolk innen informasjonssikkerhet og fant at nesten en tredjedel (30 %) av selskapene har opplevd et dypt falskt angrep i løpet av de siste 12 månedene. 

Imidlertid var flertallet av respondentene (76%) også enige om at AI og maskinlæringsteknologi (ML) forbedrer informasjonssikkerheten, og tilbyr nye måter å automatisere, analysere og forbedre sikkerhetstiltakene på. 62 % forventer å øke utgiftene sine til AI- og ML-sikkerhetsapplikasjoner i løpet av de neste 12 månedene. 

Med AI-drevet teknologi som tilbyr bedrifter både utfordringer og utrolige muligheter, hvordan kan vi håndtere og forhindre deepfake-hendelser?

Reduser risikoen for Deepfake-hendelser

For bedrifter vil opplæring og bevisstgjøring av ansatte være avgjørende for å redusere risikoen for deepfake-hendelser. Standarder som ISO 27001, den internasjonale informasjonssikkerhetsstandarden, gir et rammeverk for å bygge, vedlikeholde og kontinuerlig forbedre et styringssystem for informasjonssikkerhet (ISMS). Dette inkluderer implementering av en informasjonssikkerhetspolicy, som vil veilede dine ansatte i å rapportere en mistenkt hendelse, for eksempel et BEC-angrep, via e-post eller i form av en deepfake. 

I det britiske stortingsvalget må allmennheten være årvåken når de vurderer om videoer og lydsnutter som legges ut på sosiale medieplattformer er ekte eller manipulert. Flere visuelle og auditive ledetråder kan bidra til å identifisere en dypfalsk. 

Visuelle ledetråder inkluderer: 

  • Unaturlige øyebevegelser (eller mangel på øyebevegelser)
  • Inkonsekvente ansiktsuttrykk
  • Usammenhengende eller rykende kroppsbevegelser
  • Tenner som ikke ser ekte ut eller fravær av konturer av individuelle tenner
  • Visuelle bilder som er uskarpe eller feiljusterte. 

Aurale ledetråder inkluderer:

  • Robotlydende lyder
  • Lydfeil 
  • Inkonsekvent lyd
  • Rare uttale av ord
  • Leppesynkroniseringsfeil med uoverensstemmelser mellom ord som blir sagt og leppebevegelser.

Bekjempe påvirkningen av syntetiske medier

Det vil være vanskelig å måle virkningen av AI-genererte deepfakes på stortingsvalget i Storbritannia. Med 43 % av britene som får nyhetene sine fra sosiale medier, vil mange velgere sannsynligvis ha sett en form for syntetiske medier knyttet til et politisk parti – enten de er klar over det eller ikke. 

Imidlertid identifiserer brukere på X jevnlig potensielle deepfakes og varsler andre brukere gjennom funksjonen for fellesskapsnotater. Selve X-plattformen har nå en manipulert mediepolicy som sier at "du ikke kan dele syntetiske, manipulerte eller utenfor kontekst media som kan lure eller forvirre folk og føre til skade". Kontoen som opprinnelig publiserte den Wes Streeting-manipulerte videoen er nå suspendert, men virkningen gjenstår å se.

Med deepfake-hendelser økende, bør bedrifter også vurdere hvordan deres sikkerhetsstilling kan forbedres. Å utvikle et robust ISMS i tråd med ISO 27001:2022-standarden hjelper organisasjoner med å styrke forsvaret mot cybertrusler, redusere risikoen for vellykkede angrep og sikre at ansatte er klar over deres informasjonssikkerhetsroller og -ansvar.