Tre grep for å beskytte seg mot AI-deepfakes

Å navigere i denne nye, AI-drevne verdenen kan føles som å vandre i et minefelt. Men med den rette kombinasjonen av teknologi, opplæring, og litt sunn fornuft, kan vi alle sove litt lettere om natten. Her er tre grep din virksomhet bør følge for økt cybersikkerhet.

Dobbeltgjengerens stemme: Når AI blir digitale bedragere

Regnet pisket mot vindusruten på kontoret til Jonas Nordmann hvor han satt og jobbet sent for å få ferdig regnskapet. Plutselig hører han telefonen ringe. Stemmen i den andre enden var kjent, han hadde jobbet for Markus i flere år. "Hei Jonas, vi har en liten krise her med en betaling til en underleverandør som aldri ble utført. Jeg trenger at du overfører 2 millioner kroner til kontoen jeg nettopp har sendt deg informasjon om på mail. Det haster." Markus hørte oppspilt ut, Jonas skjønte at dette var viktig på toneleiet hans.

Uten å nøle, begynte han å legge inn detaljene for overføringen. Men i det han trykket på "send", slo tvilen ham hardt i brystet. Noe var galt. Det var en noe som ikke helt stemte i tonen, noe som han ikke helt kunne settefingeren på.

Med en plutselig følelse av panikk ringte han direktenummeret til Markus, CEO i selskapet. Etter flere anrop, svarte Markus endelig. "Hallo, Jonas. Hva kan jeg hjelpe deg med?" sa Markus med sin vanlige stemme.

Jonas visste øyeblikkelig at han hadde blitt lurt. Han hadde blitt offer for en av de mest skremmende truslene generativ AI-teknologi kunne by på; Stemmekloning.

En reell trussel

Dette scenarioet høres kanskje ut som science fiction, men det er en reell trussel som virksomheter står overfor i dagens digitale landskap. Flere selskaper har allerede blitt lurt, for eksempel ble en direktør i et japansk selskap lurt til å overføre $35m til svindlere i et nesten likt scenario, og et Britisk energi-selskap ble svindlet for €220k

Fenomenet som kalles Deepfakes er ikke nytt, det har vært kjent i flere år at man kan bruke AI til å lage falske etterligninger av kjente mennesker hvor det finnes mye video eller lyddata tilgjengelig som kan brukes til å trene en AI-klone. Frem til nå har dette vært forholdsvis dyrt og teknisk vanskelig å trene en Deepfake AI, hvilket gjør at det ikke har vært et utbredt trussel-scenario.

Med de siste årenes fremskritt innenfor Generativ AI-teknologi så er dette i ferd med å endre seg. Selv om applikasjoner som chatGPT for tekst-generering og Midjourney for bilde-generering har ført til flest avisoverskrifter, har selskaper som ElevenLabs og Synthesys lagd AI-modeller som har nådd et punkt hvor de kan analysere og etterligne menneskers stemmer med en forbløffende grad av nøyaktighet, med veldig lite treningsdata.

Elevenlabs markedsfører seg med at de trenger så lite som 5 sekunder langt lydklipp for å lage en troverdig klone av en stemme. Selv om dette er en sannhet med modifikasjoner, så er realiteten vi står overfor at det ikke trengsstore mengder lydklipp tilgjengelig av en person til å lage en kopi som kan etterligne stemmer med høy nøyaktighet, til og med tonefall og intonasjon.

I eksempelet over hadde kanskje vår CEO, Markus, stått på scenen under en konferanse som har blitt lagt ut video fra på nettet. Svindleren trenger da bare å fore lydfilen inn i et AI-program, og vipps har de alt de trenger. AI-modellen har nemlig blitt lært opp på en måte slik at den forstår hvordan ulike språk henger sammen, og den trenger bare litt ekstra finjustering til for å legge en personlighet til å uttrykke alt det den har lært.

Denne teknologien har også potensial til å drive innovasjon og skape positive endringer. AI-drevne oversettelsesprogrammer kan for eksempel oversette fra et språk til et annet så raskt at det virker simultant, slik at det høres ut som taleren snakker et helt annet språk enn de faktisk gjør. Men det åpner også for nye, komplekse trusler.

1. Forstå de grunnleggende mekanismene

Så, hva kan vi gjøre for å unngå å bli lurt? Først og fremst, vi trenger å slutte å behandle AI-teknologi som en slags magisk svart boks. Vi må forstå de grunnleggende mekanismene. Har du noen gang lagt merke til at mange av oss dobbeltsjekker dørlåsen før vi går ut, men tenker ikke to ganger om å sende penger på en enkel telefonordre fra sjefen? Fremtiden krever kanskje at vi er flinkere til å sette spørsmålstegn ved autoritet, og ja, det inkluderer Markus eller hvem nå enn som er din toppsjef.

2. Få på plass tofaktorautentisering 

Noen andre gode vaner? Vel, hva med å kreve en slags tofaktorgodkjenning for overføringer som virker hastende eller store? Det er som et digital håndtrykk, en bekreftelse på at du faktisk er deg.

Og ikke undervurder kraften i god gammeldags menneskelig intuisjon. Hvis noe føles feil, er det sannsynligvis det. Det er der opplæring kommer inn. Sørge for at teamet ditt forstår mulighetsrommet ny teknologi bringer og hva de står overfor, slik at de vet hva de skal se etter og hvilke protokoller de skal følge når alarmklokkene ringer.

3. Utnytt teknologien som genererer deepfakes til å detektere deepfakes.

La oss heller ikke glemme at teknologien kan være vår venn i dette. Det jobbes å utvikle systemer, ofte basert på samme generative AI teknologi, som er utviklet for å detektere syntetiske stemmekloner. Et eksempel er et firma kalt Mobbeel, som har utviket det de kaller Voice Biometrics (stemme biometri) som kan sammenligne om en stemme på telefonen matcher med en ekte stemme som registrert i deres systemer, på samme måte som et fingeravtrykk. Hvis Markus ringer deg for å overføre et par millioner, kanskje det ikke ville skade å ha en app som kan bekrefte at det faktisk er ham?

Oppsummert

Å navigere i denne nye, AI-drevne verdenen kan føles som å vandre i et minefelt. Men med den rette kombinasjonen av teknologi, opplæring, og litt sunn fornuft, kan vi alle sove litt lettere om natten.Så, neste gang telefonen ringer og noen haster deg til å trykke på "send", ta et øyeblikk. Den lille pausen kan redde deg fra en fremtidig krise.