Deepfake - lažne novice prihodnosti

25. 1. 2021, 09:58 | Ozadja | Piše: Jaka Tomc

                            Deepfake - lažne novice prihodnosti (foto: Shutterstock) Shutterstock

Morda se spomnite posnetka, ki je pred dobrim letom zaokrožil po družbenih omrežjih. V njem Jim Carey fantastično, pravzaprav popolno odigra vlogo Jacka Nicholsona v filmu The Shining (Izžarevanje). A vendar ni šlo le za dobro igro sicer odličnega posnemovalca. Dejansko je šlo za prevaro, imenovano deepfake. 

Deepfake je skupno ime za tehnologijo manipuliranja fotografij ter video in avdio posnetkov, na katerih nastopajo ljudje. To seveda ni nič novega, a v tem primeru gre za uporabo umetne inteligence in naprednega računalniškega učenja. Posledično dobimo rezultate, ki so osupljivi in jih težko prepoznamo kot ponaredke oziroma lažne novice.

Ime deepfake se je prvič pojavilo konec leta 2017, ko je na Redditu uporabnik z vzdevkom deepfakes objavil nekaj posnetkov, na katerih je obraze znanih igralk ‘prilepil’ na telesa igralk v pornografskih filmih. Januarja 2018 se je pojavila aplikacija FakeApp, ki je uporabnikom omogočila, da so obraze drugih ljudi v videih zamenjali s svojim obrazom. Od takrat je nastalo več odprtokodnih aplikacij, med katerimi sta verjetno najbolj znani Reface in kitajski Zao.

V zadnjih letih se je pojavilo kar nekaj deepfakeov s politiki v glavnih vlogah. Tovrstni posnetki so lahko izjemno nevarni, sploh če jih gledamo v luči nedavnega napada na ameriški Kapitol. V enem od zadnjih odmevnejših posnetkov so na britanskem Channel 4 v svojem tradicionalnem alternativnem božičnem sporočilu upodobili kraljico. Ta je govorila o osebnih zadevah in celo zaplesala. Programski direktor televizije Ian Katz je kasneje v izjavi dejal, “da je deepfake tehnologija strašljiva nova meja v bitki med resnico in dezinformacijami,” lažno sporočilo pa “močan opomnik, da ne moremo več zaupati lastnim očem.”

Kako lahko odkrijemo deepfake? Z eno besedo - težko.

Po pisanju Business Insiderja vendarle obstaja nekaj pokazateljev, da gre za zmanipuliran posnetek. Na slabo narejenih deepfakeih oseba ne mežika ali pa mežika prepogosto ali nenaravno. Lahko se pojavijo anomalije na koži ali laseh ali pa so obrazi bolj zamegljeni kot bi morali biti glede na telo ali ozadje. Še en pokazatelj je osvetlitev. Nov obraz je lahko osvetljen drugače kot originalen. Včasih pa je težava v zvoku, ki je lahko površno obdelan. A treba je vedeti, da skupaj z napredkom tehnologije za odkrivanje deepfakeov napreduje tudi tehnologija za izdelavo le-teh. Pravzaprav gre za začaran krog.

Ni pa vse slabo. Tehnologijo, ki stoji za deepfakei se da uporabiti tudi drugače. Japonska družba DataGrid, ki se ukvarja z umetno inteligenco, je odkrila način, s katerim lahko iz nič ustvarijo celega (seveda digitalnega) človeka. Pravijo, da bodo tehnologijo uporabljali v modi. Microsoft pa je razvil aplikacijo Seeing AI, ki uporablja umetno inteligenco in deepfake tehnologijo za interpretacijo sveta, ki nas obkroža. Aplikacija je v prvi vrsti namenjena slepim in slabovidnim. Med drugim lahko prebere razne tekste, prepozna ljudi in njihovo obrazno mimiko in opiše okolico.

Deepfakei bodo v prihodnjih letih skoraj gotovo postali nadgradnja lažnih novic. Odkrivanje bo vedno težje in verjetno bodo tudi tisti, ki ne verjamejo vsemu kar vidijo, slišijo ali preberejo v medijih, sem pa tja podlegli. Lahko le upamo, da bo zlonamernih posnetkov, ki bi lahko imeli resne posledice, čim manj in da se bo tehnologija uporabljala pretežno za izboljšanje naših življenj in razvedrilo.