ZanimljivostiNauka i tehnologijaSvijet u strahu od deepfakea: Raste pokret čiji cilj je narušiti informacijsku...

Svijet u strahu od deepfakea: Raste pokret čiji cilj je narušiti informacijsku sferu

Ona je rekla da su deepfakes potencijalno sljedeća generacija dezinformacija.

Političari u Kaliforniji toliko su zabrinuti zbog rizika od deepfakea uoči izbora 2020. da su u oktobru 2019. godine usvojili zakon kojim zabranjuju distribuciju “materijalno obmanjujućih audio ili vizualnih medija” u roku od 60 dana prije izbora, piše Wired.

Međutim, političko uplitanje kroz deepfakes još se nije dogodilo. Većina deepfakeova je foksuiranja na pornografsku industriju, bez pristanka ljudi u videozapisima. To ne znači da nema drugih potencijalno malicioznih primjena, uključujući lažiranje kriminalnih dokaza, prevara ili ucjena. Druga mogućnost, da se proglašavaju deepfakeom sadržaji koji jesu istinite je još jedna stvar koja izaziva zabrinutost.

Iako kalifornijski zakon protiv upotrebe deepfakea ima više nedostataka, jedan od njih postavlja važno pitanje: ko je odgovoran za dokazivanje da su audio ili video snimci lažni?

Istraživači širom svijeta rade na izradi alata koji će im pomoći da se to postigne, pri čemu će se jedna vrsta umjetne inteligencije boriti protiv druge vrste umjetne inteligencije. Poenta deepfakea je da su dovoljno ubjedljivi da bi zavarali ljudsku publiku. Kako tehnologija za stvaranje deepfakea postaje sve učinkovitija i sve lakše dostupna osobama s lošim namjerama, stvaranje jednako moćne tehnologije za otkrivanje i analizu deepfakea postat će ključno borbeno polje istine.

“Zvučni i vizualni deepfake koji se dobro urade su teški za otkriti – rekao je Ragavan Thurairatnam. Thurairatnam je suosnivač i čelnik za mašinsko učenje za Dessu, start-up kompaniju koja je izgradila alat za lažiranje Joe Roganovog glasa za demonstriranje sposobnosti audio deepfaka. Kompanija trenutno radi na razvoju umjetne inteligencije za otkrivanje zvučnih deepfakea.

“Ako probamo tradicionalni softverski zasnovan pristup, bilo bi vrlo teško smisliti način da se detektuju deepfakeovi. Deepfake tehnologija će se stalno mijenjati i tradicionalni softver moraće se svaki put ručno prepisivati. Umjetna inteligencija, s druge strane, može sama naučiti da otkriva deepfake sve dok ima dovoljno podataka. Osim toga, može se prilagoditi novim tehnikama deepfakea u isto vrijeme dok se one pojavljuju čak i kada ljudskim očima bude teško da je otkriju – objašnjava Thurairatnam.

Međutim, modeli za mašinsko učenje za obuku zahtijevaju mnogo podataka. Nedostatak podataka o obuci bila je značajna prepreka istraživačima koji pokušavaju da naprave efikasne sisteme za otkrivanje deepfakea. Nedavni izvještaj Deeptracea, osnovanog u Amsterdamu, čiji je cilj suzbijanje deepfakea, identificirao je 14.678 deepfake videozapisa putem interneta, od kojih su većina pornografija. Iako je stopa porasta broja identificiranih videozapisa gotovo udvostručena u odnosu na prethodni izvještaj u decembru 2018., nejasno je da li je to možda zbog boljeg otkrivanja Deeptracea, u apsolutnom smislu to je još uvijek relativno mali broj koji bi algoritmi umjetne inteligencije mogli koristiti za dalje učenje.

To je strukturna prednost na strani onih koji proizvode deepfakea. Dok dobri dečki trebaju ogroman broj deepfakeova kako bi pronašli obrasce, falsifikatori će možda trebati samo jedan video da postave na pravo mjesto u pravo vrijeme kako bi postigli svoj cilj.

Iako je broj deepfakea prilično mali, prijetnja se shvata ozbiljno. Da bi pomogli u rješavanju problema nedostatka podataka za mašinsko učenje, Facebook, Google, Amazon Web Services i Microsoft nedavno su se okupili da bi najavili Deepfake Detection Challenge (Izazov otkrivanja deepfakea).

Izazov, koji bi trebao početi sljedećeg mjeseca, predstavit će posebno kreirani skup deepfakea napravljenih uz pomoć plaćenih glumaca, a koji će se koristiti kao podaci za obuku za svoje algoritamske modele. Razvijanje efikasnih sistema za otkrivanje deepfakea očito je stvar općeg dobra, ali nije u potpunosti čin altruizma tehnoloških divova, koji će vjerojatno biti na prvim linijama provođenja zakona poput kalifornijskog zakona o zabrani deepfakea i stoga imaju snažan poticaj za pronaći praktične mehanizme otkrivanja.

Visoko.co.ba/klix.ba

Ako želite preuzeti tekst ili dio teksta čiji je autor Visoko.co.ba, dužni ste navesti naš portal kao izvor autorskog teksta! Isto se odnosi i na fotografije i video materijale čiji je autor portal Visoko.co.ba ili materijale koji su dati portalu na korištenje.

Član 14. Kodeksa za štampu i online medije BiH: Značajna upotreba ili reprodukcija materijala zaštićenog autorskim pravima zahtijeva izričitu dozvolu nositelja prava, osim ako dozvola nije navedena u samom materijalu.

NAJNOVIJE