BiHIzbori kakve ne poznajemo: Era deepfakea i novih obmana

Izbori kakve ne poznajemo: Era deepfakea i novih obmana

Izbori su temelj demokratije, trenutak kad građani odlučuju o budućnosti svoje države, ali niz je novih izazova koji prijete i narušavaju integritetu tog procesa. Napredak tehologije je donio mnogo prednosti, ali i brojne mogućnosti zloupotrebe te tehnologije u svrhu dezinformisanja i manipulacije javnim mnijenjem. Jedna od posljednjih prijetnji je AI tehnologija koja omogućava stvaranje izuzetno uvjerljivih lažnih sadržaja, videozapisa, fotografija, poznatih kao deepfake.

Deepfake predstavlja ozbiljan izazov za političke kampanje, gdje vjerodostojnost informacija igra jednu od ključnih uloga. Danas kada se vijesti šire veoma brzo putem društvenih mreža, postalo je lakše nego ikada stvoriti lažnu stvarnost koja može imati ozbiljne posljednice na izborni proces. Lažni videozapisi i audio zapisi mogu diskreditirati političke kandidate, širiti neistinite informacije i stvoriti nepovjerenje među biračima.

„Zloupotrebe umjetne inteligencije u izborima su se već počele pojavljivati u većim zemljama poput SAD-a, Indije, Slovačke… I za očekivati je da će se primjeri zloupotrebe umjetne inteligencije pojaviti i u BiH u određenom trenutku. Za sada, u BiH, poznati su slučajevi korištenja umjetne inteligencije za kreiranje satiričnog sadržaja, ali ne i za uticaj na biračko tijelo”, rekao je za naš portal Hasan Kamenjaković, Koordinator za odnose sa javnostima i medijima/PR iz koalicije Pod lupom.

Kaže da se za kreiranje lažne slike masovne podrške, diskreditaciju političkog oponenta i širenje dezinformacija općenito, politički subjekti u BiH uglavnom oslanjaju, za sada, na botove na društvenim mrežama kao i na dezinfromacije koje šire lideri i izabrani predstavnici, odnosno na one narative koji često prelaze u govor mržnje.

“Radi se o slučajevima koji kreiraju lažnu sliku realnosti što potencijalno utiče na biračko tijelo. U oba slučaja je jako zabrinjavajuće što građani-birači nemaju alate da prepoznaju lažne sadržaje u online svijetu i što ih i neće moći prepoznati zbog ubrzanog razvoja i usavršavanja novih tehnologija. Zbog toga je vrlo važno da se na vrijeme uspostave regulatorne mjere koje će regulisati zloupotrebe umjetne inteligencije ali i da se pokrene više inicijativa za medijsku pismenost kako bi građani-birači imali alate da se odupru lažnim sadržajima u izbornom kontekstu“, govori Kamenjaković.

Deepfake tehnologija koristi umjetnu inteligenciju i mašinsko učenje za kreiranje lažnih videozapisa koji izgledaju autentično. Nažalost ovi videozapisi mogu prikazivati ljude kako govore ili rade stvari koje nikad nisu rekli ili uradili, kombinacija naprednih algoritama i velike količine podataka omogućava stvaranje izuzetno uvjerljivih videozapisa koji mogu zavarati čak i ljude koji znaju puno o ovakvim tehnologijama.

Osim videozapisa, AI može generisati i lažne vijesti, fotografije i audio zapise koji se mogu širiti putem društvenih mreža. Ove dezinformacije i manipulacije mogu polarizirati javnost, smanjiti još više povjerenje u medije i institucije, a na samom kraju utjecati na birače i njihove odluke na biralištima.

Imamo primjere raznih lažnih fotografija stvorenih alatima umjetne inteligencije (AI) koje prikazuju Donalda Trumpa, a koje su se pojavile na društvenim mrežama u martu 2023. godine. Mnoge fotografije su prikazivale lažno uhićenje bivšeg predsjednika, Trump je također podijelio AI-generiranu fotografiju na vlastitoj društvenoj mreži koja ga je prikazivala kako kleči u molitvi.

Svima dobro poznati primjeri deepfakea Baracka Obame, umjetna inteligencija je korištena kako bi se precizno modeliralo kako gospodin Obama pomiče usta dok govori, a ova tehnika je omogućila da stavite bilo koje riječi u usta sintetičkog Baracka Obame.

“Ranije smo govorili da ukoliko nešto vidimo svojim očima tome možemo i vjerovati, ali sada sa deepfake video sadržajima vidimo da zapravo ta maksima ne vrijedi. Mogućnosti visokosofisticirane proizvodnje sadržaja koji su lažni a veoma ih je teško razlikovati od istinitih su ogromne i bit će sve veće”, govori Lejla Turčilo, profesorica na Fakultetu političkih nauka u Sarajevu. Napominje da su građani i ranije bili veoma malo kritički nastrojeni prema online sadržajima, tako da je ova forma manipulacije samo “naslonjena” na ranije korisničke navike koje nisu bile odveć zasnovane na kritičkom promišljanju.

“Dodatni problem je što se ovakvi sadržaji nerijetko dijele po zatvorenim grupama istomišljenika gdje upravo postojanje tih eho komora podržava i prihvatanje i širenje deepfake u manipulativne svrhe. I još nešto, što uopće nije nebitno, naši politički subjekti, barem značajan dio njih, imaju općenito nizak nivo političke kulture i etičnosti, što nam daje razloga da vjerujemo da će deepfake biti široko korišten u kampanji, prije svega za diskreditaciju oponenata, za šta su do sada uglavnom bili zaduženi botovi i trolovi“, navodi Turčilo.

Dok nam deepfake i druge prevare generisane umjetnom inteligencijom predstavljaju sve ozbiljniju prijetnju demokratskim procesima u isto vrijeme postoje alati koji se mogu koristiti za borbu protiv njih. Tehnološka riješenja koja su navedena, novi zakoni i edukacija društva mogu biti ključni koraci za zaštitu integriteta izbora. Konstruktivni pristup, kao i saradnja sa različitim akterima može osigurati da umjetna inteligencija radi u korist čovječanstva, a ne protiv njega.

U Bosni i Hercegovini, međutim, ne postoji regulativa koja tretira pitanje upotrebe umjetne inteligencije, i Izborni zakon ne uključuje ovu oblast. U Evropskoj uniji je usvojen Akt o umjetnoj inteligenciji.

“Ovaj akt, između ostalog, predviđa pravila o kvalitetu podataka, transparentnosti, ljudskom nadzoru itd. U smislu korištenja AI alata kao što je deepfake, ovaj akt postavlja određene uslove u vezi transparentnosti i predviđa jasno označavanje sadržaja kao takvog. Ove godine su izbori u EU pa će se moći vidjeti na koji način će teći primjena u zemljama EU. BiH kao zemlja kandidat svakako će biti u obavezi da preuzme evropsko zakonodavstvo u naš nacionalni okvir i po ovom pitanju”, navode iz RAK-a.

Napominju da su u međuvremenu podizanje svijesti o opsegu posljedica korištenja alata umjetne inteligencije, prepoznavanja deepfake materijala, provjere autentičnosti informacija od iznimne važnosti u današnjem digitalnom okruženju.

Unatoč brojim prijetnjama koje donosi pojava umjetne inteligencije, važno je naglasiti i pozitivne primjere i rješenja, a i pokazati da tehnološke inovacije pored manipulacija mogu biti korištene i na suprotan način, odnosno za zaštitu integriteta iz izbora, ali samo ako se pravilno primijene.

Pomoću umjetne inteligencije možemo dobiti napredne alate za provjeru činjenica za brzo razotkrivanje lažnih informacija, kao i saradnju sa političkim akterima da zajedno stvore sigurnosni protokol koji sriječava širenje lažnih informacija putem platformi društvenih mreža. Svjetski stručnjaci za AI i cayber sigurnost razvijaju sve bolje alate za detekciju deepfakea i drugih oblika manipulacije potpomognute umjetnom inteligencijom. Ovi alati se oslanjaju na iste tehnologije koje se koriste i za kreiranje manipulativnih sadržaja kako bi ih identificirali.

Jedan od najvažnijih korak u borbi protiv digitalnog nasilja jeste edukacija javnosti. Građani trebaju biti svjesni postojanja i upotrebe ovih tehnologija i biti spremni kritički analizirati informacije koje primaju različitim kanalima. Edukacija u ovom trenutku može igrati ključnu ulogu u izgradnji otpornosti zajednice na dezinformacije.

Članak nastao nakon treninga Mediacentra Sarajevo o konstruktivnom i eksplanatornom izvještavanju o izborima.

Visoko.co.ba/Ajla Čaušević


Ako želite preuzeti tekst ili dio teksta čiji je autor Visoko.co.ba, dužni ste navesti naš portal kao izvor autorskog teksta! Isto se odnosi i na fotografije i video materijale čiji je autor portal Visoko.co.ba ili materijale koji su dati portalu na korištenje.

Član 14. Kodeksa za štampu i online medije BiH: Značajna upotreba ili reprodukcija materijala zaštićenog autorskim pravima zahtijeva izričitu dozvolu nositelja prava, osim ako dozvola nije navedena u samom materijalu.

NAJNOVIJE