Egész társadalmakat destabilizálhatnak az álvideók – a világ nincs felkészülve a „deepfake”-re
A „deepfake” meggyőző ereje már egy nagyobb nagyságrendet jelent. Egy cikk esetében könnyű gyanút fogni, hogy azt valami hátsó szándékkal írták, vagy hogy megkérdőjelezzen egy másik cikkben leírt tényeket.
A „deepfake”-et már a fenti eljárás miatt is nagyon nehéz kiszűrni, és még nehezebb az embereket meggyőzni arról, hogy becsapták őket. Az emberek milliói, akik az internetről kapják a híreket, nem is tudják, hogy a „deepfake” létezik.
Ráadásul előállításuk egyre könnyebb és olcsóbb lesz, a technológia lehetőségei soha nem látott ütemben gyorsulnak, és eljön az idő, amikor az egyszerű felhasználók is képesek lesznek a maguk „hiteles” álvideóikat” elkészíteni.
Larry Alton úgy véli, hogy a közösségi médiában megosztott „deepfake”-ek hatása felmérhetetlen, mert még akkor is, ha a felhasználók tisztában vannak azzal, hogy hamisítványt látnak, akkor is ronthat szereplőjének megítélésén és ezek az oldalak nemigen tesznek e posztok ellen.
Ennek fájdalmas bizonyítéka volt a közelmúlt Nancy Pelosi esete: az amerikai képviselőház elnökasszonyáról a Facebookon olyan álvideó jelent meg, amelyen részegen mondta el beszédét, és a széles körű felháborodás ellenére hosszú ideig fenn maradt az oldalon. Monika Bickert, a Facebook globális tartalomigazgatóságának vezetője így reagált az esetre: „Úgy gondoljuk, fontos, hogy az emberek maguk döntsék el, minek higgyenek.”.
Ezek szerint sem a hamisítvány, sem a félrevezető információ nem sérti sem a Facebook, sem más nagyobb közösségi oldal szabályait.
Mit tehetünk azért, hogy felkészüljünk erre a fenyegetésre, vagy netán megszüntessük azt? Három fő területen kell akciótervet kidolgozni, hogy szembe tudjunk nézni a „deepfake” propaganda hullámaival.
Mindenekelőtt fel kell világosítanunk az embereket arról, hogy a „deepfake” létezik, és hogy legrealisztikusabb videókat is bizonyos kételyekkel fogadjanak. Aztán ki kell fejlesztenünk olyan technológiákat, amelyek kiszűrik az algoritmusok által generált videóanyagot – ez igen nagy akadálynak tűnik, ismerve a GAN működési elvét, de azért lehetséges. Harmadszor: követeljünk több figyelmet a közösségi oldalaktól, ahol a „deepfake” videók a legnagyobb hatást érhetik el.
Nem szabad elfogadni a „nem sérti működései elveinket” kifogást, amely nem más, mint e veszély tagadása. Több kontroll kell az ilyen tartalmakkal szemben, hogy mielőbb a helyükre tehessük őket – figyelmeztet Larry Alton.