JÖVŐ
A Rovatból

Tényleg úgy néz ki, mint Elon Musk – így dőlnek be sokan az AI-val készült, hamis videóknak

„Deepfake Elon Musk” sokak egész nyugdíját elvitte. Ő az új nigériai herceg, csak ő sokkal hatásosabban foszt ki gyanútlan embereket, akik bedőlnek a mesterséges intelligenciával generált videókban kínált befektetési lehetőségeknek.


Az online világ mindig is tele volt veszélyekkel, a digitális bűnözés pedig egyidős a világhálóval. Bár mostanra nevetségesen átlátszónak tűnik a kamu nigériai herceg e-mailje, amiben sokszoros kamatra kért kölcsön random emberektől, az adott korszak technológiai lehetőségeihez képest igenis hatásos csalás volt.

A gyanútlan emberek kifosztási lehetőségeit aztán tovább bővítették a közösségi média platformok. Az ipari méretűvé dagadt dezinformálás miatt ma már szinte romantikusnak tűnik az amerikai katonatiszt története, aki a személyes találkozással kecsegtetve vallott szerelmet magányos nők százezreinek, csak fizessék ki végre a repülőjegy árát. Napjainkban ezeknél sokkal kifinomultabb módszerekkel kell szembenézni:

az elképesztő tempóban fejlődő generatív mesterséges intelligencia technológiák hiteles emberekre megszólalásig hasonlító digitális klónokat szülnek.

A csalás pedig automatizálható: már nem kellenek a fiktív karakterek mögé emberek, akik csevegve csalják lépre az áldozatokat. Elég egy meggyőző kamu videó, amire a benne szereplő ismert személy miatt az egész világon tömegek figyelnek fel, és egy online ügyintéző felület, a pénz utalására.

Az AI-alapú deepfake technológia lehetővé tette, hogy manipulált videók ezrei terjedjenek el. Sok gyanútlan befektető rajta is vesztett olyan hamis befektetési lehetőségeken, amilyeneket a világ leggazdagabb embereként ismert Elon Musk – pontosabban annak AI-val generált digitális mása ajánlott.

Érdekes iróniája ez a sorsnak, hiszen a Tesla és a SpaceX mellett a Twitter-utód X-et is birtokló milliárdos nemrég maga is megosztott egy AI-val generált videót, amelyben az általa támogatott Donald Trump ellenfele, Kamala Harris szájába adtak vállalhatatlan mondatokat.

Deepfake Elon Musk az egész nyugdíját elvitte

A New York Times különösen szemléletesnek tartotta, ezért a riportjában ki is emelte (a sok közül) a 82 éves Steve Beauchamp történetét.

A nyugdíjas mindössze a családját akarta támogatni egy jó befektetéssel, amikor „kapóra jött neki” Elon Musk forradalmi befektetési lehetőséget és gyors hozamokat ígérő videója. Az idős férfi elhitte, hogy az igazi dollármilliárdosról van szó, így számlát nyitott a videót megosztó kamu cégnél, először csak 248 dollárral (kb. 90 ezer forinttal). Néhány hét alatt aztán több tranzakciót is végrehajtott, míg végül csaknem 690.000 dollárt (közel 248 millió forintot) fektetett be – az egész nyugdíjszámlájának kiürítése árán. Végül a pénz persze eltűnt, nyoma sem maradt.

„Lehet, hogy mesterséges intelligenciával csinálták, hogy azt mondja, amit mondott, de a kinézete – ha azt kérték volna, hogy mutassak rá egy sorban, biztosan őt választom"

– nyilatkozta a lapnak Beauchamp, egyértelművé téve, hogy a videón látott személy az ő számára a megtévesztésig hasonlított Elon Muskra.

Az áldozat az ehhez hasonló tartalmakat magából egyenesen okádó Facebookon látta a videót, és nem esett le neki, hogy amit néz, az valójában deepfake, vagyis AI-val manipulált hamisítvány. A kiberbűnözők egyébként egy valódi Musk-interjút használtak fel, átszerkesztették annak hangját egy AI-eszközzel, és még a szájmozgásokat is tökéletesen szinkronizálták az új forgatókönyvvel.

Az efféle hamisítványok olyan tökéletesek, hogy egy átlagos néző számára szinte észrevehetetlenek. Hogy ez mennyire igaz, azt az alábbi videó remekül szemlélteti.

Deepfake Elon Musk példa

Ahogy az osztott kijelző jobb oldalán látható kamu Musk (pontosabban a demonstrációs célú videót készítő etikus alkotó) mondja, „ez egy deepfake példa arra, hogy mire képes egy jó számítógép és szerkesztőprogram”. Hozzáteszi: az elkészítése egy erős grafikus processzor használatával 72 órát vett igénybe, de „további számítási kapacitással még jobb eredményt lehetne elérni”, miközben az emberek 90 százalékban már ezt sem tudják megkülönböztetni az eredetitől.

Vadul terjed a deepfake-csalás

Az utóbbi hónapokban több ezer olyan AI-vezérelt deepfake videó került fel az internetre, amelyek hamis Elon Muskokat használtak potenciális befektetők megtévesztésére – meglehetősen sikeresen. A New York Times elemzésekre hivatkozva úgy becsüli, hogy az ilyen generált videók évente több milliárd dollárt húznak ki az emberek zsebéből. Mindeközben ezeket a tartalmakat fillérekből elő lehet állítani, és ha megfelelően erős hardver áll rendelkezésre, akár percek alatt elkészülhetnek.

A videókat jellemzően a hamisítványok kiszűrésében továbbra is dilettánsnak tűnő közösségi médiában, például a Facebookon terjesztik, ráadásul gyakran fizetett hirdetésként, ami azt jelenti, hogy

a platform többszöri szűrés után sem képes megállapítani, hogy kamuról van szó, vagy rosszabb: fizetés ellenében hidegen hagyja, hogy rosszindulatú tartalom terjesztéséhez járul hozzá.

Francesco Cavalli, a deepfake-eket figyelő és elemző Sensity társalapítója szerint az Elon Musk arcát és hangját felhasználó videó „valószínűleg a legnagyobb deepfake által vezérelt csalás”, amit valaha látott a világ. A technológia révén ezek a videók gyakran szinte hátborzongatóan élethűek, mint az, aminek a fent írt nyugdíjas is bedőlt, hiszen gyakorlatilag hibátlanul hozta Musk jellegzetes akcentusát és beszédstílusát. A világ leggazdagabb emberei közé tartozó milliárdos amúgy a leggyakrabban használt mintája a deepfake csalásoknak, különösen a kriptovalutákra összpontosító kampányokban.

Hogyan készül a deepfake?

Mivel a generatív AI fejlődése gyors és megállíthatatlan, muszáj felkészülni rá, hogy gyakorlatilag bárkivel bármit ki lehet mondatni, ha a cél emberek meggyőzése – vagy a pénzük átadásáról, vagy a politikai, vallási, társadalmi értékrendjük megváltoztatásáról. Óriási árnyoldala ez egy olyan technológiának, ami a civilizáció fejlődését pozitív irányba is lökdöshetné – ahelyett, hogy megfelelő fékek és kontrollok nélkül mindenki játékszerévé teszik, ahogy anno a közösségi médiát (és látjuk, mi lett belőle).

A deepfake-ek gyártása meglepően egyszerű és olcsó folyamat, következésképp tömegek számára hozzáférhető. Az AI hangmásoló eszközeivel bármilyen híresség hangját klónozni lehet. Ezzel addig nincs is gond, amíg az veszélytelen szórakozási céllal történik. Itt éppen Orbán Viktor énekli meg Gyurcsány Ferenc választási győzelmét:

Az AI-val manipulált hang birtokában szájmozgásokat manipulálni képes videógeneráló alkalmazásra van szükség, és ha a szoftver kellően kifinomult, a számítógép grafikus teljesítménye pedig kellően magas, akkor megtévesztően hitelesnek tetsző tartalmak születhetnek.

Még élethűbb hamis tartalmak, még kiszolgáltatottabb felhasználók

A generatív AI-val készült tartalmakkal elsősorban technológiai háttérismeretekkel kevésbé rendelkező, és a hírekkel kapcsolatban nem elég kritikus embereket lehet megtéveszteni. Jól példázza ezt a fent írt Kamala Harris videó, amiben az amerikai elnökjelölt az őt támogató Joe Bident szenilisnek, magát pedig az ország vezetésére alkalmatlannak nevezi, aki csak azért lett demokrata elnökjelölt, mert színesbőrű nőként diverzitási aduásznak számít.

A híreket hiteles forrásból követők számára egyértelmű, hogy Harris – nyilvánosan legalábbis – biztosan nem mondana ilyesmit, tehát kamu videóról van szó.

Musk megosztását követően viszont 150 millióan látták

írja az NBC News, és jócskán akadhattak köztük olyanok, akiknek a politikai véleményét befolyásolta a tartalom, főleg úgy, hogy egy sokak szemében hiteles közszereplő tette közzé, ráadásul olyan, aki politikailag szembe helyezi magát Harris-szel.

Amikor nem dezinformálás, hanem közvetlen lopás a cél, hasonló dolog történik: arra ugyan hiteles személyt nem lehet felkérni, hogy maga ossza meg az arca és hangja felhasználásával készült kamu tartalmat, ám a hitelesség látszatát elő lehet idézni – például úgy, hogy a befektetési tanácsot egy valódinak tűnő, online pénzügyi konferencia álcája alá rejtik. Az a tény, hogy a videón látszólag valós személy oszt meg igaznak tűnő állításokat, és mindez valóságosnak tűnő, nyilvános esemény keretei közé helyeződik, sokaknak már elég, hogy előkotorják a bankkártyát és fizessenek.

Beauchamp esetében viszont ennél is tovább mentek a csalók: nem elég, hogy az idős férfi elhitte azt, amit látott és fizetett, még újabb befektetési lehetőségekkel is kecsegtették – olyan hamis visszaigazolásokat küldve, amelyek a tőkéje növekedését mutatták. Akkor azonban, amikor ki akarta venni a pénzét, egy sor adminisztratív díjat és jutalékot kellett fizetnie, míg végül a teljes nyugdíjmegtakarítása odaveszett.

Fel kellene venni a kesztyűt a terjesztők ellen

Ahogy sok állam különbséget tesz a drogbirtoklás és a drogterjesztés között, érdemes lenne azokat fülön csípni, akik révén a kamu tartalmak eljutnak az emberekhez.

Ezzel próbálkozik mostanában egy ausztrál milliárdos, aki szintén deepfake videók áldozata lett – számolt be a The Guardian.

Andrew Forrest beperelte a Facebookot működtető Metát, amiért annak hirdetési rendszere „ártatlan felhasználókat vesz rá rossz befektetésekre”. A Meta erre azt nyilatkozta, hogy folyamatosan fejlesztik az AI-alapú automatikus észlelési rendszereiket, hogy kiszűrjék a csalókat, de szerintük véget nem érő harcról van szó:

a jól finanszírozott bűnözők folyamatosan változtatják a módszereiket, hogy elkerüljék a lebukást, de ennek az egésznek a levét valahogy mindig a felhasználók, a kisemberek isszák meg.

Ettől függetlenül valóban vannak próbálkozások: a YouTube például szintén igyekszik harcolni a manipulált videók és a csalások ellen. A NY Times szerint csak 2024 első negyedévében több mint 15,7 millió csatornát és 8,2 millió videót töröltek a közösségi irányelvek megsértése miatt. A YouTube emellett kötelezővé tette, hogy a tartalomkészítők jelöljék, ha AI-alapú technológiát használnak videóikban – kérdés, hogy ezt megteszik-e, és ha nem, azt a jövőben hogyan szándékoznak kiszűrni.

Van vége ennek az egésznek?

Lou Steinberg, a CTM Insights alapítója szerint „a szervezett bűnözés rájött, hogy pénzt tud csinálni az AI-ból, így egyre több és több kísérlet lesz”. Az AI-generált videók egyre jobbak, és a jövőben valószínűleg még hitelesebbé válnak. Az egyéni felhasználók számára a legfontosabb tanulság az, hogy mindig kritikusan, természetes kételkedéssel álljanak hozzá az online látott tartalmakhoz, különösen, ha pénzről vagy befektetésekről van szó! A valószínűtlenül magas hozamok például mindig gyanúsak, és ha egy ajánlat túl szép ahhoz, hogy igaz legyen, akkor valószínűleg nem is az.

Ami pedig a nem túl távoli jövő választási kampányait illeti, elég valószínű, hogy egymást érik majd a Kamala Harriséhez hasonló videók, amelyekkel az egyik politikai oldal igyekszik ellehetetleníteni a másikat – például az opponens vezéregyéniség hitelének rombolásával.

Egy szoros választási versenyben néhány száz szavazat eldöntheti választókörzetek sorsát, így a parlament összetételét is. Ami biztosan a demokrácia hanyatlásához vezet – csak az a kérdés, mikor? Nagy szükség lenne a deepfake tartalmak terjesztésének mihamarabbi szankcionálására, illetve arra, hogy a társadalom tudatosabb hírfogyasztóvá váljon. Mert ha minden úgy megy tovább, ahogy most, akkor óriási baj lesz.


Link másolása
KÖVESS MINKET:

Népszerű
Ajánljuk
Címlapról ajánljuk


JÖVŐ
A Rovatból
230 millió dollárt spóroltak az MI-vel: 20 nap alatt forgatták le Gal Gadot új filmjét a színészekkel, a többi munkát már a számítógép végzi
A Bitcoin: Killing Satoshi című filmet egy londoni stúdióban vették fel, helyszíni forgatás nélkül. A háttereket és a világítást teljes egészében mesterséges intelligencia hozza létre az utómunka során.


Mindössze 20 nap alatt, egy teljesen üres, „szürke doboz” stúdióban forgatták le Doug Liman új filmjét, a Bitcoin: Killing Satoshi-t, amelynek főszereplői Casey Affleck, Gal Gadot, Pete Davidson és Isla Fisher.

A produkció teljes egészében mesterséges intelligencia által generált hátterekkel készül, amivel a producerek szerint így egy normál esetben 300 millió dolláros költségvetést sikerült 70 millióra lefaragni.

A film egy összeesküvés-thriller, amely a Bitcoin rejtélyes alkotója, Satoshi Nakamoto kilétét kutatja. A cselekmény középpontjában egy újságíró áll, aki azt a vitatott állítást vizsgálja, hogy a valódi Satoshi egy Craig Wright nevű ausztrál üzletember, akit emiatt befolyásos szervezetek akarnak elhallgattatni.

A februári bejelentés - miszerint a filmben nemcsak a háttereket és a világítást hozzák létre mesterséges intelligenciával, de szükség esetén a színészek játékába is belenyúlhatnak - komoly vitát váltott ki a szakmában. A producerek ezért nemrég meghívták a TheWrap stábját a londoni forgatásra, hogy bemutassák a technológiát. Azt állítják, a színészi alakításokhoz nem nyúlnak hozzá, az MI csupán egy utómunka-eszköz, ami a környezetet teremti meg.

Casey Affleck szerint a módszerrel a hangsúly teljes egészében a színészi játékra helyeződött.

„Az egész forgatáson a mi alakításunk volt a fókuszban”

– nyilatkozta a színész.

Az alkotók szerint az eljárás a színházi munkához hasonlít, és jelentősen csökkenti a gyártás ökológiai lábnyomát, mivel nincs utazás és helyszíni építkezés.

Ryan Kavanaugh producer elmondta, a hagyományos forgatás több mint 200 különálló helyszínt igényelt volna. „Rájöttünk, hogy bizonyos MI-eszközökkel le tudjuk törni a költségeket” - közölte. A forgatás egy volt londoni autószalonból átalakított „gray box” stúdióban zajlott, a világítás és a díszlet MI‑vel készült, a színészek valódi jelmezeket viseltek, és az utómunka kb. 30 hét, 55 MI‑művész részvételével - derült ki a The Wrap cikkéből.

Az iparági vita azonban továbbra is éles. Míg a támogatók a költséghatékonyságot és az új kreatív lehetőségeket emelik ki, az ellenzők a filmes szakmák – díszlettervezők, helyszíni világosítók, logisztikai szakemberek – tömeges megszűnésétől tartanak.

A projektet még 2025 augusztusában jelentették be, a forgatás idén márciusban zárult. A rendező, Doug Liman olyan filmeket jegyez, mint A Bourne-rejtély vagy A holnap határa, a forgatókönyvet pedig Nick Schenk írta, aki Clint Eastwood Gran Torinóját és A csempészt is.

A film forgalmazási jogait a május 12. és 20. között zajló cannes-i filmpiacon, a Marché du Film-en értékesítik.

A film történetének pikantériáját adja, hogy a brit Legfelsőbb Bíróság 2024 márciusában kimondta: Dr. Craig Wright bizonyíthatóan nem Satoshi Nakamoto, és nem ő írta a Bitcoin alapító dokumentumát sem.

Via worldofreel.com


Link másolása
KÖVESS MINKET:

Ajánljuk
JÖVŐ
A Rovatból
ENSZ: Súlyosabb a baj, mint valaha, a Föld éghajlata kibillent az egyensúlyából, és jön az El Niño
Az óceánok soha nem látott mértékben melegszenek, a jégsapkák pedig olvadnak. Az ENSZ-főtitkár szerint azonnal le kell állni a fosszilis tüzelőanyagok használatával, miközben a politika más átmenetet gondol.


A Föld éghajlata minden eddiginél jobban kibillent az egyensúlyából, bolygónk ugyanis sokkal több hőenergiát nyel el, mint amennyit ki tud sugározni

– erre figyelmeztetett a Meteorológiai Világnapon (március 22.) az ENSZ meteorológiai szervezete, a Meteorológiai Világszervezet – írta a BBC. A káros folyamatot például az olyan melegítő gázok kibocsátása gyorsítja, mint a szén-dioxid.

A jelentésre reagálva António Guterres ENSZ-főtitkár egy videóüzenetben figyelmeztetett :

"A Föld bolygót a végsőkig feszítik. Minden kulcsfontosságú éghajlati mutató vörösen villog"

– mondta Guterres, aki szerint az országoknak át kellene térniük a fosszilis tüzelőanyagokról a megújuló energiára, hogy „klímabiztonságot, energiabiztonságot és nemzetbiztonságot” teremtsenek.

A rekordmértékű „energia-egyensúlytalanság” 2025-ben új csúcsra melegítette az óceánokat, és tovább olvasztotta bolygónk jégsapkáját. A légköri szén-dioxid-szint legalább kétmillió éve nem volt ilyen magas.

Celeste Saulo, a WMO főtitkára szerint a folyamatoknak beláthatatlan következményei lesznek:

"Az emberi tevékenységek egyre inkább felborítják a természetes egyensúlyt, és ezekkel a következményekkel évszázadokig, sőt évezredekig együtt kell élnünk"

– mondta a professzor.

A globális jelenségeknek már ma is kézzelfogható hatásai vannak. Az Egyesült Államok délnyugati részén jelenleg rekorddöntő, korai hőhullám tombol, az elmúlt napokban helyenként 40 Celsius-fok fölé emelkedett a hőmérséklet. A World Weather Attribution csoport tudósai pénteken végzett gyors elemzésükben arra jutottak, hogy mindez „gyakorlatilag lehetetlen” lett volna az ember okozta éghajlatváltozás nélkül.

A kutatók kiemelten figyelik a Csendes-óceánt is. A hosszú távú előrejelzések szerint ugyanis igen valószínű, hogy 2026 második felében kialakulhat egy melegedő El Niño-fázis. Ez a természetes melegedési jelenség a meglévő, az ember okozta hatásra ráerősítve újabb hőmérsékleti rekordokat hozhat.

Ha El Niño-ba váltunk, ismét növekedni fog a globális hőmérséklet, és akár új rekordokat is dönthet

– mondta Dr. John Kennedy a WMO-tól.

A tudományos vélemények mellett élénk politikai vita zajlik arról, milyen ütemben és módon kellene reagálni a helyzetre. Míg az ENSZ és a WMO a fosszilis energiahordozókról a megújulókra történő gyors átállást sürgeti, több nemzetközi szervezet és energiaszektor-szereplő az ellátásbiztonság és a megfizethetőség miatt a fokozatosabb átmenetet tartaná indokoltnak.

Az elmúlt 11 év volt a Föld 11 legmelegebb éve az 1850-ig visszanyúló adatok szerint. Tavaly a globális átlagos léghőmérséklet mintegy 1,43 Celsius-fokkal haladta meg az „iparosodás előtti” idők szintjét. A La Niña nevű természetes időjárási hatás átmeneti lehűtő hatása miatt 2025 nem volt olyan forró, mint 2024, amelyet az ellentétes fázis, az El Niño felerősített, de így is a három legmelegebb év egyike volt a feljegyzések kezdete óta. A Föld gleccserei - a rendelkezésre álló előzetes adatok szerint - 2024/25-ben az öt legrosszabb év egyikét élték meg, miközben a tengeri jég mindkét sarkvidéken tavaly nagy részében rekordközeli vagy rekordszinten alacsony volt. A Föld többletenergiájának több mint 90 százaléka az óceánokat melegíti, ami árt a tengeri élővilágnak, erősebb viharokat okoz és hozzájárul a tengerszint emelkedéséhez is.


Link másolása
KÖVESS MINKET:

Ajánljuk

JÖVŐ
A Rovatból
Hatalmas lépés a Balaton jövőjéért: 6300 hektáron mentik meg az egykori mocsárvilágot
A bővítés többek között Buzsák, Kéthely és Lengyeltóti külterületeit is érinti a Balaton-felvidéki Nemzeti Parkban. A beavatkozásoktól egy, a klímaváltozásnak jobban ellenálló táj kialakulását várják.


Friss miniszteri rendelet alapján több mint 6300 hektárnyi területet helyeznek országos védelem alá a Balaton déli partján, hogy újraéledhessen a Nagyberek egykori vizes élővilága.

A döntés célja, hogy a térségben megmaradt természeti értékeket hosszú távon megőrizzék, és lehetőség szerint visszaállítsák a táj eredeti vízháztartását.

A rendelet előkészítésének újabb lépéseként ma nyilvánosságra hozták a bővítés természetvédelmi kezelési tervének hivatalos tervezetét is.

A bővítés két fő részből áll: egyrészt mintegy 770 hektárnyi, részben már eddig is érintett terület kerül teljes egészében a Balaton-felvidéki Nemzeti Park kezelésébe, másrészt több mint 5500 hektár olyan földrészlet is védett státuszt kap, amely eddig nem állt országos oltalom alatt.

Az intézkedés többek között Balatonfenyves, Fonyód, Buzsák, Ordacsehi, Kéthely, Lengyeltóti és Táska külterületeit érinti.

A kijelölt területeken belül különböző természetvédelmi kategóriákat határoztak meg. Egy kisebb, mintegy 16 hektáros rész fokozottan védett besorolást kapott, ahol a legszigorúbb előírások érvényesek. A terület egy része emellett a Natura 2000 hálózathoz is kapcsolódik, ami európai szintű jelentőséget ad a térségnek.

A Balaton déli partján húzódó Nagyberek egykor nádasok, mocsarak, láprétek és nyílt vízfelületek mozaikja volt, de a vízrendezések és a mezőgazdasági hasznosítás miatt mára csak töredékei maradtak fenn.

A most védetté nyilvánított, alacsonyan fekvő, időszakosan vízjárta vidék kiválóan alkalmas a víz visszatartására, ami kulcsfontosságú a táj természetes működésének helyreállításában. A szakemberek szerint a Nagyberek jövője azon múlik, sikerül-e újra közelebb hozni az egykori természetes állapotokat. Ha a tervek megvalósulnak, nemcsak a biológiai sokféleség erősödhet, hanem egy, a klímaváltozás hatásainak jobban ellenálló táj is kialakulhat.

A természetvédelem 2025-ben új lendületet kapott, amikor 42 milliárdos fejlesztés kezdődött a nemzeti parkokban.

Via Sokszínűvidék


Link másolása
KÖVESS MINKET:

Ajánljuk

JÖVŐ
A Rovatból
Krasznay Csaba: az AI-vonaton most látszólag nincs fék, kérdőjelezzünk meg nagyjából mindent, amit a képernyőn látunk
A kiberbiztonsági szakértő az AIToday-nek elmagyarázta, hogy az AI hogyan gyorsítja a dezinformációt, aminek ugyanúgy van politikai, mint katonai szerepe. A választás idején a független sajtó adta az ellendózist, de szerinte a magyarok immunrendszere is jól működött.


Krasznay Csaba szerint az AI nem egyszerűen új dezinformációs eszköz, hanem olyan technológia is, amely a kognitív dimenzióban képes felülírni korábbi működési logikákat. Az AIToday.hu-nak adott interjúban felvázolta az orosz módszereket - amelyek száz éve ugyanolyanok, csak az eszköztár változik -, és felvázolta, hogy a NATO hogyan kutatja a jelenséget.

A kiberbiztonsági szakértő hangsúlyozta: az AI azért kiszámíthatatlan, mert nem emberi motivációk szerint működik, így a kimenetei sokszor nehezen érthetők, ami különösen veszélyes a közgondolkodásra is hatással lévő kognitív térben. Az AI-ügynökök sebessége miatt ráadásul nem lehet időben reagálni a terjedő tartalmakra.

A magyar választási kampány környékén látott jelenségekről szintén beszélt, és szóba került a társadalmi immunitás, az edukáció, a platformok felelőssége, valamint az Európai Unió szabályozási kísérlete és a technológia katonai szerepe. Utóbbi nagyon is valós, hiszen az AI már ma megjelenik a célmegjelölésben és az információk gyors feldolgozásában.

— Egy nemrég megosztott bejegyzése szerint a NATO egyik kutatása a kognitív hadviselés fogalmának újradefiniálására tesz kísérletet. Kikre bízta a NATO az információs műveletek kutatását, és pontosan milyen tevékenységeket vizsgáltak?

— Két különböző kutatást is olvastam arról, hogy mennyire különböző szakterületek foglalkoznak az AI-jal, illetve általában a kibertér kihívásaival. Az egyik kutatás a NATO kiberbiztonsággal foglalkozó kiválósági központjától érkezett. Azt kell tudni a NATO kiválósági központokról, hogy ezek ugyan a NATO fenntartásában és finanszírozásban működnek, de kutatóközpontok, tehát nem a NATO mint katonai szervezet véleményét tükrözik. Sokkal inkább egyfajta tudományos bázist szolgáltatnak ahhoz, hogy a tagországok ezek alapján olyan jogi aktusokat, lépéseket, stratégiákat dolgozzanak ki, amelyekből később építkezni tudnak. Ami pedig a konkrét tanulmányt illeti: ukrán tudományos kutatók publikációjáról van szó, akiket masszívan érint a kognitív hadviselés, hiszen az orosz doktrínában régóta benne van, hogy a háborúkat nem feltétlenül és nem kizárólag a csatatéren kell megnyerni, hanem a fejekben is. A kutatás érdekessége, hogy nemcsak az orosz technológiákat és narratívákat tárgyalja, hanem említést tesz a kínai, illetve általában a NATO-s, nyugati megközelítésekről is. Ahhoz pedig, hogy érthetőbb legyen a kognitív hadviselés lényege, érdemes megjegyezni: az információs térben – jelentsen ez bármit is – három dimenzióban szoktak hadat viselni.

Van a fizikai tér: ezek a klasszikus információs rendszerek, hálózatok, minden, ami kézzelfogható. Van a logikai dimenzió, vagyis az adatokból létrejövő információ. És van a kognitív dimenzió, vagyis a gondolatok, amelyek ezekből az információkból erednek.

A tanulmány ennek a harmadik dimenziónak a kiemelésével – nem meglepő módon – azt állítja, hogy van egy régi, klasszikus iránya a kognitív műveleteknek, ami a tömegmédián, tévén, újságokon keresztül történik, és amióta ezek a formátumok léteznek, jelen is van. Emellett jelentek meg az elektronikus átviteli megoldások, mint például a közösségi média, amelyeket masszívan befolyásolnak az emergens kulcstechnológiák.

— Hol húzódik a határ a klasszikus információs műveletek és az AI által felerősített befolyásolási technikák között? Miért súlyosabb az egyik, mint a másik?

— A mesterséges intelligencia tényleg egy olyan jellegű, emergens technológia, ami miatt nagyon sok mindent újra kell gondolni – a kognitív, a fizikai és a logikai dimenzióban egyaránt. Hogy ezt jobban kifejtsem: a mesterséges intelligenciával rengeteg lehetőség és rengeteg probléma is keletkezett. Miért felforgató technológia? Talán a legfontosabb az, hogy kiszámíthatatlan. Ezt úgy értem, hogy egy emberi tevékenységnek van egy jól ismert pszichológiája és motivációja. A mesterséges intelligencia ezzel szemben valószínűségi sorozatokon alapuló döntések halmaza.

Tehát fogalmunk sincs igazán, hogy a sok lehetséges lépés közül a végén miért pont az az eredmény jön ki.

Ez az alapvető problémánk a kognitív dimenzióban, tehát a befolyásolás területén is. Míg egy ember által generált tartalomnál általában tudjuk, miért pont az a végeredmény, egy AI-generált tartalomnál sokszor nem tudjuk, miért az jött ki. Itt szokás példaként említeni a hallucinációt, ami jól ismert jelenség. Nem tudjuk pontosan, hogy hallucináció során miért pont azt mondja a modell, amit mond. Nyilván tudjuk, hogy az eredeti modelleket úgy programozták, hogy megfeleljenek az emberi elvárásoknak, és ne hagyják információ nélkül a kérdezőt – még akkor sem, ha ennek az az ára, hogy az információ téves.

De a hallucinációk egyre kevésbé észrevehetők, és ez szépen, finoman tolja el az emberi gondolkodást. Befolyásolja azt – és nem tudjuk, ennek mi lesz a vége.

Míg mondjuk egy oltásellenes mozgalomnál nagyjából pontosan tudjuk, mi mozgatja őket, milyen érvekkel élnek, és milyen hatásai vannak mindennek; tudjuk azt is, hogyan kell egy ilyen mozgalmat társadalmi szinten elszigetelni a többségtől. Egy mesterséges intelligencia esetében viszont fogalmunk sincs, hogy a neki feltett kérdésekre adott válaszok hogyan fogják alakítani és eltolni a közgondolkodást. Lehet, hogy két ember nem ugyanazt a választ kapja ugyanarra a kérdésre – sőt, akár ugyanaz az ember sem, ha kétszer egymás után teszi fel.

A másik probléma a hihetetlen gyorsaság.

Itt az AI-ügynökök kérdését hoznám fel. Az ügynökök segítségével olyan bámulatos sebességgel lehet elterjeszteni bármit, amire egyszerűen nem tudunk időben reagálni, aminek nem tudunk érdemben gátat szabni. Példának a gerjedés folyamatát hoznám. Mindannyian ismerjük: kell hozzá mikrofon és hangfal. Ha közel visszük őket egymáshoz, gerjedés keletkezik, ami nagyon kellemetlen. Úgy oldjuk meg, hogy lehalkítjuk, vagy eltávolítjuk egymástól az eszközöket. Az AI-ügynökök is így tudnak működni: ha nincsenek kellően kontrollált környezetben, könnyen létrejöhet egy olyan állapot, amit nem tudunk időben „elvágni”, letekerni. Kognitív műveleteknél gondoljunk csak arra, mi történik, ha álhíreket gyártanak – a választások alatt is szóba került, hogy Magyarországon  voltak álprofilokból érkező tartalmak. Mi történik, ha egy sok profillal rendelkező, kifejezetten információs műveletekre kihegyezett informatikai környezetben elszabadul egy AI-ügynök? Milyen bődületes sebességgel tud elterjeszteni igaznak tűnő információkat, amelyeknek tömeges hatásuk lesz?

— Hisz a laikus tömeg nehezen is tudja tetten érni. A magyar választás kampányidőszakában hogyan találkozhattunk ezzel a jelenséggel?

— Én az újságcikkeket olvasom, illetve azokat a kutatókat követem, akik kifejezetten dezinformációval foglalkoznak. Nekem csak benyomásaim vannak, és az a benyomásom, hogy közel sem volt ez annyira profin megszervezve, mint amennyire a technológia lehetővé tette volna. Ilyenkor még működik a társadalom immunrendszere is a dezinformációval szemben. Ez a valóságra vonatkozó megélésünk: elhiszünk dolgokat, vagy nem hiszünk el dolgokat.

A jelenlegi választásnál, úgy gondolom, működött a magyar állampolgárok immunrendszere. Illetve volt egy ellendózis, amit független sajtónak nevezünk, és amely kiemelte ezeket a dolgokat.

Egyébként ez az állam feladata lett volna, de ezt most engedjük el. A lényeg, hogy ez működik. Az AI sebességével, AI által terjesztett tartalmaknál – ahol az ügynök képes reagálni a történésekre, adott esetben gyorsabban és „hitelesebben”, mint valaki, aki a billentyűzet mögött ül – a hírek és információk terjedése nehezebben lesz követhető. Nem mondom, hogy ez megtörtént Magyarországon. Azt sem mondom feltétlenül, hogy ez történni fog. Azt mondom, hogy a technológia – különösen az AI-ügynökök elterjedésével – nagyon hamar olyan helyzetet teremthet körülöttünk, amit akkor és ott nem fogunk tudni érdemben befolyásolni, és ennek súlyos következményei lesznek.

— Milyen szerepe lehet az embernek egy olyan környezetben, ahol a dezinformációs rendszerek már képesek automatizáltan tanulni és finomhangolni az üzeneteiket? Mi itt az indító és mi a fogadó oldal szerepe?

— A legfontosabb talán az, hogy az emberiségnek tanulnia kell. Képben kell lenni azzal, hogy létezik a mesterséges intelligencia mint technológia, és legalább felületesen tudni kell, hogy mire képes. A társadalom széles rétege mostanában találkozott olyan szakkifejezésekkel, mint a deepfake. Ez egy olyan technológia, amire nincs társadalmi immunitásunk, és ezt az immunitást úgy tudjuk megszerezni, ha olyan környezetben találkozunk vele, ami még nem fáj annyira. Ez nem jelenti azt, hogy képesek leszünk biztosan felismerni ezeket a tartalmakat. Mindenféle kutatás – itt Magyarországon is – azt mutatja, hogy minél idősebb valaki, annál nehezebben ismeri fel őket. Ez persze nem jelenti azt, hogy a fiatalok 100%-osan képesek detektálni – csak arányaiban jobban, mint az idősebb generáció. De már az, hogy tudjuk: van ilyen, lehetővé teszi, hogy feltegyük a kérdést: vajon ez valós lehet-e? Ez az egyik oldala. A másik, hogy

az AI-vonaton most látszólag nincsen fék, ami roppant fájdalmas.

Az Európai Unió próbál valamiféle fékeket beépíteni a rendszerbe, de úgy tűnik, hogy ebben több nagyhatalom nem érdekelt. A szabályozás – ez a fajta előrelátás – mindenképpen fontos lenne. Őszintén szólva nem látom jelét annak, hogy az államok kellő gondossággal állnának hozzá a mesterséges intelligencia korlátozásához. A harmadik dolog – és ez az OpenAI-val kapcsolatban is felmerül – a felelősség kérdése. Rögtön az volt az első gondolatom, hogy az OpenAI modelljeire nagyon sokan „rákaptak”, köztük olyanok is, akiknek fogalmuk sem volt arról, mit jelent a biztonságos üzemeltetés. És ahogy a szaksajtóban is olvashattuk, történtek olyan malőrök, amelyekre nem nagyon számítottak. Aztán erre jött rá az Anthropic a Mythos modelljével, amit ki sem engedtek hétköznapi használatra. Ha jól emlékszem, 11 szoftvercég kapta meg a modellt azzal a céllal, hogy sebezhetőségeket, hibákat keressenek benne. Vannak modellek, amelyek biztosan nem valók avatatlan kezek közé. Ha mégis odakerülnek, akkor nagyon komoly felelőssége van azoknak, akiknek a kezében ott vannak ezek a modellek, ezek az ügynökök. A szakma sem 100%-ig biztos abban, hogy mindenki képes lesz kellő gondossággal használni őket.

— Beszéltünk arról, hogy a dezinformáció ellen a megcélzott tömeg edukációjával lehet harcolni, és vannak jogi lehetőségek is. De technológiai oldalról milyen hibáik vannak ezeknek a dezinformációs műveleteknek, amelyeket ki lehetne használni? Ezt találta meg az Anthropic a Mythos-szal?

Krasznay Csaba a teljes egészében az AIToday.hu-n olvasható interjú folytatásában arról beszél, hogy

- miért kulcskérdés a társadalom „immunizálása”, például az oktatási rendszeren keresztül,

- bár az uniós DSA kiváló, a nagy technológiai cégek felett hatékonyabb kontrollra lehet szükség,

- harctéri katonai műveletekben konkrétan mire használják a mesterséges intelligenciát,

- milyen jelentősége van és lehet az AI-nak a geopolitika színpadán,

- mennyire gyorsan terjednek az AI-tartalmak – például deepfake videók –, és hogyan képesek befolyásolni a közhangulatot vagy akár egy választást.

FOLYTATÁS ITT.


Link másolása
KÖVESS MINKET:

Ajánljuk