JÖVŐ
A Rovatból

„Az emberiség erre agyban nincs felkészülve” – Tilesch György szerint a mesterséges intelligencia fejlődési sebessége szinte felfoghatatlan

A történelem során először nézünk szembe valamivel, ami exponenciális gyorsasággal fejlődik. A nemzetközileg is elismert AI-szakértő szerint nincsenek évtizedeink, sőt, éveink sem az alkalmazkodásra.


Bár a mesterséges intelligencia 66 éves fogalom, az első modellek is nagyon régóta léteznek, sőt, használható mesterséges intelligenciák is már jó ideje szolgálnak minket, de igazán láthatóvá most vált, hol is tart ez a technológia. A ChatGPT, majd a GPT4, illetve a különböző képalkotó modellek hirtelen élményszerűvé tették a mesterséges intelligenciát.

De történt valami ennél is fontosabb. Tilesch György szerint az eddigi lineáris fejlődés a történelem során először valódi exponenciális sebességre váltott.

– Jött egy hír nemrég, hogy az olasz kormány fontolgatja a ChatGPT betiltását. Miért? Olyan veszélyes valóban?

– A ChatGPT az a rendszer, amiről sokan beszélnek, de igazából ez csak leegyszerűsítő megjelölése a témának. Az ugyanis még nagyon-nagyon sok gyermekbetegséggel rendelkező megoldás volt, és pár hónapra rá már ott volt a GPT4, ami klasszisokkal jobb, ráadásul ugyanattól a cégtől, az Open AI-tól jött. De az összes konkurense is dolgozik hasonló modelleken, pár már ezekből ki is jött.

Azt gondolom, ez a rendszer olyan szerepet fog betölteni, mint amit a Ford T-modell töltött be a XX. század elején. Lehet mutogatni majd, hogy ez az, amit a nagyközönség elsőként elkezdett megvenni.

Tehát a ChatGPT igazából csak bevitte a mainstreambe az információt, hogy van működő mesterséges intelligencia, ami kétségkívül hasznossá vált, de rengeteg még a megoldandó feladat. Az olasz kormány részéről felmerült betiltási tervekről az gondolom, hogy az még nem lezárt ügy. Az olaszoknak az adatvédelemmel foglalkozó ügynöksége hívta fel az Open AI figyelmét arra, hogy súlyos hiányosságok vannak. Ezek után az Open AI maga döntött arról, hogy ideiglenesen kiviszi az olasz piacról a ChatGPT-t.

Ahol konkrétan betiltották, vagy ahol elérhetetlen, azok olyan országok, mint Oroszország, Szomália, hasonlók.

Európában most készül egy szabályozási hullám, amelynek a kimunkálásában sok olasz is vesz részt, ez az EU AI Act, ami novemberben, vagy előbb meg fog jelenni. Szerintem annyi történik, hogy példát akarnak demonstrálni nemzetállami szinten is, hogy már a törvény, illetve az európai szintű jogszabály hatályba lépése előtt megpróbálják valahogy kikényszeríteni bizonyos érzékeny adatok védelmét, vagy legalábbis jelezni aggályos részterületeken a cégeknek, hogy eddig és ne tovább. Nem gondolom, hogy ez frontálisan szembe menne az AI terjedési hullámával. Az OpenAI is dolgozik azon, hogy bizonyítani tudja, megfelel az olasz kormány, illetve az adatvédelmi ügynökség elvárásainak. Szerintem a versenyszférában van egy nagyobb probléma, és ezt nem nagyon tudják a jelen pillanatban kiküszöbölni. Ha egy vállalati közegben, vagy kormányzati közegben használják a ChatGPT-t, tehát ahol érzékeny adatokkal dolgoznak, és esetleg arra kérik meg, hogy egy meetingnek a leiratát összegezze és küldje ki mindenkinek, vagy egy pénzügyi jelentést készítsen el vállalati adatok alapján, akkor azok az adatok bizony felmennek Redmondba, a Microsoft szerverére, meg az Open AI-hoz. Ezek az adatok onnantól kezdve részévé válnak annak a korpusznak, ami alapján a mesterséges intelligencia modell működik, ami azt jelenti, hogy

a világ egy bármilyen távoli pontján visszaköhögheti bárkinek azokat a vállalati vagy kormányzati adatokat, amiket egy óvatlan munkatárs feltöltött. Erre a jelen pillanatban még technológiai megoldás nincs.

Ezért is vannak ezek a reakciók.

– És akkor még a latorállamok MI fejlesztéseiről nem is beszéltünk...

– Szabályozni csak azt tudjuk, ami kereskedelmi forgalomban van, elő lehet fizetni rá, meg lehet vásárolni stb. A latorállamok nem azt a stratégiát fogják folytatni, hogy megpróbálják meghekkelni a Big Tech által piacra dobott nagy generatív MI rendszereket, bár azért erre is lesznek próbálkozások szerintem. Ugyanis a kereskedelmi forgalomban elérhető nagy nyelvű modelleknél szakemberek ezrei dolgoznak azon, hogy minél bombabiztossabbá tegyék etikai, biztonsági kockázati szempontokból ezeket a modelleket.

Amikor viszont egy latorállam úgy dönt, hogy használni akar egy ilyet a saját céljaira, semmi mást nem csinál, gyakorlatilag klónozza a rendelkezésre álló információk alapján ezeket a modelleket, és saját megoldásokat kezd csinálni, azzal nem tudunk mit kezdeni.

Tehát kissé leegyszerűsítve: az Európai Unió meghatározhatja például azt, hogy milyen feltételekkel jöhet be egy kínai AI modell az európai piacra, és ezt kőkeményen be is kell tartani a kínaiaknak, azonban, ha nem akar nyilvánosan bejönni a piacra, hanem valahol a szürke vagy sötét zónában kíván tevékenykedni, az ellen nem sok fegyverünk van a jelen pillanatban.

– Tehát másolható, ellopható ez a technológia?

– Igen. Vannak olyan országok, melyek a nulláról építik újra ezeket, és vannak olyanok, amelyek az elérhető információk és technológiai specifikációk alapján megpróbálják megépíteni a klónjukat, de olyan is előfordulhat, hogy részleteiben el tudják lopni, tehát ezerféle módszer létezik erre.

A GPT4 esetében történt meg először, hogy amikor megjelent az a közlemény, amiben kifejtették, hogy mit tud ez a modell, nem tartalmazott technológiai specifikációt. Az egész szakma felhördült ezen.

És ők pont azzal védekeztek, hogy a lator államok sokkal könnyebben ellophatják, ha ismerik a részleteket. Ez a mai napig erősen megosztó, mert az Open AI, mint brand, ma már minden, csak nem open (azaz nyílt). Olyan szempontok feszülnek egymásnak, amelyek között nagyon nehéz igazságot tenni, mert mindenki valahol ködösít. De vannak például jótékony célú klónozási vagy közösségi megoldások is. Európában például van egy modell, aminek az a neve, hogy Bloom. Ez volt az első olyan klón, amit kifejezetten társadalmi, hasznossági szempontok vezettek. Ez tavaly november-december környékén jöhetett ki, a francia állam kölcsönadta az egyik szuperszámítógépét egy tudományos közösségnek, körülbelül ezer egyetem 2500 embere hozta össze az első európai közösségi modellt, amihez én nagyon nagy reményeket fűztem. Nincsen a közelében sem most annak, amit a GPT4 csinál, de mindenképp kijelölt egy utat.

Csak annyit akarok mondani, hogy nem minden klónozás rossz klónozás.

Azt is kell nézni, hogy ki csinálja, és milyen szándékkal csinálja.

Tilesch György, magyar-amerikai mesterséges intelligencia (MI) szakértő, tanácsadó, cégvezető és író, aki az Egyesült Államokban él és dolgozik.

A washingtoni Fehér Ház MI-etikai munkacsoportjának tagja, a PHI Institute for Augmented Intelligence alapító elnöke és a Neumann Társaság MI-nagykövete. Omar Hatamleh-val közösen írt egy könyvet az MI okozta gazdasági, politikai és társadalmi változásokról Mesterség és Intelligencia címmel. Magyarországhoz is kötődik, többek között a Neumann János Számítógéptudományi Társaság megemlékezés-sorozatában és egy MI-képzési programban is részt vesz.

– Mekkora egy ilyen rendszer fizikailag? Elvihető egy bőröndben? Mi kell ahhoz, hogy ez működjön?

– Ezeknek a modelleknek a leginkább meghatározható faktora, ami alapján összehasonlíthatóak voltak, a paraméterszám. Tehát a bonyolultsága és a mélysége. Illetve a betanításhoz szükséges infrastrukturális és számítási kapacitás. Minél nagyobb modellt akarunk, és minél bonyolultabb és mélyebb modellt akarunk alkotni, annál nagyobb az igény mind adatoldalon, mind infrastrukturális oldalon, mind tehetségi és elővigyázatossági oldalon.

Ahogy rohan előre a szekér, egyre nagyobbak a belépési korlátok ahhoz, hogy valaki domináns pozícióra legyen szert.

Volt egy sztori pár héttel ezelőtt, hogy az Open AI a Google-tól elhozott egy AI-gurut, akinek az első dolga volt azt mondani, hogy a Google, amely most ugye ideiglenesen hátrányba került, mert később jött a piacra, az már az Open AI adatain tanította be a saját modelljét, ami nagyon kínos volt, és jogilag is lesznek még ennek következményei. Magyarán nagyon-nagyon keveseknek van hozzáférése az adatmennyiséghez, ráadásul akiknek van, azokat is folyamatosan támadják, hogy egyáltalán volt-e joguk azokat az adatokat feltölteni a modelljeikbe. Tehát mondjuk milyen jogon használja fel a modell például a Wikipédia adatait, vagy a Redditet, ami alapján egyébként a legtöbb társalgás megtörténik.

Amikor azt olvassa, hogy valakinek beszólt a mesterséges intelligencia, vagy szerelmet vallott, akkor reddites sötét chatszobák termékeit köhögi vissza a mesterséges intelligencia modell.

Tehát van egy csomó dolog, ami szürke zónában van. A GPT3-as körülbelül 175 milliárd paraméterrel rendelkezett, a GPT 4 konkrét adatait nem tudjuk, mert senki nem mondta meg. De óvatos becslések szerint is a korábbinak körülbelül a 100-szorosa lehet. Ezek elképesztő számok. Hogy mást ne mondjak, 100 amerikai család egész éves energiafogyasztása az az energiaigény, ami egy ilyen modell betanításához kell.

– Tehát fogyaszt annyit, mint egy komoly gyár.

– Igen, és sokan tartanak is attól, hogy ha elindul ezeknek a modelleknek a proliferációja, magyarán mindenki megpróbálja a sajátját megcsinálni - akár egy éven belül is eljuthatunk oda, hogy mindenki saját AI modellt fejleszt -, akkor

ez az energiaszükséglet igen könnyen felugorhat mondjuk a kripto világ jelenlegi energiafogyasztására. Márpedig a bitcoinbányászat, amikor legutóbb néztem, Csehország éves fogyasztását jelentette körülbelül.

Ez az érem egyik oldala. A másik oldala nyilvánvalóan az, hogy ezek a nagy cégek az AI-t már arra is használhatják, hogy a modellek betanítási energiaköltségét, a szervereik fogyasztását csökkentsék. A Google 25% körüli energiafogyasztás-csökkentést tudott elérni. Tehát nagyon érdekes és komplex ez a világ, mert egyik oldalon drámai a helyzet, viszont a másik oldalon ugyanazt a technológiát lehet jobbításra is használni. Nagyon nehéz fekete-fehéreket mondani, és azt hiszem, tévút is lenne.

– Háborús célokra, fegyverrendszerek irányítására is használható ez az eszköz?

– A nyelvi modellek két okból értek el áttörést. Az egyik az, hogy az embernek egy személyes élményt nyújtanak, tehát képesek társalogni. Ezt mondjuk egy számítógépes látási modell vagy egy komplex adatanalitikai rendszer nem tudja nyújtani. A nagy nyelvi modellek megjelenésével szinte észrevétlenül átléptünk abba a korba, amit úgy hívnak, hogy multimodalitás. Korábban azt mondtuk, hogy a szűk AI-nak a korszakában vagyunk, amikor egy-egy feladatra lehet betanítani, és azt végrehajtja, általában jobban, mint az ember. A multimodalitás azt jelenti, hogy horizontálisan nagyon sokféle feladatot tud elvégezni, amelyeknek csak egy része szigorúan nyelvi. Ezt úgy hívják angolul, hogy general purpose AI, vagyis általános felhasználású AI.

A mesterséges intelligencia esetében is áll az a szabály, amit általában igaz a technológiára, hogy a legelső felhasználási cél mindig hadászati.

Tehát mielőtt még kereskedelmi forgalomba kerülne bármi, a hadászati felhasználása már évek óta megy. Ez a technológia sem kivétel ez alól. Én 2017-ben már dolgoztam Amerikában a Pentagonnal nagy mesterséges intelligencia projekteken, amiknek nem hadászati célja volt alapvetően, mert abban nem vettem volna részt, de a hadsereg karolt fel egy olyan mesterséges intelligenciát, ami a hadihajók karbantartásáról szólt, és 7 milliárd dollárt spórolt meg évente az amerikai haditengerészetnek. A hadászati felhasználások száma már jelenleg is végtelen. Ha megnézi azt, hogy autonóm drónok harcolnak már különböző isten háta mögötti régiókban a világban, az egy jelentős áttörés. Ezek az eszközök ugyanis nem távirányítottak, hanem

előre „tudja” a drón, hogy kin robbanjon fel, milyen típusú egyenruhára robbanjon fel, hogy milyen típusú tankon robbanjon, ezek már nagyon komoly dolgok.

Azt szerintem kevesen tudják Magyarországon, hogy az ukrán hadsereg ellenállóképességének egy jelentős faktora az, hogy az amerikai Palantir nevű AI cég beállt mögéjük. Hallotta már ezt a nevet?

– Nem.

– Ez egy érdekes cég, ami tulajdonképpen azt csinálta, hogy egy adatanalitikai rendszert adott nekik, amiben már korábban volt egy csomó műholdas felvétel, és a harctéri egységek megkapták azt a lehetőséget, hogy bármikor fotókat és adatokat töltsenek fel a rendszerbe.

Ezzel elérték az ukránok, hogy a csapásmérő képességük sokkal pontosabbá vált, sokkal jobban látták az ellenség a mozgását, és sokkal pontosabban tudtak célozni.

Tehát ez például óriási előny volt, amit ők egyébként nem is tagadnak. Mondok egy másik példát. Van egy Clearview AI nevezetű amerikai startup, amelyik Amerikában perek sorozatát kapta a nyakába az elmúlt években, mert semmi mást nem csinált, mint hogy a közösségi médiáról, meg a Google Fotókról, és hasonló alkalmazásokról szerezte be illegálisan több tízmillió, százmillió ember fotóját. És ezek alapján létrehozott egy olyan, bármikor lekérdezhető adatbázist, ami AI számítógépes látás alapján azonosítja az embert. Tehát ha én önről csinálok most egy fotót, feltöltöm, akkor megmondja nekem a Clearview AI, az Ön összes social media profilja és hasonló megjelenései alapján, hogy maga kicsoda. Ez kereskedelmi forgalomban elérhető megoldás, amit egyébként azt hiszem, 800 rendőrkapitányság használ Amerikában, így fél-legálisan, de bűnözők azonosítására.

– Erről eddig még csak kínai viszonylatban hallottunk, hogy így azonosítják az embereket, pontozzák is ráadásul.

– Az teljesen más, vagyis nem teljesen más, de Kínában ezt a párt csinálja, Amerikában meg egy startup. Ez nagy különbség. Egy startup, amelyik el tudta adni a termékét X darab amerikai rendőrőrsnek anélkül, hogy a szövetségi állam, vagy akár egy tagállam bele tudott volna szólni. De emiatt perek sokasága következett. Ekkor a Clearview AI, aminek nagyon komoly PR problémái voltak Amerikában, azt csinálta, hogy ingyen és bérmentve felajánlotta ezt a szoftverét az ukrán államnak és az ukrán hadseregnek, és az alapján nagyon jól tudják azonosítani például a saját halottaikat, és az orosz halottakat is. Tehát így tudják visszaigazolni, hogy kik voltak azok, akik meghaltak, vagy háborús bűncselekményeket követtek el

– Lehet, hogy használták ezt akkor is, amikor azonosították a bucsai tetteseket?

– Majdnem biztos.

– Nagyon gyorsulnak a dolgok, persze amióta létezik emberiség, azóta egyfolytában azt éljük meg, hogy gyorsul a fejlődés, és ez a gyorsulás exponenciális, ami egy darabig talán még követhető, aztán egyre kevésbé lesz követhető. Az a kérdés, hogy meddig tudjuk ezt ép ésszel követni?

– A nagy korszakváltást abban látom most, hogy szerintem eddig nem exponenciálisban voltunk. Tehát eddig, amikor ipari forradalmakról beszéltünk, azért mindig volt pár évünk vagy pár évtizedünk, hogy átálljunk egyik technológiáról a másikra. Szerintem az AI, és különösen a generatív AI hozta el igazából az exponencialitást, amiről az én szűkebb pátriámban, Szilícium-völgyben nagyon sok vátesz és sárkányfűárus már regélt évtizedek óta, de ez sokáig nem volt kézzelfogható az embereknek. Most szerintem abszolút exponenciálisban vagyunk. Hogy mást ne mondjak, én körülbelül nyolc éve foglalkozom mesterséges intelligenciával, és egészen tavalyig azt tudtam mondani, hogy még át tudjuk látni az ugrásokat, mert az éves ugrások félévesek lettek, a félévesek haviak, satöbbi. De ha most bármilyen szakmai szimpóziumon részt veszek, és megnézek egy chartot arról, hogy az elmúlt héten mi történt AI-ban, akkor 30 olyan dolgot látok minden héten, ami mérföldkőnek számít. Na és ez az, amit nem tudunk befogadni szerintem. Tehát a kérdésére az a válaszom, hogy

most küzdünk meg először a történelemben az exponencialitásnak a valós idejű problémájával, és biztos vagyok abban, hogy az emberiség erre agyban nincsen felkészülve.

Ezért történt az is, hogy egyébként általam nagyon tisztelt, és sok esetben személyesen ismert AI tudósok és szakértők moratóriumot kezdtek el követelni, amiről gondolom ön is olvasott, mert pont ez volt a célja, hogy mindenki olvasson róla. Egy nyílt kiáltványt tettek közzé, amiben azt kérték, hogy fél évig most mindenki álljon le.

– Ez megoldaná a helyzetet?

– Ők egy klasszikus nyilvános tárgyalási technikát követtek. Tehát, ha túl sokat kérünk, és megkapjuk a 20 százalékát, már akkor is egész jól vagyunk. Nyilván abban nem bízhattak semmilyen szinten, hogy ez így át fog menni. Körülbelül három évvel ezelőtt volt egy olyan hullám Amerikában, amikor rájöttek arra, hogy az arcfelismerőkben, tehát a valós idejű biometrikus azonosító-rendszerekben nagyon sok a probléma. Emlékszem, hogy volt egy nyári két hét, amikor az ottani cégek, amelyek ilyen rendszerek fejlesztésével foglalkoztak, azt mondták, hogy leállunk vele, vagy azt mondták, hogy nem adjuk el hadászati és rendészeti célokra, ami pedig ennek az elsődleges felhasználása volt.

Csak akkor megtanulták, hogy a kínai barátaink viszont nem állnak le, akik szintén az élbolyban vannak!

Ezt valószínűleg fiaskóként élte meg a technológiai szektor. Visszatérve erre a kiáltványra, én úgy gondolom, hogy a szándék nemes volt, és nagyon nagyra értékelem, hogy kitették az asztalra a problémát. Ez a következőképpen hangzik:

fegyverkezési versenybe torkollt a mesterséges intelligencia a főszereplő nagyvállalatok és államok részvételével. Ennek a sebessége felfoghatatlan mértékűvé vált pár hónapon belül, és semmilyen szabályozási környezet nem létezik a jelen pillanatban, ami ennek gátat tudna szabni.

Tehát a kérdés az volt, hogy fél évig, amíg a megfelelő szabályozási környezet nem jön létre, addig álljunk le. A fél évet azért számolták, mert mostantól számított fél éven belül biztos, hogy az EU kijön egy szabályozással. Az USA is most rekordsebességre kapcsolt szabalyozásilag. Az elvárás maga az irreális volt, de az, hogy ez téma lett a társadalomban és a legfelsőbb körökben, az szerintem hasznos volt.

– Öt év múlva hogy fogunk élni? Nem adok 10-et, csak 5-öt, hátha ellátunk még odáig.

– Én 2-3-at szoktam maximum bevállalni, de azt is évekkel ezelőtt. Meg se merem jósolni őszintén, szóval pontosan emiatt, mert tavaly november óta elszabadultak a dolgok. Amit látok biztosan, hogy a világ jelenlegi fragmentáltsága, tömbösödése szerintem csak erősödni fog, tehát

egy csomó mesterséges intelligencia alapú társadalmi-gazdasági modell fog fej-fej mellett kifejlődni.

Már látszik egy kínai modell, látszik egy európai modell, és valahogy körvonalazódik egy amerikai, ami egyébként egy kicsit homályosabb. Amerika most éppen gondolkodik, hogy mit kéne lépni, elég-e az, hogy a mi technológiai cégeinknél van az elsőbbség még jelen pillanatban, vagy európai mintára brutál erős szabályozást kell bevezetni. Tehát lesznek ilyen, hogyha úgy tetszik, AI alapú társadalmi operációs rendszerek, amelyek között szerintem nagyon kevés átjárás lesz. Ez a globalizmus egyfajta visszavetése lesz, hiszen eltérő és inkompatibilis modellek fognak létrejönni. Azon a válaszúton vagyunk, mint emberiség, hogy

sok múlhat azon, mennyire tudjuk rákényszeríteni a döntéshozóinkra, legyenek azok akár kormányzati, akár nagyvállalati döntéshozók, hogy szilárd mederbe tereljék ezt a folyamatot.

Ennek a demokráciákban szerintem alapelvnek kellene lennie. Én alapvetően nem osztom azt a negatív jövőképet, amit sok AI-szakértő jósol, hogy legalább 10% az esélye annak, hogy az AI következtében az emberiség kipusztul, azt viszont gondolom, hogy amennyiben nyakló nélkül hagyunk benyomulni egy exponenciális erőt például a munka világába, vagy az információszerzés világába, abból jó dolog nem jöhet ki. Tehát az exponencialitás sebessége, és az, hogy kinek a kezében van az AI, egy robbanóelegy tud lenni. Felelős gondolkodásra van szükség, és a társadalom részéről arra, hogy kikényszerítse a döntéshozóiból, hogy olyan AI-t kapjon, amilyet megérdemel.


Link másolása
KÖVESS MINKET:

Népszerű
Ajánljuk
Címlapról ajánljuk


JÖVŐ
A Rovatból
230 millió dollárt spóroltak az MI-vel: 20 nap alatt forgatták le Gal Gadot új filmjét a színészekkel, a többi munkát már a számítógép végzi
A Bitcoin: Killing Satoshi című filmet egy londoni stúdióban vették fel, helyszíni forgatás nélkül. A háttereket és a világítást teljes egészében mesterséges intelligencia hozza létre az utómunka során.


Mindössze 20 nap alatt, egy teljesen üres, „szürke doboz” stúdióban forgatták le Doug Liman új filmjét, a Bitcoin: Killing Satoshi-t, amelynek főszereplői Casey Affleck, Gal Gadot, Pete Davidson és Isla Fisher.

A produkció teljes egészében mesterséges intelligencia által generált hátterekkel készül, amivel a producerek szerint így egy normál esetben 300 millió dolláros költségvetést sikerült 70 millióra lefaragni.

A film egy összeesküvés-thriller, amely a Bitcoin rejtélyes alkotója, Satoshi Nakamoto kilétét kutatja. A cselekmény középpontjában egy újságíró áll, aki azt a vitatott állítást vizsgálja, hogy a valódi Satoshi egy Craig Wright nevű ausztrál üzletember, akit emiatt befolyásos szervezetek akarnak elhallgattatni.

A februári bejelentés - miszerint a filmben nemcsak a háttereket és a világítást hozzák létre mesterséges intelligenciával, de szükség esetén a színészek játékába is belenyúlhatnak - komoly vitát váltott ki a szakmában. A producerek ezért nemrég meghívták a TheWrap stábját a londoni forgatásra, hogy bemutassák a technológiát. Azt állítják, a színészi alakításokhoz nem nyúlnak hozzá, az MI csupán egy utómunka-eszköz, ami a környezetet teremti meg.

Casey Affleck szerint a módszerrel a hangsúly teljes egészében a színészi játékra helyeződött.

„Az egész forgatáson a mi alakításunk volt a fókuszban”

– nyilatkozta a színész.

Az alkotók szerint az eljárás a színházi munkához hasonlít, és jelentősen csökkenti a gyártás ökológiai lábnyomát, mivel nincs utazás és helyszíni építkezés.

Ryan Kavanaugh producer elmondta, a hagyományos forgatás több mint 200 különálló helyszínt igényelt volna. „Rájöttünk, hogy bizonyos MI-eszközökkel le tudjuk törni a költségeket” - közölte. A forgatás egy volt londoni autószalonból átalakított „gray box” stúdióban zajlott, a világítás és a díszlet MI‑vel készült, a színészek valódi jelmezeket viseltek, és az utómunka kb. 30 hét, 55 MI‑művész részvételével - derült ki a The Wrap cikkéből.

Az iparági vita azonban továbbra is éles. Míg a támogatók a költséghatékonyságot és az új kreatív lehetőségeket emelik ki, az ellenzők a filmes szakmák – díszlettervezők, helyszíni világosítók, logisztikai szakemberek – tömeges megszűnésétől tartanak.

A projektet még 2025 augusztusában jelentették be, a forgatás idén márciusban zárult. A rendező, Doug Liman olyan filmeket jegyez, mint A Bourne-rejtély vagy A holnap határa, a forgatókönyvet pedig Nick Schenk írta, aki Clint Eastwood Gran Torinóját és A csempészt is.

A film forgalmazási jogait a május 12. és 20. között zajló cannes-i filmpiacon, a Marché du Film-en értékesítik.

A film történetének pikantériáját adja, hogy a brit Legfelsőbb Bíróság 2024 márciusában kimondta: Dr. Craig Wright bizonyíthatóan nem Satoshi Nakamoto, és nem ő írta a Bitcoin alapító dokumentumát sem.

Via worldofreel.com


Link másolása
KÖVESS MINKET:

Ajánljuk
JÖVŐ
A Rovatból
Baracsi Katalin: A kórházi kamerák ügye rámutat a biometrikus azonosítás szigorú szabályaira, de az AI Act tovább emeli a tétet
Az internetjogász az AIToday-nek elmondta: az arcfelismerés magas kockázatú terület, és hamarosan egyszerre szabályozza a GDPR, illetve az AI Act. A cégek gondban lehetnek a megfeleléssel, az állampolgárok viszont jobb védelemre számíthatnak.


Nem járt messze az igazságtól a leendő egészségügyi miniszter, amikor „rendőri típusú irányításra” jellemző metódushoz hasonlította a kórházi beléptetőrendszerekbe két éve beépített arcfelismerést. Hegedűs Zsolt egyik első intézkedése az lesz, hogy július 1-ig leszerelik a dolgozók munkaidejének ellenőrzésére kitalált AI-alapú (biometrikus) ellenőrzést, amelynek dr. Baracsai Katalin szerint már a puszta létezése példátlan az egész unióban, sőt, cégeket meg is bírságoltak hasonló intézkedésért. Az internetjogász az AIToday.hu-nak részletesen beszélt a magyar egészségügy kamerarendszerének ügyéről, valamint arról, hogy a nyáron életbe lépő AI Act hogyan szabályozza a megfigyelést és a biometrikus azonosítást.

Mint kiderült, pontos szabályok vonatkoznak arra, hogy mi számít egyszerű megfigyelésnek, és egy rendszer mikor éri el a biometrikus azonosítás szintjét, amikortól sokkal szigorúbb uniós szabályok vonatkoznak rá.

Baracsi Katalin közölte: az AI-alapú arcfelismerés az egészségügyben különösen magas kockázatú terület, a munkahelyi alkalmazása pedig csak nagyon-nagyon indokolt és kötött feltételekkel képzelhető el. Azt is világossá tette, hogy az AI Act nem váltja fel a GDPR-t, így az intézményeknek és a cégeknek egyszerre kell megfelelniük az adatvédelmi és az új AI-szabályoknak. Az interjúból kiderül továbbá, hogy milyen jogok illetik meg az állampolgárokat és a munkavállalókat a biometrikus adataik kezelése kapcsán.

— A magyar kórházakban bevezetett, majd leszerelt arcfelismerő rendszerek kapcsán felmerül a kérdés: mennyire tipikus vagy kivételes az ilyen rendszerek használata az uniós egészségügyi intézményekben?

— Az Európai Unióban szinte sehol nem próbált meg kormányzat ilyen típusú ellenőrzési rendszert bevezetni és kialakítani. A nyugat-európai országokban az adatvédelmi hatóságok már a kisebb, hasonló célú cégeket is megbírságolták. Tudok egy nagy horderejű hollandiai ügyről, ahol egy vállalat 725 ezer eurós bírságot kapott, mert ujjlenyomattal ellenőrizte a dolgozók munkaidejét. Itt párhuzamot vonhatunk: az ujjlenyomat és az arcfelismerés is olyan, hogy a munkavállalók lényegében nem tudnak szabadon dönteni arról, hogy hozzájárulnak-e. Sőt, a magyar adatvédelmi hatóság, a NAIH, is előzetesen alapjogsértőnek minősítette a tervet, a bevezetés mégis megtörtént. Egyértelmű tehát a tiltás, és az adatvédelmi hatóságok komolyan odafigyelnek, hogy a munkavállalók ne kerüljenek ilyen helyzetbe.

— Talán éppen ezért alakult úgy, hogy végül csak néhány kórházban üzemelték be. Az is lehet, hogy egyfajta tesztüzem volt.

— Attól tartok, nem tudjuk, hogy kísérleteztek-e előzetesen ezzel a technológiával. Az indok, ami a médiakommunikációban megjelent, az volt, hogy szükség van a rendszerre, mert nem lehet követni, hogy az orvosok és más egészségügyi alkalmazottak ténylegesen mennyi időt töltenek munkával.

— Mi a különbség hétköznapi nyelven az egyszerű megfigyelés és a biometrikus azonosítás között az uniós joggyakorlat szerint?

— Maga a GDPR, tehát az adatvédelmi rendelet fogalmazza meg, hogy mi is az a biometrikus adat. Minden olyan, fizikai jellemzőkből – például az arcunkból, ujjunkból, hangunkból – kinyert adat, amely lehetővé teszi egy személy egyedi azonosítását. Van egy egyszerű példám a megfigyelés és az azonosítás megkülönböztetésére. Tételezzük fel, hogy elmegyünk vásárolni egy plázába. A biztonsági kamera felveszi, ahogy besétálunk. Ez még nem minősül biometrikus azonosításnak. De abban az esetben, ha ez a kamera felveszi az arcunkat, leméri, és egy adatbázisban más mintákkal összehasonlítva megállapítja, hogy én Baracsi Katalin vagyok, akkor az már azonosítás. Ez már biometrikus azonosítás. Az azonosítás az, amikor konkrétan, név szerint beazonosítanak minket, ez az, ami nagyon szigorú szabályokba ütközik. Tehát ha csak azt nézik, hogy hány ember megy be a plázába, és ebből nem vonnak le személyre szabott következtetéseket, az egyszerű megfigyelés.

— A GDPR már jó ideje hatályban van, de készülődik az AI Act. Hogyan kategorizálja az AI alapú biometrikus rendszereket az Unió, és mely kategóriák érintik leginkább a hétköznapi embereket?

— Négy kategóriát állapít meg az AI Act, és a különlegesség az, hogy idén nyártól ezek teljesen hatályba lépnek, és minden jogszabályi és intézményi keretnek fel kell állnia az EU-ban, amely biztosítja a megfelelő működésüket. Az első kategória a tiltott rendszereké. Ezek olyan technológiák, amiket soha, senkinek nem szabad alkalmazni.

Például egy munkahelyen az alkalmazottak érzelmi állapotát elemző szoftver teljesen kizárt.

A második a magas kockázatú rendszereké. A jelenlegi joggyakorlat szerint ide tartozik az egészségügyi arcfelismerés is. Itt szabad bizonyos rendszereket kiépíteni, de nagyon komoly feltételekkel. Ide tartoznak a különböző biometrikus rendszerek és általában az érzelemfelismerő szoftverek is. Olyan szigorú feltételeknek kell megfelelniük, mint például egy gyógyszerengedélynek: tesztelés, dokumentáció. Újdonság, hogy augusztus elsejétől ezeknél kötelező lesz az emberi felügyelet, és mindenkit tájékoztatni kell arról, hogy a rendszert mesterséges intelligencia működteti, és a döntések már nem emberi, hanem gépi alapon születnek. A harmadik szint a korlátozott kockázatú rendszereké. Például, amikor egy weboldalon chatbottal kommunikálok. Itt a működtetőnek csak annyi a kötelezettsége, hogy feltüntesse, hogy chatbot alapú szolgáltatást használ. Végül vannak a minimális kockázatú esetek, mint egy spam szűrő használata, ahol semmilyen egyéb kötelezettséget nem ír elő a jogszabály.

Hétköznapi szinten olyan fogalmakkal érdemes barátkoznunk, mint a munkahelyi biometrikus kapu vagy az, hogy a bevásárlóközpontban lévő kamera csak a látogatók számát méri, vagy valami mást is csinál.

Ha mást is, az már a tiltott kategória lehet. Magas biztonsági kockázatú helyeken, például egy atomerőműnél vagy egy gyógyszercégnél, indokolt lehet a biometrikus beléptetés. Végül is, az útlevelünkben is van biometrikus azonosító, de ehhez önként, hivatalos eljárás keretében járultunk hozzá. Fontos látni, hogy az AI Act nem váltja fel a GDPR-t, a kettő együtt, egymást kiegészítve fog létezni.

— Ha egy cég vagy intézmény, például egy – ön által is említett – atomerőmű, biometrikus azonosítást akar bevezetni, milyen jogi feltételeknek kell megfelelnie az EU-ban?

— Egy ilyen rendszer kiépítését egy építési engedély beszerzéséhez hasonlítanám. Nem egyetlen papírról van szó, hanem egy összetett folyamatról. Először is, a GDPR alapján előzetes hatásvizsgálatot kell végezni. Ez egyfajta kockázatelemzés, ahol végig kell gondolni, mi sülhet el rosszul, még mielőtt a rendszert elindítanák. Meg kell találni a megfelelő jogalapot. Munkahely esetén ez vagy a munkavállalók szabad beleegyezése, vagy valamilyen törvényi kötelezettség. Egy atomerőműnél a biztonsági kockázat egyértelmű jogalap. A GDPR szerint egyértelmű hozzájárulás kell, ha nincs más jogalap. Ha ez hiányzik, a rendszer nem működhet.

Csak a legszükségesebb adatokat szabad gyűjteni, és nem tárolható több, mint ami a működéshez elengedhetetlen.

Újdonság, hogy 2026-tól az AI Act szerinti regisztráció és dokumentáció kötelező lesz az Európai Unió adatbázisában. Tehát ha egy cég végigment az előző lépéseken, utána az EU felé is jelentenie kell, hogy biometrikus azonosításon alapuló rendszert működtet. Ha bárhol hiba csúszik a folyamatba, a rendszer a magas kockázatú kategóriából könnyen átcsúszhat a tiltottba.

— Mit jelent ez a gyakorlatban a munkavállalók és ügyfelek számára? Milyen jogaik vannak, ha egy szervezet arcfelismerést használ velük szemben?

— A GDPR már eddig is teremtett jogokat. Az első a tájékoztatáshoz való jog: a munkavállalónak tudnia kell, hogy a munkahelyén arcfelismerő rendszer működik, és azt is, hogy milyen célból. Létezik a hozzáférési jog, ami azt jelenti, hogy kikérhetem a rólam tárolt biometrikus adatokat. Van törlési jogom is. Ha az adatkezelés már nem indokolt – például mert a munkavállaló munkahelyet váltott, vagy olyan munkakörbe került, ahol már nincs szükség a rendszerre –, kérheti az adatai törlését. A hozzájárulás bármikor visszavonható, és ha kiderül, hogy az adatkezelés jogellenes volt, szintén törölni kell az adatokat. Megilleti a munkavállalót a tiltakozáshoz való jog is, ha a bevezetés feltételei nem teljesültek.

Végül pedig ott van a megtagadás joga: ha nem egyezek bele a biometrikus adataim kezelésébe, emiatt nem érhet semmilyen szankció.

— Bele lehet írni egy munkaszerződésbe, hogy a munkavállaló automatikusan hozzájárul az AI alapú azonosításhoz?

A teljes egészében az AIToday-en olvasható interjúban Baracsi Katalin arról is beszél, hogy

az AI-alapú azonosítás bevezetése miért igényel hosszabb, többlépcsős engedélyezési folyamatot,

bár szinte senki sem kérheti egy munkavállalótól, vannak üzemek, ahol a biometrikus azonosítás a munkaszerződés része lehet,

az AI Act milyen módon írja elő a kamerás megfigyelés vagy más biometrikus azonosítás jelölését,

az AI Act milyen módon szolgálja a felhasználók védelmét,

mely nemzeti hatóságok segítik az állampolgárok jogérvényesítést.

FOLYTATÁS ITT.


Link másolása
KÖVESS MINKET:

Ajánljuk

JÖVŐ
A Rovatból
Krasznay Csaba: az AI-vonaton most látszólag nincs fék, kérdőjelezzünk meg nagyjából mindent, amit a képernyőn látunk
A kiberbiztonsági szakértő az AIToday-nek elmagyarázta, hogy az AI hogyan gyorsítja a dezinformációt, aminek ugyanúgy van politikai, mint katonai szerepe. A választás idején a független sajtó adta az ellendózist, de szerinte a magyarok immunrendszere is jól működött.


Krasznay Csaba szerint az AI nem egyszerűen új dezinformációs eszköz, hanem olyan technológia is, amely a kognitív dimenzióban képes felülírni korábbi működési logikákat. Az AIToday.hu-nak adott interjúban felvázolta az orosz módszereket - amelyek száz éve ugyanolyanok, csak az eszköztár változik -, és felvázolta, hogy a NATO hogyan kutatja a jelenséget.

A kiberbiztonsági szakértő hangsúlyozta: az AI azért kiszámíthatatlan, mert nem emberi motivációk szerint működik, így a kimenetei sokszor nehezen érthetők, ami különösen veszélyes a közgondolkodásra is hatással lévő kognitív térben. Az AI-ügynökök sebessége miatt ráadásul nem lehet időben reagálni a terjedő tartalmakra.

A magyar választási kampány környékén látott jelenségekről szintén beszélt, és szóba került a társadalmi immunitás, az edukáció, a platformok felelőssége, valamint az Európai Unió szabályozási kísérlete és a technológia katonai szerepe. Utóbbi nagyon is valós, hiszen az AI már ma megjelenik a célmegjelölésben és az információk gyors feldolgozásában.

— Egy nemrég megosztott bejegyzése szerint a NATO egyik kutatása a kognitív hadviselés fogalmának újradefiniálására tesz kísérletet. Kikre bízta a NATO az információs műveletek kutatását, és pontosan milyen tevékenységeket vizsgáltak?

— Két különböző kutatást is olvastam arról, hogy mennyire különböző szakterületek foglalkoznak az AI-jal, illetve általában a kibertér kihívásaival. Az egyik kutatás a NATO kiberbiztonsággal foglalkozó kiválósági központjától érkezett. Azt kell tudni a NATO kiválósági központokról, hogy ezek ugyan a NATO fenntartásában és finanszírozásban működnek, de kutatóközpontok, tehát nem a NATO mint katonai szervezet véleményét tükrözik. Sokkal inkább egyfajta tudományos bázist szolgáltatnak ahhoz, hogy a tagországok ezek alapján olyan jogi aktusokat, lépéseket, stratégiákat dolgozzanak ki, amelyekből később építkezni tudnak. Ami pedig a konkrét tanulmányt illeti: ukrán tudományos kutatók publikációjáról van szó, akiket masszívan érint a kognitív hadviselés, hiszen az orosz doktrínában régóta benne van, hogy a háborúkat nem feltétlenül és nem kizárólag a csatatéren kell megnyerni, hanem a fejekben is. A kutatás érdekessége, hogy nemcsak az orosz technológiákat és narratívákat tárgyalja, hanem említést tesz a kínai, illetve általában a NATO-s, nyugati megközelítésekről is. Ahhoz pedig, hogy érthetőbb legyen a kognitív hadviselés lényege, érdemes megjegyezni: az információs térben – jelentsen ez bármit is – három dimenzióban szoktak hadat viselni.

Van a fizikai tér: ezek a klasszikus információs rendszerek, hálózatok, minden, ami kézzelfogható. Van a logikai dimenzió, vagyis az adatokból létrejövő információ. És van a kognitív dimenzió, vagyis a gondolatok, amelyek ezekből az információkból erednek.

A tanulmány ennek a harmadik dimenziónak a kiemelésével – nem meglepő módon – azt állítja, hogy van egy régi, klasszikus iránya a kognitív műveleteknek, ami a tömegmédián, tévén, újságokon keresztül történik, és amióta ezek a formátumok léteznek, jelen is van. Emellett jelentek meg az elektronikus átviteli megoldások, mint például a közösségi média, amelyeket masszívan befolyásolnak az emergens kulcstechnológiák.

— Hol húzódik a határ a klasszikus információs műveletek és az AI által felerősített befolyásolási technikák között? Miért súlyosabb az egyik, mint a másik?

— A mesterséges intelligencia tényleg egy olyan jellegű, emergens technológia, ami miatt nagyon sok mindent újra kell gondolni – a kognitív, a fizikai és a logikai dimenzióban egyaránt. Hogy ezt jobban kifejtsem: a mesterséges intelligenciával rengeteg lehetőség és rengeteg probléma is keletkezett. Miért felforgató technológia? Talán a legfontosabb az, hogy kiszámíthatatlan. Ezt úgy értem, hogy egy emberi tevékenységnek van egy jól ismert pszichológiája és motivációja. A mesterséges intelligencia ezzel szemben valószínűségi sorozatokon alapuló döntések halmaza.

Tehát fogalmunk sincs igazán, hogy a sok lehetséges lépés közül a végén miért pont az az eredmény jön ki.

Ez az alapvető problémánk a kognitív dimenzióban, tehát a befolyásolás területén is. Míg egy ember által generált tartalomnál általában tudjuk, miért pont az a végeredmény, egy AI-generált tartalomnál sokszor nem tudjuk, miért az jött ki. Itt szokás példaként említeni a hallucinációt, ami jól ismert jelenség. Nem tudjuk pontosan, hogy hallucináció során miért pont azt mondja a modell, amit mond. Nyilván tudjuk, hogy az eredeti modelleket úgy programozták, hogy megfeleljenek az emberi elvárásoknak, és ne hagyják információ nélkül a kérdezőt – még akkor sem, ha ennek az az ára, hogy az információ téves.

De a hallucinációk egyre kevésbé észrevehetők, és ez szépen, finoman tolja el az emberi gondolkodást. Befolyásolja azt – és nem tudjuk, ennek mi lesz a vége.

Míg mondjuk egy oltásellenes mozgalomnál nagyjából pontosan tudjuk, mi mozgatja őket, milyen érvekkel élnek, és milyen hatásai vannak mindennek; tudjuk azt is, hogyan kell egy ilyen mozgalmat társadalmi szinten elszigetelni a többségtől. Egy mesterséges intelligencia esetében viszont fogalmunk sincs, hogy a neki feltett kérdésekre adott válaszok hogyan fogják alakítani és eltolni a közgondolkodást. Lehet, hogy két ember nem ugyanazt a választ kapja ugyanarra a kérdésre – sőt, akár ugyanaz az ember sem, ha kétszer egymás után teszi fel.

A másik probléma a hihetetlen gyorsaság.

Itt az AI-ügynökök kérdését hoznám fel. Az ügynökök segítségével olyan bámulatos sebességgel lehet elterjeszteni bármit, amire egyszerűen nem tudunk időben reagálni, aminek nem tudunk érdemben gátat szabni. Példának a gerjedés folyamatát hoznám. Mindannyian ismerjük: kell hozzá mikrofon és hangfal. Ha közel visszük őket egymáshoz, gerjedés keletkezik, ami nagyon kellemetlen. Úgy oldjuk meg, hogy lehalkítjuk, vagy eltávolítjuk egymástól az eszközöket. Az AI-ügynökök is így tudnak működni: ha nincsenek kellően kontrollált környezetben, könnyen létrejöhet egy olyan állapot, amit nem tudunk időben „elvágni”, letekerni. Kognitív műveleteknél gondoljunk csak arra, mi történik, ha álhíreket gyártanak – a választások alatt is szóba került, hogy Magyarországon  voltak álprofilokból érkező tartalmak. Mi történik, ha egy sok profillal rendelkező, kifejezetten információs műveletekre kihegyezett informatikai környezetben elszabadul egy AI-ügynök? Milyen bődületes sebességgel tud elterjeszteni igaznak tűnő információkat, amelyeknek tömeges hatásuk lesz?

— Hisz a laikus tömeg nehezen is tudja tetten érni. A magyar választás kampányidőszakában hogyan találkozhattunk ezzel a jelenséggel?

— Én az újságcikkeket olvasom, illetve azokat a kutatókat követem, akik kifejezetten dezinformációval foglalkoznak. Nekem csak benyomásaim vannak, és az a benyomásom, hogy közel sem volt ez annyira profin megszervezve, mint amennyire a technológia lehetővé tette volna. Ilyenkor még működik a társadalom immunrendszere is a dezinformációval szemben. Ez a valóságra vonatkozó megélésünk: elhiszünk dolgokat, vagy nem hiszünk el dolgokat.

A jelenlegi választásnál, úgy gondolom, működött a magyar állampolgárok immunrendszere. Illetve volt egy ellendózis, amit független sajtónak nevezünk, és amely kiemelte ezeket a dolgokat.

Egyébként ez az állam feladata lett volna, de ezt most engedjük el. A lényeg, hogy ez működik. Az AI sebességével, AI által terjesztett tartalmaknál – ahol az ügynök képes reagálni a történésekre, adott esetben gyorsabban és „hitelesebben”, mint valaki, aki a billentyűzet mögött ül – a hírek és információk terjedése nehezebben lesz követhető. Nem mondom, hogy ez megtörtént Magyarországon. Azt sem mondom feltétlenül, hogy ez történni fog. Azt mondom, hogy a technológia – különösen az AI-ügynökök elterjedésével – nagyon hamar olyan helyzetet teremthet körülöttünk, amit akkor és ott nem fogunk tudni érdemben befolyásolni, és ennek súlyos következményei lesznek.

— Milyen szerepe lehet az embernek egy olyan környezetben, ahol a dezinformációs rendszerek már képesek automatizáltan tanulni és finomhangolni az üzeneteiket? Mi itt az indító és mi a fogadó oldal szerepe?

— A legfontosabb talán az, hogy az emberiségnek tanulnia kell. Képben kell lenni azzal, hogy létezik a mesterséges intelligencia mint technológia, és legalább felületesen tudni kell, hogy mire képes. A társadalom széles rétege mostanában találkozott olyan szakkifejezésekkel, mint a deepfake. Ez egy olyan technológia, amire nincs társadalmi immunitásunk, és ezt az immunitást úgy tudjuk megszerezni, ha olyan környezetben találkozunk vele, ami még nem fáj annyira. Ez nem jelenti azt, hogy képesek leszünk biztosan felismerni ezeket a tartalmakat. Mindenféle kutatás – itt Magyarországon is – azt mutatja, hogy minél idősebb valaki, annál nehezebben ismeri fel őket. Ez persze nem jelenti azt, hogy a fiatalok 100%-osan képesek detektálni – csak arányaiban jobban, mint az idősebb generáció. De már az, hogy tudjuk: van ilyen, lehetővé teszi, hogy feltegyük a kérdést: vajon ez valós lehet-e? Ez az egyik oldala. A másik, hogy

az AI-vonaton most látszólag nincsen fék, ami roppant fájdalmas.

Az Európai Unió próbál valamiféle fékeket beépíteni a rendszerbe, de úgy tűnik, hogy ebben több nagyhatalom nem érdekelt. A szabályozás – ez a fajta előrelátás – mindenképpen fontos lenne. Őszintén szólva nem látom jelét annak, hogy az államok kellő gondossággal állnának hozzá a mesterséges intelligencia korlátozásához. A harmadik dolog – és ez az OpenAI-val kapcsolatban is felmerül – a felelősség kérdése. Rögtön az volt az első gondolatom, hogy az OpenAI modelljeire nagyon sokan „rákaptak”, köztük olyanok is, akiknek fogalmuk sem volt arról, mit jelent a biztonságos üzemeltetés. És ahogy a szaksajtóban is olvashattuk, történtek olyan malőrök, amelyekre nem nagyon számítottak. Aztán erre jött rá az Anthropic a Mythos modelljével, amit ki sem engedtek hétköznapi használatra. Ha jól emlékszem, 11 szoftvercég kapta meg a modellt azzal a céllal, hogy sebezhetőségeket, hibákat keressenek benne. Vannak modellek, amelyek biztosan nem valók avatatlan kezek közé. Ha mégis odakerülnek, akkor nagyon komoly felelőssége van azoknak, akiknek a kezében ott vannak ezek a modellek, ezek az ügynökök. A szakma sem 100%-ig biztos abban, hogy mindenki képes lesz kellő gondossággal használni őket.

— Beszéltünk arról, hogy a dezinformáció ellen a megcélzott tömeg edukációjával lehet harcolni, és vannak jogi lehetőségek is. De technológiai oldalról milyen hibáik vannak ezeknek a dezinformációs műveleteknek, amelyeket ki lehetne használni? Ezt találta meg az Anthropic a Mythos-szal?

Krasznay Csaba a teljes egészében az AIToday.hu-n olvasható interjú folytatásában arról beszél, hogy

- miért kulcskérdés a társadalom „immunizálása”, például az oktatási rendszeren keresztül,

- bár az uniós DSA kiváló, a nagy technológiai cégek felett hatékonyabb kontrollra lehet szükség,

- harctéri katonai műveletekben konkrétan mire használják a mesterséges intelligenciát,

- milyen jelentősége van és lehet az AI-nak a geopolitika színpadán,

- mennyire gyorsan terjednek az AI-tartalmak – például deepfake videók –, és hogyan képesek befolyásolni a közhangulatot vagy akár egy választást.

FOLYTATÁS ITT.


Link másolása
KÖVESS MINKET:

Ajánljuk

JÖVŐ
A Rovatból
Bereczki Nóra: az AI nem alkotótárs, csak eszköz – a kreatív munka legfontosabb részei az embernél kell, hogy maradjanak
A marketingszakértő egyetért azzal, hogy a generatív AI egyszerre nyit lehetőségeket és jelent új kihívásokat a kreatív iparban, de az ember szerepe megkérdőjelezhetetlen. Az AIToday-nek kifejtette: az új technológiák használatában egyre fontosabbá válik a szakmai háttértudás.


Az AI szerepe a kreatív iparban ma már megkerülhetetlen kérdés, de korántsem egyértelmű, hogy hogyan érdemes kezelni - akár alkotói, akár ügyfélszinten. Bereczki Nóra marketingszakértő a Budapest Smartfest Nemzetközi AI Filmfesztiválon válaszolt az AIToday.hu kérdéseire, és felvázolta, hogyan látja az AI helyét az alkotási folyamatban, illetve miért tartja fontosnak, hogy a technológiát ne alkotóként, hanem eszközként kezeljük. A robotika és ipari automatizáció területén globális marketingvezetőként is megfordult szakember úgy látja, a minőségi munka még mindig az emberi irányításon múlik, még akkor is, ha az AI jelentősen átalakítja a folyamatokat.

Saját, Digital Umami nevű projektjében kifejezetten AI-alapú vizuális koncepciókat mutat be, miközben tanácsadóként a reklámipar szereplőivel is együtt dolgozik.

E területről érkezve látja, miként változtatja meg a generatív AI a film- és reklámipari munkát, milyen tévhitek élnek a gyorsaságról és költségekről, és miért válik egyre fontosabbá a szakmai háttértudás az új technológiák használatában. Bereczki Nóra arról is beszélt, hogy a Digital Umamiban hol és hogyan feszegeti az AI lehetőségeinek határait, miközben ezt a kísérleti területet külön kezeli a klasszikus marketingmunkáitól.

— Az AI ma már nemcsak eszköz, hanem sokak szerint alkotótárs. Ez inkább növeli az alkotói szabadságot, vagy inkább függőséget teremt?

— Ezt az „alkotótárs” kifejezést sokan használják, de őszintén szólva, nem szeretem, ha így nevezzük. Én az AI-t eszközként kezelem. Vannak dolgok, amire jó az AI, és van, amire nem. Körülbelül négy éve foglalkozom AI-alapú kép- és videógenerálással. A hátterem a marketing és a fotózás, és a fotózás kapcsán elég sok dologhoz visszanyúlok az AI-alkotás során is (pl. kompozíció, perspektíva, fényelés stb.). Azért mondom, hogy eszköz, mert az alkotási folyamatnak vannak olyan részei, amelyek mindenképpen az embernél kell, hogy maradjanak. Ilyen például a koncepció, a vízió, hogy mi az a sztori, amit el akarok mondani. Ilyen az art-direkció is, tehát hogy legyen jól összerakva vizuálisan az anyag: stimmeljen a színezés, a márkáknál a brand-elemek, a filmeknél pedig a frame-ek, a világítás stb.

Az art-direkció rendben tartása szintén emberi feladat, ahogy a kontroll is a végén.

Nagyon sokszor előjön, hogy ellenőrizni kell a munkánkat, és ez mind az ember kezében van. Az AI ebben a fejlődésben egy eszköz, amihez azért nyúlunk, mert segít, hogy ezek a víziók és koncepciók létrejöjjenek. Úgyhogy én nem szeretem ezt az „alkotótárs” kifejezést használni, inkább egy nagyon fejlett technológiai eszközként tekintek rá.

— Meddig segítség az AI, és hol van az a pont, ahol már elveszi az alkotói munka karakterét?

— Ezzel nagyon sokszor találkozom. Sokan elkezdték úgy használni az AI-t, hogy teljesen rátámaszkodnak: a sztori megírásától kezdve az összevágáson át egészen a hanggenerálásig. Viszont ilyenkor nagyon-nagyon sokszor látszik, ha nincs mögötte az emberi irányítás és kontroll. Ezek az alkotások általában ki is szoktak hullani a rendszerből. Ez azért érdekes kérdés, mert létezik az AI-slop – ezzel a kifejezéssel biztosan sokan találkoztunk –, ami azt jelenti, hogy rengeteg olyan igénytelen tartalom születik, ami AI-jal készül, és elárasztja az internetet. Viszont, ha megnézed, hogy melyek azok az alkotások, amik kiemelkednek vagy megmaradnak, ott nagyon jelentős az emberi részvétel az egész folyamatban. Tehát értem a kérdést, és látok rá sajnos sok példát, de azt is látom, hogy ahol a végén minőségi munka születik, ott az ember marad az irányító szerepben.

— Sokan mondják, hogy az AI demokratizálja az alkotást. Egyetértesz ezzel? Az AI-slop jelensége például nem egy ellenérv?

— Én azt látom, hogy az AI nagyon sok folyamatot leegyszerűsít, és olyan alkotások is létrejöhetnek, amelyek különböző okok miatt eddig nem készültek el. Mondok egy példát. Három évvel ezelőtt egy argentin filmrendezővel beszélgettem egy hasonló filmfesztiválon. Azt mondta,

azért nyúl az AI-hoz, mert most jött egy olyan technológia, amivel végre be tudja fejezni a filmjét, amin már évek óta dolgozott, de sosem kapott rá támogatást, vagy nem volt elég büdzséje.

Az ő esetében ez egy jó lehetőség, hogy azok az ötletek, amik ott porosodnak a rendezők fiókjában, most előkerüljenek, és a technológiai feltételeknek köszönhetően megvalósuljanak. Úgyhogy abban szerintem van igazság, hogy demokratizálódik a folyamat. A technológia segítségével szélesebb közönség számára is létrejöhetnek alkotások.

— Amikor valaki túlságosan ráhagyatkozik az AI-ra, az alkotói válságot eredményez, vagy csak egy nem túl produktív folyamatot?

— Én azt gondolom, hogy aki teljesen ráhagyatkozik mindenben, az a folyamat inkább egyfajta kiégésnek mondható. Tudod, amikor valaki csak leül és „letolja” a feladatot, de nincs benne az az emberi rész, ami miatt ez az egész jól tudna működni. Szerintem nagy hiba, ha ezt valaki kihagyja. Gondolj bele, milyen eredmény születhet, ha mondjuk egy operatőr kezébe kerül az AI, akinek megvan a szakmai tudása – és ez a típusú szaktudás baromi fontos lesz a következő években. Ha olyan emberek kezdik el használni, akiknek van egy nagyon erős szakmai hátterük, tudják, hogyan kell egy jó artdirekciót végigvinni, vagy ismerik az operatőri munkát, a kameraállásokat, a fényelést stb., akkor csodákat tudnak létrehozni. De ha csak arról van szó, hogy „jaj, most értelmetlenül létrehozok valamit”, akkor én ezt inkább egy kiégett állapotnak mondanám. És ez nem is feltétlenül alkotás.

— Felmerült, hogy az AI hatékonyabbá teszi a folyamatokat, de a hatékonyság növelésével jönnek az elvárások is: a film- és reklámiparban valószínűleg még többet, még gyorsabban, még olcsóbban kell majd alkotni.

— Az árazás nagyon nehéz kérdés. Ezzel nap mint nap találkozom, mert nekem is vannak ügyfeleim, és nagyon sokszor az az elvárás az ő oldalukon, hogy „úgyis AI, akkor legyen gyorsan, olcsón”. Sokan nem is tudják, hogy egy-egy ilyen műben mennyi meló tud lenni, csak máshogyan. Lehet, hogy egy bizonyos folyamatnál többet kell dolgozni, míg más folyamatokat fel tudsz gyorsítani.

De szerintem ez egy tévhit, hogy ezzel olcsón és gyorsan lehet nagyon sokat csinálni, ha minőségi végeredményt akarsz.

Hatékonyabban, az biztos. Én is segítek elmagyarázni az ügyfeleknek, hogy ha például létrehozunk egy videót, és abban egy dolgot csak úgy ki akarsz cserélni, persze, meg tudjuk csinálni, nem kell újra kivonulni egy stábbal. De ez nem egy perc alatt lesz meg, arra is rá kell szánni az időt, hogy szép és jó legyen.

— A reklámipar ügyfelei értik ezt? Vagy ez még egy edukációs időszak?

A teljes egészében az AIToday-en olvasható interjú folytatásában Bereczki Nóra

- arról is beszél, hogy az AI használata a reklámiparban jelentős edukációt igényel,

- elárulja, miért nem indokolt az AI alkalmazása minden márka esetében,

- kifejti, hogy saját munkájában a fotográfusi háttér segíti a vizuális tartalomkészítést, különösen, ha videókról van szó,

- bemutatja az adatbázis-alapú, moduláris gondolkodás szerepét a vizuális tartalomgyártás skálázásában és hatékonyabbá tételében,

- mesél a Digital Umami projektről, ahol kifejezetten AI-alapú tartalmakat készít, és hangsúlyozza az etikus használat fontosságát,

- kitér arra, hogy az AI terjedésével miért kap egyre nagyobb szerepet a kritikus gondolkodás.

FOLYTATÁS ITT.


Link másolása
KÖVESS MINKET: