JÖVŐ
A Rovatból

Csepeli György: A mesterséges intelligencia nemcsak áldásokat, hanem átkokat is hozhat az emberiségre



- A hálózat révén gyakorlatilag bárkit, bármikor elérhetünk. De bennünket is bárki, bármikor elérhet. Egyáltalán van értelme az olyan adatvédelmi törvényeknek, mint amit az Európai Unió bevezetett?

- Ha tetszik, ha nem, a digitális átalakulás halad előre. Az a négy tendencia, amiről beszéltem, nem függ egyikünk akaratától sem. A valóság kegyetlen logikájától hajtva terjeszkedik. Egy dolgot lehet tenni: megtanulni együtt élni vele. Az utolsó fejezetben beszélek az ellenállóképességről, ami mindig is nagyon fontos az emberiség számára. Azoknak biztosított túlélést és előnyt, akik átlátták annak a rendszernek az igazságtalanságait, az egyén jogait figyelmen kívül hagyó viselkedését, amely ellen harcolni kényszerültek.

A szabadságharcnak, amit folyamatosan kell vívnunk az állam, az intézmények, az akaratunkat kisajátító erők ellen, új eszközökre van szüksége. Meg kell tanulnunk programozni, hackernek lenni, meg kell tanulnunk megvédeni magunkat a kibertámadások ellen. Ezek megtanulható dolgok, csak jelenleg nincsenek olyan helyek, ahol megtanítják.

Az iskolában megtanítják a sinus-cosinust, a csonkakúpot és a többi felesleges dolgot, de a lényegről, hogy ehhez a világhoz hogyan kell alkalmazkodni, hogy a hasznát élvezzük és a kárát elkerüljük, még lövésük sincs a tanároknak. Most a koronavírus-járvány miatti digitális átállás az oktatásban sok szempontból egy „forradalmi pillanat” volt, mert ráébresztette a pedagógusokat és a szülőket, hogy vannak lehetőségek arra, hogy megvédjük magunkat. Az Európai Uniónak inkább oktatási-nevelési programokat kellene kezdeményeznie, amelyek segítségével az európai polgárok megvédhetnék magukat a rájuk leselkedő veszélyektől, úgy a multinacionális cégektől, mint az állami titkos szolgálatoktól. Kezdeményezésük fontos lehetne, csak éppen rossz irányban indultak el.

- A mesterséges intelligencia programok gondolatával egyidős az az aggodalom, hogy lehetnek-e ezeknek a „lényeknek” érzelmei, érzékei? Ön is említi a Frankenstein-történetet, vagy a 2001: Űrodüsszeiát, amelyben a Hal 9000 bosszúból megöli az egyik űrhajóst, mert ki akarják kapcsolni.

- Van egy elvi akadálya annak, hogy érdemi értelemben mesterséges intelligenciába épített emóciókról beszélhessünk. Az érzelmek, a vonzalom, a félelem, az undor és a többi lelkiállapot evolúciós értelemben már korábban kialakultak, mint a megértés. Ilyen szempontból a felnőtté válás folyamata többek között annak megtanulása, hogy intelligenciánk segítségével hogyan kontrolláljuk ezeket az érzéseket, hogy miként tudjuk megkülönböztetni a különféle ingereket aszerint, hogy azok szorongásra vagy reményre adnak okot. Ez a vírusjárvány azért is annyira idegesítő, mert az értelmünk légüres térben mozog. Nincsenek tények, senki nem tud semmit. A mesterséges intelligenciának az a sajátossága, hogy nem egyéni fejlődés révén jön létre, korlátozó tényező. Lehet érzelmeket szimulálni programozás révén. Az ember-gép interakcióban már most látjuk, hogy a szimulált érzések az ember szempontjából nagyon hatékonyak tudnak lenni. Ha Pygmalion beleszeretett a maga alkotta szoborba, miért ne szerethetne bele az ember a robotjába? Éppen az ELTÉ-n Miklósi Ádámnak van egy olyan kutatócsoportja, amely kutyákat próbál szimulálni gépi modellekben, és ahogy a kutya képes érzelmeket kimutatni, elvileg a robotok is programozhatók erre a funkcióra.

De az igazi, alapvető érzelmekre, ebben biztos vagyok, soha nem lesznek képesek ezek a berendezések. És ez nagyon jó, hogy így van.

- „A virtuális tömegek lázadásáról” beszél a közösségi oldalak kapcsán. A Facebook és társainak előnyei vitathatatlanok, ugyanakkor olyan trendeket is rákényszeríthetnek a felhasználókra, amelyek ártanak az egyéniségeknek, és azoknak jó, akik a „csordaszellemben” érzik jól magukat.

- Ez a digitális rabszolgaság! Régen hálóval kapták el az embereket, aztán cinikus gazemberek eladták őket a rabszolgapiacon.

A digitális rabszolgaságban viszont mi adjuk el magunkat. Önszántunkból megyünk fel a Facebook, az Instagram, a Twitter platformjaira, és kínáljuk fel magunkat, hogy az adataink révén alkossanak algoritmusokat, amelyek aztán osztályoznak bennünket ide-oda.

Lényegében önmagunk okozta rabságba kerülünk úgy, hogy már nem tudunk visszakozni. De megint előjön az ellenállás kérdés: a megfelelő nevelés, tanulás révén kontrollálni tudjuk magunkat és kizárólag azokra a funkciókra használjuk ezeket a platformokat, amelyekből előnyünk származik és nem hagyjuk, hogy az adataink révén kiszolgáltassuk magunkat a saját életünk adta algoritmusoknak, melyek nagyon fontos összetevői az életünknek, de lássuk be: nem azért élünk, hogy az algoritmusoknak megfelelően a nap 24 óráját úgy töltsük, mintha automaták lennénk. Az életünk azért van, Hankiss Elemért parafrazálva, hogy gondolkozzunk az élet értelméről: arról a titokról, hogy miért vagyunk. Ez nem algoritmizálható.

Akit el tudunk juttatni a tudatosságnak erre a fokára, és folyamatosan ébren tudjuk benne tartani a kíváncsiságot önmaga és mások iránt, annak nem kell félnie ezektől a rabszolgatartó mechanizmusoktól. De ha nincs egy ilyen edukációs elem beépítve a társadalomba, a legveszedelmesebb negatív utópiákra számíthatunk.

- Ezek az oldalak sokak számára azt jelentik, hogy „tartoznak valahová”. Ahogyan régen a grundon a focicsapat, később a galerizés, a bandázás, vagy valamilyen mozgalom...

- Ezen a környéken nőttem fel, közvetlenül a II. világháború után, lejártunk focizni a Sashegyre, és előfordult, hogy felrobbant egy bomba és valaki meghalt közülünk. De az a bomba és az a halál valóságos volt. A digitális korszakot megelőző közösségi találkozásoknak volt egy fizikai realitása. Most azonban egy virtuális térről beszélünk, és a virtuális közösségek bizonyos értelemben elvisznek bennünket a valóságos lét problémáitól. A heideggeri „létfelejtés” állapotában eltűnünk, feloldódunk, és felesleges dolgokkal foglalkozunk. Ez a kisebb baj.

A nagyobb baj az, hogy a lélek legkülönbözőbb kóros megnyilvánulásai, amelyek a mindennapi életben is bőven tapasztalhatók – a fóbiák, a kényszerességek, a féltékenységek, a szorongások, a depressziók – a létnek az emberi állapotból adódó sebei folyamatosan felfakadnak a virtuális szférában, mert ennek a szférának nincs olyan visszajelző, kontrolláló, normaszabó hatása, mint a való életnek.

>Ráadásul az egyik sérült megtalálja a másikat, majd hálózatba szerveződnek. Ennek egészen tragikus következményei lehetnek. Egyik tanítványom írt például szakdolgozatában anorexiás lányok közösségéről, akik egymást licitálták túl a fogyásban, egészen az öngyilkosságig.

- Önmagunk kiadásával szabad prédákká válunk a totális ellenőrzésre törekvőknek, akik az adatok birtokában mindenkinek megtalálhatják a gyenge pontját, és egy idő után már észre sem vesszük, hogy irányítanak bennünket.

- Ez feltétlenül így van.

A demokratikus berendezkedésű államokban a választások már egyáltalán nem demokratikusak.

Láthattuk a 2016-as amerikai elnökválasztást. A helyzet idén novemberben még érdekesebb lesz, mert már az ellentábor is ismeri a módszert. Ezekben a társadalmakban is ott van ez a tendencia, mely rettenetes veszélyek forrása, de mivel megvannak a jogállamiság normái, megvan az emberi jogok tisztelete, bizonyos korlátok azért vannak.

Persze ha digitális rabszolga akarok lenni, abban senki sem tud megakadályozni. Ha nekem az a jó, hogy bemérnek és minden pillanatomban egy olyan reklámmal bombáznak, ami kielégíteni az én teljesen értelmetlen és ostoba vágyaimat, az az én felelősségem. De autoriter rendszerek kezében ez az eszköz egészen végzetes lehet, mint ahogy azt Kína kapcsán látjuk.

Az ember megítélésére kialakított pontrendszer oly mértékben gúzsba köti az embereket, oly mértékben ellene van mindennek, ami az emberi lét szabadságához tartozik, hogy nincs szó az elítélésére. Ha olyan hajdani diktátorok, mint Sztálin vagy Hitler, újraélednének, megnyalnák a tíz ujjukat, hogy egy ilyen eszközhöz jutottak.

- Mi lesz azokkal, akiknek a mesterséges intelligencia feleslegessé teszi a munkáját, ugyanakkor nem képesek lépést tartani a technológiai fejlődéssel? És vajon mekkora tömeget képviselnek a társadalomban?

- Ez vélhetően egy nagy tömeg lesz, de amikor én „fölöslegességről” beszélek, ezt csak a társadalmi munkamegosztás szempontjából vetem fel.

Már ma is azt látjuk, hogy a munkák 80%-a teljesen örömtelen és értelmetlen, csupán időtöltések.

Minél több ilyen pozíciót váltunk ki és hagyományozunk át hálózatba szervezett, vagy csak autonóm módon működő gépi intelligenciákba, annál inkább felmerül a kérdés, hogy mit kezdjünk ezekkel az emberekkel, pontosabban: hogyan ébresszük rá őket, hogy tanuljanak? A „fölöslegesség” nem egy végzetszerű megfosztottság, hanem az a lehetőség, hogy megszabaduljunk az élet mindennapi nyűgétől, amit a munka jelent – a szó az orosz „mukából” származik, eredeti értelme „kín”. Helyette alkothatunk, örömet szerezhetünk másoknak. Az új helyzet arra szólít fel bennünket, hogy ne legyünk feleslegesek, mutassunk meg, mit érünk.

Ha lenne garantált alapjövedelem, és én ezt nagyon pártolom, nem a kirekesztettség felé löknék ki az embereket, hanem egy megfelelő egzisztenciális alappal látnák el őket, másfelől pedig az alapjövedelem lehetőséget biztosítana az önfelszabadításra. Éppen ezért szerintem ezt a lépést előbb vagy utóbb, de meg fogják tenni a modern ipari társadalmak.

A munka-ideológia, amivel előjött a kormánypárt, tulajdonképpen ugyanaz, mint ami az 1950-es években volt, és igazából semmit nem jelent. Nem a munka társadalmát kell megteremtenünk, hanem a szabadságét, amihez hozzátartozik a tudás, az alkotás, az újítás, a szellemi valóság építése.

- Milyen lesz az Ember 2.0? Folytatódik az evolúció, a mesterséges intelligencia túllép az emberen, vagy sikerül az embert és a gépet egymásra hangolni? Ennek kapcsán szóba kerülhet az emberek génmódosítása is, amelynek szintén megvan a maga kockázata.

- A génmódosítás terén még nagyon a lehetőségek elején tartunk. Egyelőre nem kell attól félni, hogy úgy szabjuk-varrjuk az embrióinkat, ahogy a nadrágunkat. A jelenlegi stádiumban én a pozitívumot látom például a rákgyógyításban: ha megtalálják a genetikai alapokat, molekulárisan lehet beavatkozni. Napjaink rákbetegeinek egy része nem a rákba hal bele, hanem a terápiába, mert olyan mértékben pusztítják a sejteket akár sugárkezeléssel, akár kemoterápiával, hogy a test már nem bírja ezt a megterhelést.

A gyógyászatban a genetikának óriásiak a távlatai a betegségek megelőzésében: ha ismerjük egy ember genomját, tudhatjuk előre, hogy egy bizonyos életkorban milyen betegség vár rá. És ezáltal kellő időben be lehet avatkozni, hogy a betegség ne következzen be.

Hogy a jövőben milyen veszélyei lehetnek a génmódosításnak, az egy nagyon fontos etikai probléma. Beszélek is a könyvben a mesterséges intelligenciák korának etikai problémáiról. Eddig Isten intézte ezeket a genetikai ügyeket, de úgy tűnik, néha félrenézett. Hátha mi jobbak leszünk ebben – de nem biztos.

- A könyvet Nagy László-idézettel zárja: „Ki viszi át fogában tartva/a szerelmet a túlsó partra.” Erről eszembe jut az a híres portréfilm, amelyben a költőtárs Kormos István beszélget Nagy Lászlóval, és megkérdezi tőle: mit üzen azoknak, akik 100 év múlva látják a filmet. Nagy László így válaszol: „Ha lesz emberi arcuk, csókolom őket. Ha lesz emberi szellemük, tudatom velük, hogy csak ennyit tudtam tenni értük.” Mi, a háború utáni 10 évben születettek, mit hagyunk az utánunk következőkre?

- Az a portréfilm életem egy legmeghatározóbb élménye, nem véletlenül választottam tőle a fejezet címét. Szerencsére a mi nemzedékünknek is voltak, vannak Nagy Lászlóhoz mérhető tehetségei, és ha arra gondolok, hogy mit hagynak örökül, nincs ok szégyenkezésre. Esterházy Péter nem kevésbé fontos ebben az áthagyományozási folyamatban, mint Nagy László, de jelenleg van a magyar kultúrának, főleg az irodalomnak, színháznak, költészetnek, de még a képzőművészetnek egy olyan kivirágzása, ami derűlátásra ad okot. Elég csak olyan szerzőkre gondolni, mint Bereményi Géza, akinek most olvastam Magyar Copperfield című regényét, s nyomában ott van Spiró György, Krusovszky Dénes, Péterfy Gergely vagy Erdős Virág.

Csillagözönben vagyunk, és a jövő, ha visszanéz ránk, világosságot kap ezektől a csillagoktól.

Csepeli György telefon csengőhangja Wagner: A Walkűrök lovaglása, amely számomra (is) örökre összefonódott Francis Ford Coppola Apokalipszis, most című filmjével. Reméljük, hogy ez csak egy véletlen alapú asszociáció és a következő évszázadok „emberfeletti embere” nem a végítéletet hozza el fajtájának.


Link másolása
KÖVESS MINKET:

Népszerű
Ajánljuk
Címlapról ajánljuk


JÖVŐ
A Rovatból
A mesterséges intelligencia képes lehet akár tíz évre előre megjósolni, hogy kinek milyen betegsége lesz
A modell névtelen kórlapok mintáit figyeli, és évekre előre megmutatja, hol nagyobb a kockázat. A fejlesztők szerint így hamarabb lehet beavatkozni, és még az is tervezhető, hány szívinfarktusra kell készülnie egy városnak 2030-ban.


A kutatók szerint a mesterséges intelligencia akár tíz évre előre jelezhet egészségi gondokat, írja a BBC. A rendszer az emberek egészségügyi adataiban keres mintákat, és több mint 1000 betegség kockázatát számolja. Úgy írják le, mint egy időjárás-előrejelzést: százalékban adja meg a valószínűséget. A cél, hogy időben kiszűrje a magas kockázatú embereket, és évekre előre segítse a kórházak tervezését.

A Delphi-2M nevű modell hasonló technológiára épül, mint a közismert MI-chatbotok, például a ChatGPT. A chatbotok nyelvi mintákat tanulnak, és megjósolják, milyen szavak követik egymást. A Delphi-2M névtelenített egészségügyi adatokból tanulta meg felismerni a mintázatokat, és így jelzi előre, mi következhet és mikor. Nem mond pontos dátumot, hanem 1231 betegség valószínűségét becsli.

„Ahogy az időjárásnál 70 százalék esélyt jelezhetünk az esőre, ugyanezt meg tudjuk tenni az egészségügyben is”

– mondta Ewan Birney professzor, az Európai Molekuláris Biológiai Laboratórium megbízott főigazgatója. „Ráadásul nemcsak egy betegségre, hanem egyszerre az összesre – ilyet még soha nem tudtunk. Izgatott vagyok” – tette hozzá.

A fejlesztők először brit, névtelenített adatokon tanították a modellt: kórházi felvételek, háziorvosi adatok és életmódbeli szokások (például dohányzás) több mint 400 ezer résztvevőtől a UK Biobank projektből. Ezután más Biobank-résztvevők adataival ellenőrizték az előrejelzéseket, majd 1,9 millió ember dániai egészségügyi adatán is letesztelték. „Ha a modellünk azt mondja, hogy a következő évben tízből egy az esély, akkor tényleg nagyjából tízből egy esetben következik be” - tette hozzá Birney professzor.

A rendszer azoknál a betegségeknél működik a legjobban, amelyeknek jól követhető a lefolyása, például a 2-es típusú cukorbetegség, a szívinfarktus vagy a szepszis. Az inkább esetleges fertőzéseknél gyengébben teljesít.

Az orvosok ma is írnak fel koleszterincsökkentőt annak alapján, mekkora valakinél a szívinfarktus vagy a stroke kockázata. Az MI-eszköz még nem áll készen a klinikai használatra, de hasonló módon tervezik alkalmazni: korán azonosítani a magas kockázatú embereket, amikor még van esély megelőzni a betegséget. Ez jelenthet gyógyszert vagy célzott életmódtanácsot – például akinek nagyobb az esélye bizonyos májbetegségekre, annak a szokásosnál jobban megérheti visszavenni az alkoholfogyasztásból.

Az MI a szűrőprogramok tervezésében is segíthet, és egy térség összes egészségügyi adatát elemezve előre jelezheti a várható igényeket,

például hogy 2030-ban nagyjából hány szívinfarktus várható egy adott városban.

„Ez egy újfajta megközelítés kezdete az emberi egészség és a betegséglefolyás megértésében” – mondta Moritz Gerstung professzor, a Német Rákkutató Központ (DKFZ) onkológiai MI-osztályának vezetője. „Az olyan generatív modellek, mint a miénk, egy napon személyre szabhatják az ellátást, és nagy léptékben előre jelezhetik az egészségügyi szükségleteket.”

A Nature tudományos folyóiratban ismertetett modellt még finomítani és tesztelni kell a klinikai használat előtt. Torzítást okozhat, hogy a UK Biobank adatai főként 40–70 éves emberektől származnak. A fejlesztők most bővítik a modellt képalkotó vizsgálatokkal, genetikai információkkal és vérvizsgálati eredményekkel.

„Fontos hangsúlyozni, hogy ez kutatás – mindent alaposan tesztelni, szabályozni és átgondolni kell, mielőtt használni kezdjük, de a technológia adott ahhoz, hogy ilyen előrejelzéseket készítsünk” – nyomatékosította Birney professzor. Úgy véli, a genomika egészségügyi bevezetéséhez hasonló utat járhat be a folyamat: a tudósok bizalmától a rutinszerű klinikai használatig akár egy évtized is eltelhet.

A kutatás az Európai Molekuláris Biológiai Laboratórium, a Német Rákkutató Központ (DKFZ) és a Koppenhágai Egyetem együttműködésében készült. Gustavo Sudre, a King’s College London kutatója így értékelt: „Ez a munka jelentős lépés a skálázható, értelmezhető és – ami a legfontosabb – etikailag felelős orvosi prediktív modellezés felé.”


Link másolása
KÖVESS MINKET:

Ajánljuk
JÖVŐ
A Rovatból
Megkezdték a humanoid robotok tömeggyártását Kínában
A cég több ezer előrendelést említ, az ár körülbelül 11,5 millió forint. A mozgásnál emberi mintákat követnek: a végtagok összehangolását szimulációk és utánzásos tanulás segíti.
Maier Vilmos - szmo.hu
2025. szeptember 27.



A kínai Kepler Robotics elindította a K2 Bumblebee humanoid robot tömeggyártását, írja a Rakéta. A modellt logisztikai munkákra, gyártási feladatokban segítésre, kiállításokra és „speciális műveletekre” szánják.

A K2 hibrid architektúrával működik, ami energiahatékony üzemet tesz lehetővé. A gyártó szerint a humanoid egyhuzamban akár 8 órát is dolgozik.

Az ár a hasonló, általános célú humanoidokhoz képest kicsivel magasabb:

körülbelül 11,5 millió forint.

A robotra már több ezer megrendelés érkezett.

A cég a külalakot kevésbé, a mozgást viszont nagyon „emberire” tervezte. A K2 Bumblebee imitációs tanulással és szimulációkkal sajátította el a járás emberihez hasonló jellegzetességeit, beleértve a végtagok mozgásának összehangolását.

A humanoid robotról készült videót itt lehet megnézni:


Link másolása
KÖVESS MINKET:

Ajánljuk

JÖVŐ
A Rovatból
Sora 2: megjöttek a videók, amiket a képtelenség megkülönböztetni a valóságtól
Náci egyenruhába bújtattak hírességek, meghamisított történelmi események, kamu filmjelenetek igazinak tűnő színészekkel – máris ilyen videók készültek az OpenAI legújabb videógeneráló modelljével, ami egyszerre lenyűgöző és félelmetes.


A Sora 2 videógeneráló modell szeptember végén jelent meg, azzal az ígérettel, hogy a korábbi változathoz képest jelentősen javult a fizikai pontosság, a realizmus és az irányíthatóság. Mivel az OpenAI már a Sora tavaly decemberben kiadott első változatát is – a ChatGPT sikerével párhuzamba állítva – a videókészítés „GPT‑1 pillanatának” nevezte, nagy várakozások előzték meg a „GPT‑3.5 pillanatként” beharangozott Sora 2-t.

Az első verzió fejlesztői változatáról a demók alapján azt írtuk, olyan minőségű filmekhez, amelyeket szöveges utasításra generál, normál esetben külső helyszínekre, díszletekre, profi felszerelésekre és szakemberekre, statisztákra, illetve színészekre lenne szükség, de „úgy fest, hogy mostantól egyetlen AI, a Sora is elég lesz hozzá”.

Nyújthat ennél is többet egy videógeneráló modell? A Sora 2–nek a jelek szerint sikerült, mert a világ egyik ámulatból a másikba esik a vele készült mozgóképek láttán. Az OpenAI azt állítja, hogy az új modell kiküszöböli a korábbi videógenerálók jellemző hibáit, például az amorf tárgyakat és karaktereket, a torzult valóságot vagy a „túlzott optimizmust”. Utóbbihoz példát is kapcsol: ha egy generált videóban szereplő kosárlabdázó „elvéti” a dobást, az eddigi verziók inkább kicsavarták a realitást, és a labda még lehetetlen szögből is a gyűrűbe „teleportált”. Ehhez képest a Sora 2 a fizika törvényeivel teljesen megegyező módon bánik a tárgyak mozgásával: a labda a palánkba csapódik és pont úgy pattan vissza, ahogy az a valóságban is történne.

A tökéletlenség lehalkításával és a képminőség feltekerésével az OpenAI kisebb csodát alkotott: még egyszerű szöveges utasításokból is olyan videókat hoz létre, amelyeket a legtöbb néző képtelen megkülönböztetni a valóságtól. Az pedig, hogy mekkora a szakadék a versenytársak videógeneráló modelljei, valamint a Sora 2 között, remekül illusztrálja ez az összehasonlítás, amelyben a Google fejlesztette Veo 3–mal vetik össze a képességeit.

Ebben a videóban semmi sem valódi:

A gyorsan bővülő AI‑videópiacon persze vannak más vetélytársak is, például a Meta „Vibes” alkalmazása és a Meta Movie Gen modell, valamint az Elon Musk-féle xAI Grok Imagine-je. A Forbes hangsúlyozza, hogy utóbbi rendszerek 6–10 másodperces felvételeket készítenek, míg a Sora 2 akár egyperces videókat generálhat, illetve hangot is ad a tartalmakhoz, ami komoly fegyvertény a jelenlegi mezőnyben. És eddig minden jel arra mutat, hogy a Sora 2 a legerősebb videógeneráló AI.

Az OpenAI a modell széles körű – de egyelőre Észak-Amerikára korlátozott – bevezetése óta arra biztatja a felhasználókat, hogy a Sora 2 segítségével találjanak ki minél több új világot és történetet. A lehetőségeknek – látszólag – csak a képzelet szab határt, hiszen a modell képes az emberi hanghoz igazított dialógusok és hangeffektek generálására is, sőt, ha kell, a felhasználó hang‑ és videómintája alapján avatárt készít, így a saját filmünk főszereplőjévé válhatunk.

Mi változott? – A Sora 2 új képességei

Bár hozzáférés hiányában nekünk, magyaroknak egyelőre nincs összehasonlítási alapunk, az új modellről megjelent videókon valóban az látszik, hogy komoly szintlépés történt. Amíg a Sora demóiban a generált karakterek szemeit jótékonyan elrejtette valami (többnyire egy napszemüveg), a Sora 2 már nem tart az „uncanny valley” jelenségtől. Ez ugye az a nyugtalanító érzés, ami egy videojátékhoz vagy filmhez digitális eszközökkel létrehozott arc láttán tör ránk: hiába realisztikus a karakter, a tekintete természetellenes marad.

Az új modell már nem ilyen „félénk”: tisztában van vele, hogy amit előállít, teljesen életszerű, ezért nincs szükség trükközésre.

Olyannyira nincs, hogy az alábbi videóban látható és hallható Sam Altman sem Sam Altman, hanem egy Sora 2-vel létrehozott avatár, ami az OpenAI vezérigazgatójaként mutatja be a generatív AI képességeit. És ha erre nem figyelmeztetnek előre, aligha mondanánk meg, hogy nem a valódi személyt látjuk.

Az OpenAI szerint a Sora 2 legnagyobb újítása a fizikai törvények pontosabb szimulációja és a látvány élethű megjelenítése. A modell hosszabb és összetettebb cselekményeket, illetve akár többszereplős akciókat is képes kezelni, miközben megőrzi a mozgás törvényeinek koherenciáját.

A vállalat kiemelte, hogy a videók több jelenetből álló utasításokat követhetnek, és a rendszer megőrzi a generált világ állapotát: figyelembe veszi például azt, hogy a tárgyak az előző képsorban pontosan hol voltak. Ezzel már lehetséges akár több perces klipek és kisfilmek, ezáltal komplexebb narratívák létrehozása, de az OpenAI most még a rövid, gyorsan terjedő tartalmak felé tereli a felhasználókat, mert a játékos menőség meghozza a befektetők kedvét a további tervek finanszírozásához.

Lőttek a filmeseknek, vagy a Sora 2 csak egy új „ecset”, amivel alkothatnak?

Az OpenAI azzal hirdette a Sora, majd a Sora 2 rendszert, hogy a filmipar, az animációs stúdiók és a művészek eszköze lehet. A BBC Science Focus egyetért ezzel: azt írják, a rendszer megkönnyítheti animált klipek készítését, és ezzel időt, pénzt spórol. Az első verzió tartalmai ugyanakkor hemzsegtek a hibáktól. Ahogy arra a Washington Post is felhívta a figyelmet: a rendszer egy 1930‑as évekbeli jelenetben a cigaretta rossz végét gyújtotta meg vagy épp egyszerre több telefonkagylót adott a generált karakter kezébe, ráadásul hangot sem tudott létrehozni.

Ehhez képest a Sora 2 pontosságot és már szinkronizált hangot, illetve hangeffekteket is kínál, amivel elvileg tökéletesen alkalmassá válik a komplex szórakoztatóipari felhasználásra.

Az IndieWire elemzője ennek ellenére sem gondolja, hogy az új verzió a filmiparnak készült. A fejlesztők szerinte „nem törődnek Hollywooddal”, hiszen a platform elsősorban virális tartalmak gyártására ösztönzi az embereket, így a közösségi média új mémgyártó eszközévé válhat. És addig, ameddig ez csak igazoltatás elől meglépő Super Mario-s viccek szintjén realizálódik, nincs is nagy baj.

Ez még senkit sem bánt:

A gondok akkor kezdődnek, ha a könnyed hecceken túllépve valódi emberekről vagy valós eseményeket szimuláló helyzetekről készülnek valóságszagú kamuvideók, ami megnehezíti a független filmesek etikus AI‑felhasználását. Onnantól a Nintendo sem mókás rajongói videóként fogja kezelni a fentihez hasonló alkotásokat – ami még ingyen reklámot is csap a Mario Kart játékoknak –, mert attól tart majd, hogy a trend visszaéléseket szül, és óriási energiákat kell fordítani a szellemi tulajdona megvédésére.

A véleménycikk arra is figyelmeztet, hogy a Sora‑videók virális mémjei új frontot nyitnak a szerzői jogi háborúban, hiszen az AI‑userek óhatatlanul egyre kevesebbet törődnek majd a szellemi tulajdonnal, ezáltal tovább mélyítik az árkot az alkotók és az AI‑fejlesztők között. Az Indiewire ezzel kapcsolatban szakmai állásfoglalásokat sürget: úgy véli, ha a jogtulajdonosok és szakszervezetek nem alakítanak ki standardokat, elveszíthetik a harcot.

Osztja ezt az aggodalmat a WGBH-nak nyilatkozó digitális képzőművész, Kyt Janae is, aki szerint nem kell egy év, és szinte képtelenek leszünk megkülönböztetni az ember alkotta tartalmakat az AI-val generált képektől. Thomas Smith, a képek digitalizálásával, menedzselésével, kiadásával és monetizálásával foglalkozó Gado Images vezérigazgatója hozzátette:

a mesterségesen létrehozott képek miatt a valódi fotók is hitelességi válságba kerülhetnek.

Ezek a megállapítások azt jelzik, hogy a videógeneráló AI több területen okozhat károkat, a szórakoztatóipartól a politikán át a személyiségi jogokig.

Máris támadják az új AI-modellt

A Sora 2 indítását rögtön kritikák és aggályok kísérték. A The Guardian például arról számolt be, hogy a generált videók posztolására létrehozott TikTok-szerű app feedje hamar megtelt erőszakos és rasszista jelenetekkel, köztük bombázást és tömeggyilkosságot szimuláló tartalmakkal. Joan Donovan kutató ezzel kapcsolatban arra figyelmeztetett, hogy az ilyen eszközök elmossák a valóság és a hazugság között húzódó határt, ezáltal alkalmassá válhatnak gyűlöletkeltésre és zaklatásra.

Sam Altman ehhez képest a saját blogján a „kreativitás ChatGPT‑pillanataként” jellemezte a Sora 2 indulását, de óvatosan elismerte azt is, hogy például a bullying elkerülése érdekében nagyobb figyelmet kell fordítani a moderálásra.

A Rolling Stone közben példákkal illusztrálva mutatta be, hogy a realisztikus videógeneráló segítségével a felhasználók – csupán heccből – náci egyenruhába bújtattak hírességeket, történelmi eseményeket hamisítottak vagy éppen levédett karaktereket (Pikachu, Ronald McDonald, SpongeBob) használtak fel, ami szerzői jogi veszélyeket sejtet.

A Sora 2 kritikusait idézve a magazin azt írja, hogy az OpenAI „próbálja bepereltetni önmagát”.

A Vox cikke egyenesebben fogalmaz: felhívja a figyelmet arra, hogy a Sora 2 alapértelmezése szerint a jogtulajdonosok azok, akiknek kérvényezniük kellene a karaktereik eltávolítását, ami olyan, mintha a fejlesztők kifejezetten a szerzői jogok megsértése felé terelnék a felhasználókat.

Nem véletlen, hogy a kritikákkal szembesülő Sam Altman később frissítette a posztját, jelezve, hogy a jövőben a jogtulajdonosok „opt‑in” alapon adhatnak hozzá karaktereket az AI-modellhez, lehetővé téve, hogy a generált videók után részesedést kapjanak a bevételekből.

Őrületes energiaigény és a Sora 2 más pénzügyi hatásai

A modell bejelentését követően az elemzők felvetették, hogy a videók generálása rendkívüli mennyiségű számítási kapacitást és energiát igényel. Egyes kutatók szerint egy rövid, nagy felbontású videó generálása több mint 700‑szor több energiát fogyaszt, mint egy állókép létrehozása. Ennek következtében a jövő adatközpontjai már minden kétséget kizáróan nagyvárosokkal vetekedő energiazabáló – és karbonkibocsátó – szörnyetegek lesznek.

A Time elemzése rámutat: az AI‑videók ugyan drágák, de a cégek – köztük az OpenAI és a Meta – abban reménykednek, hogy a rövid videók gyártásával több előfizetéses felhasználó és befektető érkezik. Ez további bevételi forráshoz juttatja őket, ami még nagyobb modellek, egy napon pedig az általános mesterséges intelligencia megjelenéséhez vezethet.

Az AI-cégeknek tényleg nagyon kell a pénz, mert a generatív videómodellek fejlesztése hatalmas összegeket emészt fel. Ez az elemzők szerint idővel arra készteti majd a vállalatokat, hogy a befektetőktől és felhasználóktól beszedett pénzen túl a hirdetési piacon is terjeszkedjenek, illetve további előfizetési csomagokat találjanak ki, valamint árat emeljenek.

Mindeközben fontos cél a felhasználók viselkedési adatainak gyűjtése: a jövőbeli modellekhez a valós interakciók és preferenciák révén tudnak több és jobb tréningadatot gyűjteni.

Ami pedig a belátható jövőben érkező fejlesztéseket illeti, az OpenAI egyik korábbi közleménye felvetette azt is, hogy létrehoznak egy „világszimulátort”, amely pontosan modellezi a fizikai világ törvényeit, ezzel új tudományos problémákat lesz képes megoldani.

Új AI-evolúciós lépcsőfokok jönnek

A Sora 2 ezeknek a vízióknak a nagy reménysége, amitől azt várják, hogy további fejlesztéseket és több platformon elérhető verziókat eredményez. A megjelenése új korszakot nyit a generatív AI-k világában, hiszen bátran kijelenthetjük, hogy ennyire valószerű mozgásokat és hangeffekteket, illetve ilyen időtartamú történeteket még egyik videógeneráló AI sem tudott létrehozni.

Bár a fizika törvényeit még nem követi le tökéletesen és vastagon lehetőséget ad a visszaélésekre – a deepfake-től az erőszakos tartalmakon át a szerzői jogok megsértéséig –, a komoly etikai és jogi kérdések kezelése után érdemes lehet kihasználni a benne rejlő lehetőségeket.

A szakértők szerint hamar mainstream eszközzé válhat, de a társadalomnak – még új normarendszerek és hatékony moderálás bevezetése mellett is – fel kell készülnie arra, hogy a valóság és a mesterséges tartalom közötti határ elmosódik.

Mivel a gazdasági potenciál óriási, számolni kell a bővülésével és az energiafogyasztás növekedésével, valamint azzal, hogy a szellemi tulajdon megóvása érdekében ki kell harcolni a generált tartalmak után járó részesedést. Ezek az együttműködések – ha egyáltalán megköttetnek és aztán hosszú távon működőképesnek bizonyulnak – a kreatív tartalomgyártás ragyogó gyöngyszemévé varázsolhatják a Sora 2-t, illetve a jövőben érkező hasonló modelleket.


Link másolása
KÖVESS MINKET:


JÖVŐ
A Rovatból
Mesterséges intelligenciával hoztak létre egy színésznőt - a hollywoodi színészek kiakadtak
Tilly Norwood már ügynökségeknél is próbálkozik, hogy szerepet kapjon, de több ismert színész és a szakszervezet is tiltakozik ellene.


Eline Van der Velden holland színész és komikus egy mesterséges intelligenciával működő, Tilly Norwood nevű szintetikus színészt hozott létre. Az alkotó szerint ez „a képzelőerő megnyilvánulása”, és hasonló „egy karakter megrajzolásához, egy szerep megírásához vagy egy előadás megalkotásához”.

Tilly Norwoodnak már saját Instagram-oldala is van. Készítői bőrhibákat is megjelenítettek rajta, valamint olyan mondatokat írtak a nevében, mint például azt, hogy „nagyon izgatott” a jövő miatt.

A fejlesztők már több ügynökségnél is bejelentkeztek, hogy hollywoodi filmes szereplési lehetőséget szerezzenek neki.

A hollywoodi színészszakszervezet és több ismert színész is tiltakozik az AI-színész ellen. A szervezet közleményében úgy fogalmazott:

Norwood „nem színész, hanem egy számítógépes program által generált karakter, amit profi színészek munkájával tanítottak be.

Nincsenek élményei, amikből meríthetne, nincsenek érzelmei, és az eddig látottak alapján a közönséget sem érdekli a számítógéppel generált, emberi valóságtól elszakadt tartalmak”.

Emily Blunt a mesterséges színészt „ijesztőnek” nevezte. Natasha Lyonne szerint pedig bojkottálni kell mindenkit, aki együtt dolgozna vele. A BBC szerint Lyonne épp egy olyan filmen dolgozik, amelyben valódi színészek szerepelnek, és amelyben „etikus mesterséges intelligenciát” alkalmaznak.

Whoopi Goldberg úgy véli, hogy a közönség képes megkülönböztetni a valódi embereket a mesterséges intelligencia által generált alakoktól, mivel „másképp mozognak”.

Van der Velden egy közelmúltbeli előadáson azt mondta, szerinte a hollywoodi stúdiók és ügynökségek titokban támogatják a mesterséges intelligencia használatát, és a következő hónapokban nagy bejelentésekre lehet számítani ezzel kapcsolatban.

(via 444)


Link másolása
KÖVESS MINKET: