JÖVŐ
A Rovatból

Mindenben ott az AI – Las Vegasban bemutatkoztak a jövő kütyüi és autói

A Consumer Electronics Show-n (CES) mindig rengeteg újdonságot mutatnak be, de az idei kiállítás más volt, mint a többi: belökte az ajtón a küszöbön toporgó AI-t, ami már biztosan a legtöbb elektronikai eszközünk alapvető eleme lesz.


A CES a technológiai ipar egyik legnagyobb és legmeghatározóbb világkiállítása, ami ismét a legújabb innovációkat és trendeket vonultatta fel Las Vegasban, január második hetében. Az idei eseményen kiemelt figyelmet érdemeltek az AI-trendek, amelyek jól tükrözik az iparág jövőbeli irányait.

Gyakorlatilag nem marad olyan műszaki cikkünk, amiben ne bújna meg valamilyen módon a mesterséges intelligencia.

A CES a világ valószínűleg legnagyobb és legjelentősebb fogyasztói elektronikára specializálódott kiállítása, amit minden év januárjában, a Las Vegas Convention Centerben tart a Consumer Technology Association (CTA). Az idei rendezvény több százezer négyzetméteres területén 4500 kiállító (köztük 1400 startup) jelentkezett technológiai újdonságokkal, amelyeket bő kétmillió látogató nézett meg és próbált ki.

Gary Shapiro, a CTA vezérigazgatója már az eseményt nyitó sajtókonferencián kiemelte, hogy a CES 2025 talán legfontosabb szereplője az AI. „A generatív mesterséges intelligencia az innováció motorja” - mondta, hozzátéve: az AI-ökoszisztéma sok területen javítja a felhasználói élményt, növeli a termelékenységet, illetve fejleszti az egészségügyet és persze a mobilitást. Autóból pedig szokatlanul erős volt a felhozatal.

Indulhat az AI-vezérelt önvezető teherautó tömeggyártása

A CES-nek már évek óta kiemelt eseménye az Nvidia előadása, amelyet 2025-ben is Jensen Huang vezérigazgató tartott. A mintegy másfél órás beszámoló bővelkedett a szenzációkban, hiszen a vállalat számtalan ágazatot lát el nagyteljesítményű AI-hardverekkel. A legérdekesebb momentum az autóipar számára az Nvidia együttműködése az Aurora és a Continental vállalatokkal.

Az összefogás eredménye egy négyes szintű önvezetésre képes teherautó lesz, benne az NVIDIA DRIVE valós idejű, szenzoralapú adatfeldolgozást garantáló platformmal, ami az Aurora Driverre épül. Huang közölte: az Nvidia két további számítástechnikai rendszerrel és AI-szoftverrel járul hozzá az autonóm járművek fejlesztéséhez. Az egyik a mesterségesintelligencia-modellek és szoftverek betanítására szolgáló NVIDIA DGX, míg a másik a szimulációkra és önvezető rendszerek validálására alkalmas NVIDIA Omniverse.

Jensen Huang előadása

Az autóipar a CES-en látottak szerint egyértelműen a szoftvervezérelt járművek és a folyamatos „over-the-air” frissítések irányába mozdult el. Ezt remekül vette észre az Nvidia, és szépen lassan, de biztosan az önvezetés technológiai ökoszisztémájának kulcsszereplőjévé válik – még akkor is, ha akad legalább egy cég, amely már biztosan beelőzi az Aurorával és Continentallal közös projektet. És ez a John Deere.

A munkagépeket gyártó óriásvállalat több AI-alapú önvezető rendszerrel rendelkező járművet is bemutatott az idei CES-en, azzal a nyilvánvaló céllal, hogy az új technológiák segítségével elsőként reformálja meg a mezőgazdaságot, az építőipart és a professzionális tereprendezést. A vállalat új önvezető csuklós dömperét például kifejezetten kőbányák és infrastrukturális projektek automatizált anyagszállítására terveztek.

 

Közös EV-t dob piacra a Sony és a Honda

A Las Vegas-i kiállítás autóipari szekciója persze bővelkedett újgenerációs személygépkocsikban is, amelyek mindegyike – nem túl nagy meglepetésre – elektromos. A Sony Honda Mobility (SHM) a CES-en mutatta be az AFEELA márkanév alatt megjelenő EV-modelljét, amelynek első példányai már idén megjelenhetnek az utakon – kezdetben csak az Egyesült Államokban.

Az SHM közleménye szerint az AFEELA 1 „újradefiniálja az emberek és a járművek kapcsolatát”, hiszen nem csupán autó, hanem „intelligens társ a mobilitásban”, ami fejlett szoftver- és hardvertámogatással teremt interaktív kapcsolatot a vezető és az autó között. Az EV 40 szenzort – köztük kamerákat, LiDAR-okat és radarokat – kapott a környezet folyamatos megfigyelésére és mesterséges intelligenciájával enyhíti a vezetés sofőrre nehezedő terheit. A műszerfal kijelzőjén megjelenő térképen valós időben lehet majd követni a környezet és a forgalmi helyzetek képét, ami nagyban támogatja a hatékony, biztonságos közlekedést.

Az elegánsan minimalista külsejű, AI-alapú vezetéstámogató rendszerrel felszerelt AFEELA 1 bátor árcédulát kap: a várhatóan 2027-ben piacra kerülő Origin alapmodellt 36 millió forintnyi dollárért lehet majd kapni, de előbb – még idén – jelenik meg a 42 millió forintos Signature típus, ami máris előrendelhető – egyelőre csak kaliforniai lakosok számára.

Az AI megváltást hozhat a gyógyításban

Az egészségügyi innovációk szintén különleges helyet foglaltak el a CES programjában, hiszen a fogyasztók komolyan vették a mesterséges intelligencia egyik legfontosabb ígéretét, azt, hogy a segítségével pontosabb, gyorsabb, olcsóbb és bármikor elérhető diagnosztikában részesülhetnek – ahelyett, hogy hónapokat várnának csupán egy találkozásra az orvosukkal.

És ez messze nem csak hazánkban, hanem olyan jóléti államokban is valós probléma, mint az USA.

A CES 2025 látogatói főleg a viselhető eszközöket, például az alvást, a szívritmust vagy a lépésszámot monitorozó, esetleg előrejelzéseket is nyújtó kütyüket keresték. Kellemes meglepetésként könyvelhették el, hogy az olyan elszállt ötleteken túl, mint az oltást adagoló és beadó robotkar, akadnak hatalmas előrelépést mutató, mégis elérhető digitális és AI-alapú diagnosztikai eszközök.

A fejlett egészségügyi megoldások egyik legékesebb példáját a CES 2025 Picks Award elismerését bezsebelő OnMed prezentálta. A cég egy olyan eszközért kapta meg a paradigmaváltó és kreatív innovációért járó díjat, ami jelentősen csökkentheti a várólistákat és enyhítheti az orvoshiányt. A nyilván tehetősebb országok egészségügyi rendszereit megcélzó termék neve OnMed CareStation, ami egyfajta „klinika a dobozban” megoldás. A vállalat közleménye szerint egy 2,5-szer 3,3 méteres high-tech fülkéről van szó, amelybe belépve a páciens egy AI-asszisztens és egy távolról bejelentkező orvos, illetve többféle beépített műszer (HD kamera, sztetoszkóp, pulzoximéterek, automata vérnyomásmérő stb.) segítségével kérhet diagnózist az egészségügyi állapotáról. Talán mondani sem kell, hogy az ilyen mobil egységeknek mekkora jelentőségük lehet a túlterhelt egészségügyi rendszerekben, amelyek nem képesek megfelelően kiszolgálni a betegek igényeit.

High-tech távgyógyítás

Karthik Ganesh vezérigazgató a helyszínen készült videóinterjúban elárulta: „a cél az egészségügyi ellátás elérhetővé tétele, bárhol”, hiszen teljesen nyilvánvaló, hogy az ágazat súlyos orvoshiánnyal küzd és ezt jelen formájában „a telemedicina sem oldja meg”. Épp ezért, a távgyógyítás lehetőségeinek kiterjesztésére alkották meg a CareStationt, „ami a hibrid ellátást: a hagyományos és a virtuális gyógyítás kombinációját” hozza testközelbe.

A CES 2025 felhozatalában az OnMed megoldásánál kézzelfoghatóbb eszközök is megjelentek, köztük például a Novosound csuklón viselhető vérnyomásmérője, ami a CES-es válogatásunk egyetlen AI-mentes eszköze, de annyira innovatív, hogy muszáj kiemelni.  Nem a hagyományos, mandzsettás módszerre kell gondolni: a műszer világelső technológiával, ultrahangos méréssel monitorozza – tűpontosan és 24 órában – a viselője vérnyomását. Az adatokba persze valós időben is belenézhetnek a betegek, hiszen az eszköz egy mobilapplikációval párosítva folyamatosan megjeleníti a három legfontosabb adatot, a szisztolés és a diasztolés értékeket, valamint a pulzusszámot.

Dave Hughes társalapító-vezérigazgató (fenti képen jobbra) úgy véli, a vállalat eszköze „hidat képez az egyének, a viselhető eszközök ipara és az egészségügyi szolgáltatók között, mivel valós időben, folyamatosan képes a vérnyomás monitorozására.” Hozzátette: a napi 24 órás monitorozás és az ehhez kapcsolódó adatok hitelessége forradalmasíthatja az egészségügyet, lehetővé téve a potenciális egészségügyi problémák korai felismerését és a magas vérnyomás hatékonyabb kezelését. A szkeptikusok elhallgattatására egyébként – akik nem hiszik el, hogy az egyedi ultrahangos technológiával ugyanolyan, sőt pontosabb adatokat lehet kapni, mint a mandzsettás mérők esetében – több amerikai egészségügyi központban, nyilvánosan bizonyították a csuklón viselhető eszköz képességeit.

AI-vezérelt WC a méltóbb betegellátásért

Kevésbé látványos, mégis zseniális tagja volt a CES-en megjelent egészségügyi alkalmazások tömegének az az akkumulátoros, AI-vezérlet mobilvécé, ami az egyik legkellemetlenebb és legidőigényesebb feladattól kíméli meg a kórházak és az idősotthonok ápolóit: a betegek mosdóba cipelésétől vagy akár az ágytálazástól.

A vécékagyló robot bármelyik ágy mellé odagurítható (idővel majd nyilván oda is hívható), hogy steril felületet biztosíthasson a pácienseknek, akik a dolguk végeztével egy automatikusan és szagmentesen záruló, laboratóriumi vizsgálatra tovább küldhető zsákot hagynak maguk után a készülékben, ami azonnal cseréli is az ülőkére feszített nejlont. Yuk Ki Wong, az AI-vécét forgalmazó Pren Limited munkatársa az Interesting Engineeringnek azt mondta: bárki, aki volt már fekvőbeteg, tudja, mennyire nehéz és kellemetlen segítségre várni, csupán azért, hogy az ember mosdóba mehessen. És akkor nem beszéltünk a kórházi mosdókban elkapható fertőzésekről, amelyek veszélyét a Pren Limited eszköze teljes egészében kizárja.

AI-vécé a CES-en

Kijelzőcsodák, amelyeket mesterséges intelligencia hajt

Bár a CES-en vége-hossza nincs az AI-vezérelt megoldásoknak, van még egy termékkategória, amit érdemes vele kapcsolatban kiemelni, és ez a hétköznapjainkat uraló televízió vagy monitor. A Las Vegas-i shownak mindig fontos szereplői a kijelzők, amelyek az utóbbi években is nagy átalakuláson estek át, de a korábban látott fejlődésük gyermeki botladozásnak tűnik a mesterséges intelligenciával elérhető funkciókhoz képest. A gyártók egyértelművé tették, hogy az AI-t maximálisan kihasználják a következő időszak fejlesztéseiben. A legtöbb figyelmet közülük alighanem az LG újdonságai kapták.

A dél-koreai gyártó új OLED evo M5 és G5 modelljeiben az Alpha 11 AI processzor legújabb generációja dolgozik, így a tévék AI-vezérelt testreszabás segítségével a háztartás minden tagja számára egyedi élményt nyújtanak.

A hangazonosító már bekapcsoláskor felismeri és nevén szólítja a felhasználót, majd annak tartalomfogyasztási szokásaihoz igazodó beállításokat, illetve műsorokat kínál. Az új tévéken elérhető AI kereső a nyelvi modellek segítségével megérti a felhasználói szándékot, így releváns találatokat ad, miközben a Microsoft Copilot integráció a tartalmak rendszerezését és keresését teszi hatékonyabbá. Ha mindez nem lenne elég, az AI a képminőséget is sokkal magasabb színvonalra emeli: az LG mesterséges intelligencia alapú processzora mélytanulási algoritmusokkal elemzi és alakítja élesebb vizuális élménnyé, még az alacsony felbontású tartalmakat is.

Már ez a fentebb hozott néhány példa is jól demonstrálja, hogy a CES 2025-ön bemutatott többezer új elektronikai termék jelentős részét a legapróbb részletekig uralják a mesterséges intelligencia megoldások. Az AI az elektromos autóktól az egészségügyi eszközökön át a számítógépekig és a kijelzőkig jelen van, hogy egyszerűbbé, gyorsabbá és minőségibbé tegye a felhasználói élményt. És még szóba sem kerültek a AI-vezérelt katonai drónok, humanoidok és más robotok, automatizált kutatójárművek és minden más. A technológiai fejlődés sosem áll meg, és reméljük, hogy a jövő eszközei egyszerre lesznek fenntarthatóbbak, intelligensebbek és praktikusabbak.


Link másolása
KÖVESS MINKET:

Népszerű
Ajánljuk
Címlapról ajánljuk


JÖVŐ
A Rovatból
Kiderült, meddig marad élhető a Föld – szuperszámítógépekkel számolta ki a NASA
Nem villámcsapás-szerű összeomlásra, hanem lassú, visszafordíthatatlan hanyatlásra kell készülnünk a kutatás eredménye szerint.


A NASA kutatói összefogtak a japán Toho Egyetem szakembereivel, és szuperszámítógépekkel modellezték, meddig maradhat élhető a Föld. Az eredmények egy távoli, de egyértelmű menetrendet vázolnak fel az élet végét illetően – számolt be róla a BGR.

A kutatás szerint a Nap jelenti majd a legnagyobb gondot: a következő egymilliárd évben nő a kibocsátása, és fokozatosan a lakhatósági határ fölé melegíti bolygónkat.

A becslés alapján a földi élet nagyjából az 1 000 002 021-es évben érhet véget, amikor a felszíni viszonyok már a legellenállóbb élőlényeknek is túl szélsőségesek lesznek.

A lejtmenet azonban sokkal korábban elindul. Ahogy a Nap forrósodik, a Föld légköre jelentősen átalakul: csökken az oxigénszint, meredeken nő a hőmérséklet, és romlik a levegő minősége. A részletes éghajlati és napsugárzási modellek szerint

ez nem villámcsapás-szerű összeomlás, hanem lassú, visszafordíthatatlan hanyatlás.

Ennek jelei már most látszanak. Erősödnek a napviharok és a koronakidobódások, nemrég az elmúlt 20 év legerősebb viharát rögzítették. Ezek hatnak a Föld mágneses mezejére és csökkentik a légköri oxigént.

Közben az ember okozta klímaváltozás is tovább növeli a terhelést:

a globális felmelegedés és a sarki jég olvadása a korábbi előrejelzéseknél gyorsabban halad, ami arra utal, hogy a környezet már jóval az egymilliárd éves időtáv előtt is ellehetetleníti az életet az emberek számára.

A kutatók a felkészülés és az alkalmazkodás fontosságát hangsúlyozzák. Egyesek zárt életfenntartó rendszereket és mesterséges élőhelyeket javasolnak, mások pedig a Földön túli lehetőségeket vizsgálják: a NASA és a SpaceX hosszú távú Mars-missziói az emberi élet fennmaradásának lehetséges útjait keresik, ha bolygónk lakhatatlanná válik.


# Csináld másképp

Te mit csinálnál másképp? - Csatlakozz a klímaváltozás hatásairól, a műanyagmentességről és a zero waste-ről szóló facebook-csoportunkhoz, és oszd meg a véleményedet, tapasztalataidat!

Link másolása
KÖVESS MINKET:

JÖVŐ
A Rovatból
Jön a vaskorszak az akkumulátoriparban? Meglepő áttörés előtt állhat az ágazat
Laborban finomhangolt kristályszerkezet adja a varázslatot. Ha a gyártás bírja a tempót, az MRI-től a mágnesvasútig sok minden megváltozhat.


Meglepő áttörés jöhet az akkuk világában: kutatók bebizonyították, hogy a vas több elektront tud leadni és visszavenni, mint amennyit eddig lehetségesnek tartottak. Az Interesting Engineering beszámolója alapján olyan vasalapú katódok jöhetnek, amelyek egyszerre erősebbek és olcsóbbak – írta a Portfolio.hu.

A kulcs egy új, nanoszerkezetű anyag: lítium–vas–antimon–oxid. A kutatók ennek kristályszerkezetét úgy hangolták finomra, hogy a vasatomok akár öt elektront is képesek legyenek leadni és visszavenni, szemben a korábban ismert kettő–hárommal.

Az elején nem ment zökkenőmentesen: a minták a töltési ciklusok alatt többször is szétestek. A megoldás az extrém lekicsinyítés lett: 300–400 nanométeres szemcsenagyságnál stabil állapotot értek el. „A részecskék lekicsinyítése óriási kihívás volt, de ez tette lehetővé, hogy a kristály stabil maradjon” – mondta az egyik kutató.

Ha ez a megközelítés beválik, a drága és környezeti szempontból vitatott kobalt- és nikkeltartalmú akkuk helyett olcsóbb, vasalapú megoldások is jöhetnek.

A felfedezés hatása túlmutathat az energiatároláson: a vas új elektronikus és mágneses tulajdonságai hatással lehetnek MRI-berendezésekre, mágnesvasúti technológiára, sőt akár a szupravezetők fejlődésére is.

A fordulatot egy 2018-as elmélet indította el: William Gent vetette fel, hogy a vas magasabb oxidációs állapotba kényszeríthető, ha a szomszédos atomok távolsága megfelelő. A következő lépés a nagyobb méretű prototípusok gyártása és a hosszú távú ciklustesztelés. A kutatók szerint néhány éven belül ipari fejlesztések indulhatnak az új technológiára építve, és megkezdődhet az akkumulátorok „új vaskorszaka”.


Link másolása
KÖVESS MINKET:


JÖVŐ
A Rovatból
Megkezdték a humanoid robotok tömeggyártását Kínában
A cég több ezer előrendelést említ, az ár körülbelül 11,5 millió forint. A mozgásnál emberi mintákat követnek: a végtagok összehangolását szimulációk és utánzásos tanulás segíti.
Maier Vilmos - szmo.hu
2025. szeptember 27.



A kínai Kepler Robotics elindította a K2 Bumblebee humanoid robot tömeggyártását, írja a Rakéta. A modellt logisztikai munkákra, gyártási feladatokban segítésre, kiállításokra és „speciális műveletekre” szánják.

A K2 hibrid architektúrával működik, ami energiahatékony üzemet tesz lehetővé. A gyártó szerint a humanoid egyhuzamban akár 8 órát is dolgozik.

Az ár a hasonló, általános célú humanoidokhoz képest kicsivel magasabb:

körülbelül 11,5 millió forint.

A robotra már több ezer megrendelés érkezett.

A cég a külalakot kevésbé, a mozgást viszont nagyon „emberire” tervezte. A K2 Bumblebee imitációs tanulással és szimulációkkal sajátította el a járás emberihez hasonló jellegzetességeit, beleértve a végtagok mozgásának összehangolását.

A humanoid robotról készült videót itt lehet megnézni:


Link másolása
KÖVESS MINKET:

Ajánljuk

JÖVŐ
A Rovatból
Sora 2: megjöttek a videók, amiket a képtelenség megkülönböztetni a valóságtól
Náci egyenruhába bújtattak hírességek, meghamisított történelmi események, kamu filmjelenetek igazinak tűnő színészekkel – máris ilyen videók készültek az OpenAI legújabb videógeneráló modelljével, ami egyszerre lenyűgöző és félelmetes.


A Sora 2 videógeneráló modell szeptember végén jelent meg, azzal az ígérettel, hogy a korábbi változathoz képest jelentősen javult a fizikai pontosság, a realizmus és az irányíthatóság. Mivel az OpenAI már a Sora tavaly decemberben kiadott első változatát is – a ChatGPT sikerével párhuzamba állítva – a videókészítés „GPT‑1 pillanatának” nevezte, nagy várakozások előzték meg a „GPT‑3.5 pillanatként” beharangozott Sora 2-t.

Az első verzió fejlesztői változatáról a demók alapján azt írtuk, olyan minőségű filmekhez, amelyeket szöveges utasításra generál, normál esetben külső helyszínekre, díszletekre, profi felszerelésekre és szakemberekre, statisztákra, illetve színészekre lenne szükség, de „úgy fest, hogy mostantól egyetlen AI, a Sora is elég lesz hozzá”.

Nyújthat ennél is többet egy videógeneráló modell? A Sora 2–nek a jelek szerint sikerült, mert a világ egyik ámulatból a másikba esik a vele készült mozgóképek láttán. Az OpenAI azt állítja, hogy az új modell kiküszöböli a korábbi videógenerálók jellemző hibáit, például az amorf tárgyakat és karaktereket, a torzult valóságot vagy a „túlzott optimizmust”. Utóbbihoz példát is kapcsol: ha egy generált videóban szereplő kosárlabdázó „elvéti” a dobást, az eddigi verziók inkább kicsavarták a realitást, és a labda még lehetetlen szögből is a gyűrűbe „teleportált”. Ehhez képest a Sora 2 a fizika törvényeivel teljesen megegyező módon bánik a tárgyak mozgásával: a labda a palánkba csapódik és pont úgy pattan vissza, ahogy az a valóságban is történne.

A tökéletlenség lehalkításával és a képminőség feltekerésével az OpenAI kisebb csodát alkotott: még egyszerű szöveges utasításokból is olyan videókat hoz létre, amelyeket a legtöbb néző képtelen megkülönböztetni a valóságtól. Az pedig, hogy mekkora a szakadék a versenytársak videógeneráló modelljei, valamint a Sora 2 között, remekül illusztrálja ez az összehasonlítás, amelyben a Google fejlesztette Veo 3–mal vetik össze a képességeit.

Ebben a videóban semmi sem valódi:

A gyorsan bővülő AI‑videópiacon persze vannak más vetélytársak is, például a Meta „Vibes” alkalmazása és a Meta Movie Gen modell, valamint az Elon Musk-féle xAI Grok Imagine-je. A Forbes hangsúlyozza, hogy utóbbi rendszerek 6–10 másodperces felvételeket készítenek, míg a Sora 2 akár egyperces videókat generálhat, illetve hangot is ad a tartalmakhoz, ami komoly fegyvertény a jelenlegi mezőnyben. És eddig minden jel arra mutat, hogy a Sora 2 a legerősebb videógeneráló AI.

Az OpenAI a modell széles körű – de egyelőre Észak-Amerikára korlátozott – bevezetése óta arra biztatja a felhasználókat, hogy a Sora 2 segítségével találjanak ki minél több új világot és történetet. A lehetőségeknek – látszólag – csak a képzelet szab határt, hiszen a modell képes az emberi hanghoz igazított dialógusok és hangeffektek generálására is, sőt, ha kell, a felhasználó hang‑ és videómintája alapján avatárt készít, így a saját filmünk főszereplőjévé válhatunk.

Mi változott? – A Sora 2 új képességei

Bár hozzáférés hiányában nekünk, magyaroknak egyelőre nincs összehasonlítási alapunk, az új modellről megjelent videókon valóban az látszik, hogy komoly szintlépés történt. Amíg a Sora demóiban a generált karakterek szemeit jótékonyan elrejtette valami (többnyire egy napszemüveg), a Sora 2 már nem tart az „uncanny valley” jelenségtől. Ez ugye az a nyugtalanító érzés, ami egy videojátékhoz vagy filmhez digitális eszközökkel létrehozott arc láttán tör ránk: hiába realisztikus a karakter, a tekintete természetellenes marad.

Az új modell már nem ilyen „félénk”: tisztában van vele, hogy amit előállít, teljesen életszerű, ezért nincs szükség trükközésre.

Olyannyira nincs, hogy az alábbi videóban látható és hallható Sam Altman sem Sam Altman, hanem egy Sora 2-vel létrehozott avatár, ami az OpenAI vezérigazgatójaként mutatja be a generatív AI képességeit. És ha erre nem figyelmeztetnek előre, aligha mondanánk meg, hogy nem a valódi személyt látjuk.

Az OpenAI szerint a Sora 2 legnagyobb újítása a fizikai törvények pontosabb szimulációja és a látvány élethű megjelenítése. A modell hosszabb és összetettebb cselekményeket, illetve akár többszereplős akciókat is képes kezelni, miközben megőrzi a mozgás törvényeinek koherenciáját.

A vállalat kiemelte, hogy a videók több jelenetből álló utasításokat követhetnek, és a rendszer megőrzi a generált világ állapotát: figyelembe veszi például azt, hogy a tárgyak az előző képsorban pontosan hol voltak. Ezzel már lehetséges akár több perces klipek és kisfilmek, ezáltal komplexebb narratívák létrehozása, de az OpenAI most még a rövid, gyorsan terjedő tartalmak felé tereli a felhasználókat, mert a játékos menőség meghozza a befektetők kedvét a további tervek finanszírozásához.

Lőttek a filmeseknek, vagy a Sora 2 csak egy új „ecset”, amivel alkothatnak?

Az OpenAI azzal hirdette a Sora, majd a Sora 2 rendszert, hogy a filmipar, az animációs stúdiók és a művészek eszköze lehet. A BBC Science Focus egyetért ezzel: azt írják, a rendszer megkönnyítheti animált klipek készítését, és ezzel időt, pénzt spórol. Az első verzió tartalmai ugyanakkor hemzsegtek a hibáktól. Ahogy arra a Washington Post is felhívta a figyelmet: a rendszer egy 1930‑as évekbeli jelenetben a cigaretta rossz végét gyújtotta meg vagy épp egyszerre több telefonkagylót adott a generált karakter kezébe, ráadásul hangot sem tudott létrehozni.

Ehhez képest a Sora 2 pontosságot és már szinkronizált hangot, illetve hangeffekteket is kínál, amivel elvileg tökéletesen alkalmassá válik a komplex szórakoztatóipari felhasználásra.

Az IndieWire elemzője ennek ellenére sem gondolja, hogy az új verzió a filmiparnak készült. A fejlesztők szerinte „nem törődnek Hollywooddal”, hiszen a platform elsősorban virális tartalmak gyártására ösztönzi az embereket, így a közösségi média új mémgyártó eszközévé válhat. És addig, ameddig ez csak igazoltatás elől meglépő Super Mario-s viccek szintjén realizálódik, nincs is nagy baj.

Ez még senkit sem bánt:

A gondok akkor kezdődnek, ha a könnyed hecceken túllépve valódi emberekről vagy valós eseményeket szimuláló helyzetekről készülnek valóságszagú kamuvideók, ami megnehezíti a független filmesek etikus AI‑felhasználását. Onnantól a Nintendo sem mókás rajongói videóként fogja kezelni a fentihez hasonló alkotásokat – ami még ingyen reklámot is csap a Mario Kart játékoknak –, mert attól tart majd, hogy a trend visszaéléseket szül, és óriási energiákat kell fordítani a szellemi tulajdona megvédésére.

A véleménycikk arra is figyelmeztet, hogy a Sora‑videók virális mémjei új frontot nyitnak a szerzői jogi háborúban, hiszen az AI‑userek óhatatlanul egyre kevesebbet törődnek majd a szellemi tulajdonnal, ezáltal tovább mélyítik az árkot az alkotók és az AI‑fejlesztők között. Az Indiewire ezzel kapcsolatban szakmai állásfoglalásokat sürget: úgy véli, ha a jogtulajdonosok és szakszervezetek nem alakítanak ki standardokat, elveszíthetik a harcot.

Osztja ezt az aggodalmat a WGBH-nak nyilatkozó digitális képzőművész, Kyt Janae is, aki szerint nem kell egy év, és szinte képtelenek leszünk megkülönböztetni az ember alkotta tartalmakat az AI-val generált képektől. Thomas Smith, a képek digitalizálásával, menedzselésével, kiadásával és monetizálásával foglalkozó Gado Images vezérigazgatója hozzátette:

a mesterségesen létrehozott képek miatt a valódi fotók is hitelességi válságba kerülhetnek.

Ezek a megállapítások azt jelzik, hogy a videógeneráló AI több területen okozhat károkat, a szórakoztatóipartól a politikán át a személyiségi jogokig.

Máris támadják az új AI-modellt

A Sora 2 indítását rögtön kritikák és aggályok kísérték. A The Guardian például arról számolt be, hogy a generált videók posztolására létrehozott TikTok-szerű app feedje hamar megtelt erőszakos és rasszista jelenetekkel, köztük bombázást és tömeggyilkosságot szimuláló tartalmakkal. Joan Donovan kutató ezzel kapcsolatban arra figyelmeztetett, hogy az ilyen eszközök elmossák a valóság és a hazugság között húzódó határt, ezáltal alkalmassá válhatnak gyűlöletkeltésre és zaklatásra.

Sam Altman ehhez képest a saját blogján a „kreativitás ChatGPT‑pillanataként” jellemezte a Sora 2 indulását, de óvatosan elismerte azt is, hogy például a bullying elkerülése érdekében nagyobb figyelmet kell fordítani a moderálásra.

A Rolling Stone közben példákkal illusztrálva mutatta be, hogy a realisztikus videógeneráló segítségével a felhasználók – csupán heccből – náci egyenruhába bújtattak hírességeket, történelmi eseményeket hamisítottak vagy éppen levédett karaktereket (Pikachu, Ronald McDonald, SpongeBob) használtak fel, ami szerzői jogi veszélyeket sejtet.

A Sora 2 kritikusait idézve a magazin azt írja, hogy az OpenAI „próbálja bepereltetni önmagát”.

A Vox cikke egyenesebben fogalmaz: felhívja a figyelmet arra, hogy a Sora 2 alapértelmezése szerint a jogtulajdonosok azok, akiknek kérvényezniük kellene a karaktereik eltávolítását, ami olyan, mintha a fejlesztők kifejezetten a szerzői jogok megsértése felé terelnék a felhasználókat.

Nem véletlen, hogy a kritikákkal szembesülő Sam Altman később frissítette a posztját, jelezve, hogy a jövőben a jogtulajdonosok „opt‑in” alapon adhatnak hozzá karaktereket az AI-modellhez, lehetővé téve, hogy a generált videók után részesedést kapjanak a bevételekből.

Őrületes energiaigény és a Sora 2 más pénzügyi hatásai

A modell bejelentését követően az elemzők felvetették, hogy a videók generálása rendkívüli mennyiségű számítási kapacitást és energiát igényel. Egyes kutatók szerint egy rövid, nagy felbontású videó generálása több mint 700‑szor több energiát fogyaszt, mint egy állókép létrehozása. Ennek következtében a jövő adatközpontjai már minden kétséget kizáróan nagyvárosokkal vetekedő energiazabáló – és karbonkibocsátó – szörnyetegek lesznek.

A Time elemzése rámutat: az AI‑videók ugyan drágák, de a cégek – köztük az OpenAI és a Meta – abban reménykednek, hogy a rövid videók gyártásával több előfizetéses felhasználó és befektető érkezik. Ez további bevételi forráshoz juttatja őket, ami még nagyobb modellek, egy napon pedig az általános mesterséges intelligencia megjelenéséhez vezethet.

Az AI-cégeknek tényleg nagyon kell a pénz, mert a generatív videómodellek fejlesztése hatalmas összegeket emészt fel. Ez az elemzők szerint idővel arra készteti majd a vállalatokat, hogy a befektetőktől és felhasználóktól beszedett pénzen túl a hirdetési piacon is terjeszkedjenek, illetve további előfizetési csomagokat találjanak ki, valamint árat emeljenek.

Mindeközben fontos cél a felhasználók viselkedési adatainak gyűjtése: a jövőbeli modellekhez a valós interakciók és preferenciák révén tudnak több és jobb tréningadatot gyűjteni.

Ami pedig a belátható jövőben érkező fejlesztéseket illeti, az OpenAI egyik korábbi közleménye felvetette azt is, hogy létrehoznak egy „világszimulátort”, amely pontosan modellezi a fizikai világ törvényeit, ezzel új tudományos problémákat lesz képes megoldani.

Új AI-evolúciós lépcsőfokok jönnek

A Sora 2 ezeknek a vízióknak a nagy reménysége, amitől azt várják, hogy további fejlesztéseket és több platformon elérhető verziókat eredményez. A megjelenése új korszakot nyit a generatív AI-k világában, hiszen bátran kijelenthetjük, hogy ennyire valószerű mozgásokat és hangeffekteket, illetve ilyen időtartamú történeteket még egyik videógeneráló AI sem tudott létrehozni.

Bár a fizika törvényeit még nem követi le tökéletesen és vastagon lehetőséget ad a visszaélésekre – a deepfake-től az erőszakos tartalmakon át a szerzői jogok megsértéséig –, a komoly etikai és jogi kérdések kezelése után érdemes lehet kihasználni a benne rejlő lehetőségeket.

A szakértők szerint hamar mainstream eszközzé válhat, de a társadalomnak – még új normarendszerek és hatékony moderálás bevezetése mellett is – fel kell készülnie arra, hogy a valóság és a mesterséges tartalom közötti határ elmosódik.

Mivel a gazdasági potenciál óriási, számolni kell a bővülésével és az energiafogyasztás növekedésével, valamint azzal, hogy a szellemi tulajdon megóvása érdekében ki kell harcolni a generált tartalmak után járó részesedést. Ezek az együttműködések – ha egyáltalán megköttetnek és aztán hosszú távon működőképesnek bizonyulnak – a kreatív tartalomgyártás ragyogó gyöngyszemévé varázsolhatják a Sora 2-t, illetve a jövőben érkező hasonló modelleket.


Link másolása
KÖVESS MINKET: