JÖVŐ
A Rovatból

Tilesch György: A mesterséges intelligencia ma már könyvet ír

A Facebook üzleti modellje nem szolgálja a társadalom érdekeit, Sofia bolhacirkuszi látványosság – állítja a Mesterség és Intelligencia című könyv egyik szerzője, akit arról is kérdeztünk, milyen szakmákat veszélyeztet a mesterséges intelligencia.


Áprilisban jelent meg magyarul Tilesch György és Omar Hatamleh Mesterség és Intelligencia című könyve. Tilesch Györggyel, a Neumann Társaság MI nagykövetével, a PHI Institute elnökével beszélgettünk a könyvről.

- Az MI behálózza az életünket, a téma nemcsak a tudományos cikkekben van jelen, hanem a popkultúrában is. Azt gondolná az ember, hogy már mindent elmondtak róla. Mi volt az a hiátus, ami arra indította Önöket, hogy mégis könyvet írjanak róla?

- A hiátust úgy fogalmaztuk meg, hogy bizonyos cégek és államok úgy gondolják, tudják, mi a mesterséges intelligencia fejlesztési és terjesztési iránya, mi lesz legjobb a társadalomnak, de ugyanezek az emberek, amikor nem a pulpitusról beszélnek, hanem magánemberként, bizalmas légkörben, akkor elárulják a félelmeiket. Mi egy balanszírozott könyvet szerettünk volna írni.

Fontos leszögeznem, hogy személyes benyomásokból indultunk ki. Nem szobatudósok vagyunk, hanem vállalatvezetők és tanácsadók. Kint dolgozunk a terepen.

Ön is utalt rá, hogy a science-fiction világa erőteljesen beszűrődött a mainstreambe.

Mi ezt inkább kártékonynak látjuk, elsősorban azért, mert valahova a távoli jövőbe vetíti a problémát, és ezzel elvonja a figyelmet a jelenről, a most megoldandó problémákról.

Mi azt szeretnénk bebizonyítani a könyvben, hogy a mesterséges intelligencia nem jövőidejű kérdés, hanem jelen idejű, és a legnagyobb civilizációs feladatunk jelenleg ennek a megfelelő irányba állítása.

- Ha mesterséges intelligenciáról beszélünk, sokaknak Terminátor-szerű gépemberek jutnak eszükbe. Pedig ennél jóval színesebb a kép. Mi az MI ismérve?

- A mesterséges intelligencia egy marketing „buzzword”. Egy ernyő, körülbelül 15 technológiai ágazat összefoglaló neve.

A mesterséges intelligencia körülbelül ötven éve született meg, mint tudományág a mi Neumann Jánosunk aktív közreműködésével a Princeton Egyetemen. Az az 5-6 ember, aki akkor elkezdett dolgozni ezen, azok nagy része játékelméletekkel foglalkozott, ezért a korai definíciók is a játékosításra épültek.

Alan Turing például kitalálta a Turing-tesztet, amely lényege, hogy egy játék-környezetben, gyakorlatilag egy chatszobában kell valakinek kitalálni azt, hogy akivel épp beszélget, az robot vagy ember. Ha nem tudja eldönteni, akkor megszületett az emberrel ekvivalens, úgynevezett általános mesterséges intelligencia.

Eddig egy gép az alapján tudott működni, amit beleprogramoztak. A mesterséges intelligencia pont ezt a határt haladja meg. Egyre növekvő autonómiát adunk a gépek kezébe. Képesek ajánlásokat adni, vagy ha hagyjuk, akár döntéseket hoznak helyettünk, ráadásul sokkal több adatpont alapján, mint amit az emberi elme képes kezelni, sokkal hatékonyabban, és közben nem kérnek enni.

Ez egy nyílt végű folyamat, és ez az, ami félelmetessé teszi. Ez az, amiben a sci-fim filmeknek igaza van: bizony, eljöhet az a pont, amikor az emberrel egyenértékű lesz a mesterséges intelligencia. Bár azt gondolom, ha meg is történik ez, akkor is a nagyon távoli jövőben. Igaz: azt a pillanatot körülbelül két perc választja el attól, hogy az MI szuperintelligenciává váljon, magyarán az embert messze meghaladóvá.

Onnantól a bolygó és az univerzum uralása sincs nagyon messze.

Tehát ezek igaz narratívák, amikkel foglalkoznunk kell, de mi a könyvünkben azt mondjuk, hogy a jelenre és a közeljövőre kell fókuszálnunk, mert itt tudunk cselekedni.

-  Egyszer Kürti Sándorral beszélgettem erről a témáról, aki azt mondta, biztos benne, hogy a mesterséges intelligencián is lesz valamiféle „kikapcsoló gomb”, ha baj van, le fogjuk tudni állítani. Ön szerint bebiztosíthatjuk magunkat?

- Az biztos, hogy maximálisan óvatosnak kell lennünk, ami nem azt jelenti, hogy le kell mondanunk erről a technológiáról, hanem hogy fékeket és ellensúlyokat kell beépíteni.

Egyébként az Európai Unió a múlt héten jelentette meg az világ első mesterségesintelligencia-szabályozását. Ők nagyon erősen a kockázatokra helyezik a hangsúlyt. Ha úgy tetszik, a Kádári „tiltott, tűrt, támogatott” rendszerhez hasonló kategóriákat vezettek be. Bizonyos MI technológiákat kifejezetten tiltani akarnak.

Persze vannak kiskapuk. Mondok egy példát: elsődleges veszélyként a manipulációt határozták meg. De kérdezem én, mi számít annak? A marketing nem manipulatív? A közösségi média nem manipulatív? Vagy a politikai hirdetés? Hol lesznek a manipulálás határai?

Ami a „kikapcsoló gombot illeti”, Kürti Sándornak abban mindenképp igaza van, hogy azt szabályozásként be kell építeni mindenhová. Ezzel csak két probléma van:

Az egyik, hogy a kockázatok nem azonnal derülnek ki. A mesterséges intelligenciában pont az a félelmetes, hogy amit egy ember száz év alatt végez el, azt ő öt perc alatt.

Már ma is sok olyan kormányzati MI rendszer van a világon, ami az emberek életére hatással bír. Kevesen tudják például, hogy Amerikában a feltételes szabadlábra helyezéseknél 30-40%-ban mesterséges intelligencia támogatja a bíró döntését.

A gond ott kezdődik, amikor az emberi beavatkozás, kontroll lehetőségét elengedjük, ami az emberi lélektől nem teljesen idegen. Amikor azt mondjuk, hogy a gép úgy is okosabb, nekem ezzel nincs is dolgom. Ezt tesztelték is már, és az lett az eredmény, hogy a tisztségviselők 98-99%%-ban nem bírálják felül a gép javaslatát.

Tehát az egyik probléma, hogy hiába van ott a kikapcsoló gomb, az ember nem fogja használni.

A másik probléma, hogy nagyon nagy károkat tud okozni egyetlen hiba is. Amire elérünk a gombhoz, addigra már megszületik több millió döntés. Lehet, hogy a fejlesztő szemével az csak egy „bug”, amit két héten belül majd megold, de a társadalom szempontjából óriási károkat okozhat, a jogi következményekről nem is beszélve.

- Néhány éve, amikor Elon Musk 115 társával petíciót írt az ENSZ-hez, hogy tiltsák be az autonóm fegyvereket, Vlagyimir Putyin is megszólalt a kérdésben, idézem: „A világ ura lesz az az ország, amelyik elsőségre tesz szert a mesterséges intelligencia kifejlesztése terén.”

Putyin ugyan azt ígérte, hogy Oroszország megosztja majd a technológiát a világgal, de hát ő mégis csak Putyin.

Szépen hangzik, hogy mi, európaiak önmérsékletet tanúsítunk az MI használata terén, de ha más nagyhatalmak nem ilyen belátóak, akkor elképesztő erőfölényre tehetnek szert.

- Oroszország jelenleg abból él, hogy sokkal nagyobbnak és erősebbnek mutatja magát, mint amilyen. Nem hiszem, hogy Oroszország a mesterséges intelligencia tekintetében vezető hatalom lesz. Az igaz, hogy kiberháború és dezinformáció tekintetében tényleg jók, de a gazdasági befektetéseik rendkívül csekélyek.

Az ENSZ egyébként már évek óta foglalkozik az autonóm fegyverek betiltásával. A gond az, hogy az öt legnagyobb tagállam ellenáll, épp ezért szerintem ez itt meg is fog állni, vagy kiüresítik.

Az MI szoftveres hadászati alkalmazásai ennél jóval tágabbak, és ezen a téren most is folyamatosan háború zajlik, amiről a közvélemény nem is nagyon tud. Egy NATO főtisztviselő 3-4 évvel ezelőtt azt mondta zárt ajtók mögött, hogy

napi 60 ezer támadás éri a NATO szerverparkját.

Ezt négy éve mondta, képzeljük el, ma mi van!

Tény és való, hogy jelen pillanatban rövidtávon a negatív aktoroknál van az előny. De úgy gondolom, ez csak ideiglenes előny. Abban igaza van Önnek, hogy ezt szabályozási oldalról nagyon nehéz kikényszeríteni. Ennek egyik konzekvenciája a fegyverkezés.

A másik, hogy a társadalmi bizalom fontos értékmérővé válik. A könyvben is sokat írunk arról, hogy korunk egyik legkarakteresebb jellemzője a bizalomvesztés.

Nem bízunk senkiben és semmiben: sem az intézményekben, sem a politikusokban. Ez alól a mesterséges intelligencia sem kivétel. Most már többségben vannak a világban azok, akik féltik a kormányoktól és a cégektől az adataikat, félnek, hogy ellenük fogják felhasználni a mesterséges intelligenciát. Két évvel ezelőtt még nem ez volt a helyzet.

Mit mondunk mi a könyvben? Új technológiai generációra van szükség. A közérdeket szolgáló technológiákat kell támogatni és terjeszteni, amelyek alapvetően arra építenek, hogy a felhasználó megbízik bennük, és minden okot meg is adnak rá, hogy a felhasználó megbízzon bennük.

Egyik vesszőparipám, hogy a Facebook átvette a társadalmi párbeszéd szerepét. Miért fogadtuk el, hogy ez az egyedülálló modell? Gondoljuk újra! Azzal a kérdéssel kell kezdenünk, hogy milyen üzleti és technológiai modellek, milyen dizájnok és objektívák szolgálják a társadalom érdekeit,

mert hogy a Facebook üzleti modellje nem szolgálja a társdalom érdekeit, az is biztos.

- Szintén nagy félelem, hogy az MI el fogja venni a munkánkat. Míg az egyszerűbb gépek főleg a fizikai munkásokat fenyegették, hiszen az izomerőt tették fölöslegessé, az MI már olyan intellektuális szakmákat fenyeget, mint a jogászoké vagy a fordítóké.

- Azok az állások, amiket szeretünk értelmiséginek titulálni, nagyon sok esetben valójában nem azok. Az embereket alulfoglalkoztatják.

Elvégez valaki öt évig egy jogi vagy közgazdaságtudományi egyetemet, és utána lótifuti lesz valami nagy cégnél. Kávét főz és űrlapokat tölt ki.

Az, hogy a gyári munkások veszélyben vannak a mesterséges intelligencia miatt, az 100 százalék, de látok egy rohamosan növekvő fehérgalléros problémát is. Azoknak a szakmáknak, amelyek főleg folyamatalapú dolgokkal foglalkoznak, nem lesz sok értelme.

A szoftveralapú automatizáció manapság a leggyorsabban fejlődő területe az MI-nek. Ha akarjuk, kiválthatjuk vele az emberek munkáját, és elbocsáthatjuk őket. Vagy azt is mondhatjuk, hogy értelmesebb feladatot adunk az embereknek. Ez nagyrészt a munkáltatók hozzáállásán fog múlni.

Egyébként a legnagyobb robbanás éppen a szövegalapú technikák területén volt. A Microsoft tulajdonolta OpenAI-nak van egy GPT-3 nevű szöveggenerátora, amit a nagyközönség egyáltalán nem ismer még belülről. Azok, akik a szövegiparban dolgoznak, még nem is sejtik, milyen brutális eredményeket értek el. Az a mesterséges intelligencia már könyveket tud írni - igaz, még nem tökéletesen.

- Újságíróként és műfordítóként kicsit abban bízom, hogy az egyéniséget, a stílust nem képes utánozni a gép.

- Az újságírók vagy a műfordítók könnyen lehet, hogy inkább lektori szerepbe kényszerülnek majd. A munka oroszlánrészét elvégzi a gép, az embernek csak a finomhangolás jut.

Mindent, amit iparrá silányítottak – zeneiparrá, szórakoztatóiparrá, irodalom iparrá –, az veszélyben van, mert „iparban” a mesterséges intelligencia sokkal jobb.

Ráadásul exponenciálisan sokkal jobb. A személyiséggel rendelkező robotembereket én inkább az ábrándozások világába sorolnám. A legnagyobb probléma, hogy ettől függetlenül mindenki ebbe az irányba megy, mindenkinek produkálnia kell ezen a területen, és mindenféle szörnyek, illuzionisták és cirkuszi törpék fognak kijönni MI néven, amikről a profitra éhes előállító azt fogja állítani, hogy mindent tud. Körülbelül úgy, mint a mi Kempelen Farkasunk 300 évvel ezelőtt.

Nagy „kedvencem” a Sofia nevű robot, ami szintén egy bolhacirkusz szintű attrakció, de az alkotója körbeutazza vele a világot.

Ez egy női fej olyan szöveggenerátorral, ami szerintem jóval butább, mint mondjuk a Google asszisztens vagy Siri. Az MI szakértők általában nem szeretik, a média viszont imádja, mert lehet mutogatni. Egy Android asszisztensen nincs mit mutogatni.

- Miközben az MI nyitotta fantasztikus lehetőségekről álmodoztunk, jött egy világjárvány, ami azért kicsit visszarángatott a földre: még mindig nagyon is sebezhetőek vagyunk. Mit jelentet a Covid az MI szempontjából?

- A könyv, amit a kezében tart, angolul jelent meg először, tavaly áprilisban. Ez azért érdekes, mert márciusban adtuk le a kéziratot, és akkor zárult a világ. Nem tudtuk, meddig fog tartani. Annyit tehettünk, hogy releváns maradjon a munka, hogy az utolsó pillanatban betettünk egy utószót, amely a Covid es az MI kapcsolatával foglalkozik.

Hogy ne csak írjunk róla, összehoztunk a NASA-nál egy nagy, egy hónapos roham-kollaborációt a világ legnagyobb cégeinek innovációs es technológiai vezetőivel. Pont azt vizsgáltuk, hogy milyen MI alapú megoldásokat, javaslatokat nyújthatunk a kormányoknak a pandémiára.

A mesterséges intelligencia rendkívül felgyorsította a vakcinafejlesztést, jó volt a járvány előrejelzésében, készítettek kontaktkutató alkalmazásokat. Kaliforniában ez államilag támogatott projekt: majdnem minden ember telefonján ott ez az alkalmazás. Semmit nem kell csinálni, csak bekapcsolni a bluetooth-t, és a rendszer anonim módon regisztrálja, ha kapcsolatba kerültünk olyan emberrel, akiről később kiderült, hogy Covidos volt. Ilyen esetben riaszt a telefon, hogy menj el tesztelni.

Tehát ebben a káoszban is bizonyította a mesterséges intelligencia, hogy hasznos, lehet jó dolgokra használni.

Ez fontos, mert amíg az embereknek azt kell magyarázni, hogy ez nem Terminátor, addig nem tudunk a hasznosságáról beszélni.

A történet másik oldala, hogy sajnos a pandémia alatt sok ember elvesztette a munkáját, és attól tartok, többen a vírus után sem fogják visszakapni, mert a munkáltatók rájöttek, hogy sok minden megoldható szoftveres alapon.

- Meséljen még kicsit a kutatóintézetről, amelynek alapítója és elnöke.

- Ez a PHI Institute for Augmented Intelligence. A közérdekű, emberi arcú mesterséges intelligenciáért küzdünk és tanácsot adunk kormányoknak, nagy cégeknek, jobbító programokat indítunk be.

Most szeretnék Magyarországra hozni egy átképzési programot. Amerikában jelenleg a Fehér Házzal, 25 minisztériummal, két nagy tech céggel és 42 egyetemmel dolgozom azon, hogy a teljes közalkalmazotti réteget át tudjuk képezni adatérettre és MI érettre.

Amerika ezt a programot szeretné kiterjeszteni a szövetségesekre, hogy segítsen nekik gyorsabban, hatékonyabban a mesterséges intelligencia útjára lépni. Ez Magyarországnak is rendkívül fontos lesz.

Tilesch György és Omar Hatamleh könyvükben az MI innovatív értelmezését, valamint a jelen és a közeljövő legégetőbb problémáinak tematizálását tűzik ki célul, amely problémákra megoldási javaslatokkal is szolgálnak.
További információk a könyvről itt olvashatóak.

Link másolása
KÖVESS MINKET:

Népszerű
Ajánljuk
Címlapról ajánljuk


JÖVŐ
A Rovatból
Kiderült, meddig marad élhető a Föld – szuperszámítógépekkel számolta ki a NASA
Nem villámcsapás-szerű összeomlásra, hanem lassú, visszafordíthatatlan hanyatlásra kell készülnünk a kutatás eredménye szerint.


A NASA kutatói összefogtak a japán Toho Egyetem szakembereivel, és szuperszámítógépekkel modellezték, meddig maradhat élhető a Föld. Az eredmények egy távoli, de egyértelmű menetrendet vázolnak fel az élet végét illetően – számolt be róla a BGR.

A kutatás szerint a Nap jelenti majd a legnagyobb gondot: a következő egymilliárd évben nő a kibocsátása, és fokozatosan a lakhatósági határ fölé melegíti bolygónkat.

A becslés alapján a földi élet nagyjából az 1 000 002 021-es évben érhet véget, amikor a felszíni viszonyok már a legellenállóbb élőlényeknek is túl szélsőségesek lesznek.

A lejtmenet azonban sokkal korábban elindul. Ahogy a Nap forrósodik, a Föld légköre jelentősen átalakul: csökken az oxigénszint, meredeken nő a hőmérséklet, és romlik a levegő minősége. A részletes éghajlati és napsugárzási modellek szerint

ez nem villámcsapás-szerű összeomlás, hanem lassú, visszafordíthatatlan hanyatlás.

Ennek jelei már most látszanak. Erősödnek a napviharok és a koronakidobódások, nemrég az elmúlt 20 év legerősebb viharát rögzítették. Ezek hatnak a Föld mágneses mezejére és csökkentik a légköri oxigént.

Közben az ember okozta klímaváltozás is tovább növeli a terhelést:

a globális felmelegedés és a sarki jég olvadása a korábbi előrejelzéseknél gyorsabban halad, ami arra utal, hogy a környezet már jóval az egymilliárd éves időtáv előtt is ellehetetleníti az életet az emberek számára.

A kutatók a felkészülés és az alkalmazkodás fontosságát hangsúlyozzák. Egyesek zárt életfenntartó rendszereket és mesterséges élőhelyeket javasolnak, mások pedig a Földön túli lehetőségeket vizsgálják: a NASA és a SpaceX hosszú távú Mars-missziói az emberi élet fennmaradásának lehetséges útjait keresik, ha bolygónk lakhatatlanná válik.


# Csináld másképp

Te mit csinálnál másképp? - Csatlakozz a klímaváltozás hatásairól, a műanyagmentességről és a zero waste-ről szóló facebook-csoportunkhoz, és oszd meg a véleményedet, tapasztalataidat!

Link másolása
KÖVESS MINKET:

Ajánljuk
JÖVŐ
A Rovatból
A mesterséges intelligencia képes lehet akár tíz évre előre megjósolni, hogy kinek milyen betegsége lesz
A modell névtelen kórlapok mintáit figyeli, és évekre előre megmutatja, hol nagyobb a kockázat. A fejlesztők szerint így hamarabb lehet beavatkozni, és még az is tervezhető, hány szívinfarktusra kell készülnie egy városnak 2030-ban.


A kutatók szerint a mesterséges intelligencia akár tíz évre előre jelezhet egészségi gondokat, írja a BBC. A rendszer az emberek egészségügyi adataiban keres mintákat, és több mint 1000 betegség kockázatát számolja. Úgy írják le, mint egy időjárás-előrejelzést: százalékban adja meg a valószínűséget. A cél, hogy időben kiszűrje a magas kockázatú embereket, és évekre előre segítse a kórházak tervezését.

A Delphi-2M nevű modell hasonló technológiára épül, mint a közismert MI-chatbotok, például a ChatGPT. A chatbotok nyelvi mintákat tanulnak, és megjósolják, milyen szavak követik egymást. A Delphi-2M névtelenített egészségügyi adatokból tanulta meg felismerni a mintázatokat, és így jelzi előre, mi következhet és mikor. Nem mond pontos dátumot, hanem 1231 betegség valószínűségét becsli.

„Ahogy az időjárásnál 70 százalék esélyt jelezhetünk az esőre, ugyanezt meg tudjuk tenni az egészségügyben is”

– mondta Ewan Birney professzor, az Európai Molekuláris Biológiai Laboratórium megbízott főigazgatója. „Ráadásul nemcsak egy betegségre, hanem egyszerre az összesre – ilyet még soha nem tudtunk. Izgatott vagyok” – tette hozzá.

A fejlesztők először brit, névtelenített adatokon tanították a modellt: kórházi felvételek, háziorvosi adatok és életmódbeli szokások (például dohányzás) több mint 400 ezer résztvevőtől a UK Biobank projektből. Ezután más Biobank-résztvevők adataival ellenőrizték az előrejelzéseket, majd 1,9 millió ember dániai egészségügyi adatán is letesztelték. „Ha a modellünk azt mondja, hogy a következő évben tízből egy az esély, akkor tényleg nagyjából tízből egy esetben következik be” - tette hozzá Birney professzor.

A rendszer azoknál a betegségeknél működik a legjobban, amelyeknek jól követhető a lefolyása, például a 2-es típusú cukorbetegség, a szívinfarktus vagy a szepszis. Az inkább esetleges fertőzéseknél gyengébben teljesít.

Az orvosok ma is írnak fel koleszterincsökkentőt annak alapján, mekkora valakinél a szívinfarktus vagy a stroke kockázata. Az MI-eszköz még nem áll készen a klinikai használatra, de hasonló módon tervezik alkalmazni: korán azonosítani a magas kockázatú embereket, amikor még van esély megelőzni a betegséget. Ez jelenthet gyógyszert vagy célzott életmódtanácsot – például akinek nagyobb az esélye bizonyos májbetegségekre, annak a szokásosnál jobban megérheti visszavenni az alkoholfogyasztásból.

Az MI a szűrőprogramok tervezésében is segíthet, és egy térség összes egészségügyi adatát elemezve előre jelezheti a várható igényeket,

például hogy 2030-ban nagyjából hány szívinfarktus várható egy adott városban.

„Ez egy újfajta megközelítés kezdete az emberi egészség és a betegséglefolyás megértésében” – mondta Moritz Gerstung professzor, a Német Rákkutató Központ (DKFZ) onkológiai MI-osztályának vezetője. „Az olyan generatív modellek, mint a miénk, egy napon személyre szabhatják az ellátást, és nagy léptékben előre jelezhetik az egészségügyi szükségleteket.”

A Nature tudományos folyóiratban ismertetett modellt még finomítani és tesztelni kell a klinikai használat előtt. Torzítást okozhat, hogy a UK Biobank adatai főként 40–70 éves emberektől származnak. A fejlesztők most bővítik a modellt képalkotó vizsgálatokkal, genetikai információkkal és vérvizsgálati eredményekkel.

„Fontos hangsúlyozni, hogy ez kutatás – mindent alaposan tesztelni, szabályozni és átgondolni kell, mielőtt használni kezdjük, de a technológia adott ahhoz, hogy ilyen előrejelzéseket készítsünk” – nyomatékosította Birney professzor. Úgy véli, a genomika egészségügyi bevezetéséhez hasonló utat járhat be a folyamat: a tudósok bizalmától a rutinszerű klinikai használatig akár egy évtized is eltelhet.

A kutatás az Európai Molekuláris Biológiai Laboratórium, a Német Rákkutató Központ (DKFZ) és a Koppenhágai Egyetem együttműködésében készült. Gustavo Sudre, a King’s College London kutatója így értékelt: „Ez a munka jelentős lépés a skálázható, értelmezhető és – ami a legfontosabb – etikailag felelős orvosi prediktív modellezés felé.”


Link másolása
KÖVESS MINKET:


JÖVŐ
A Rovatból
Megkezdték a humanoid robotok tömeggyártását Kínában
A cég több ezer előrendelést említ, az ár körülbelül 11,5 millió forint. A mozgásnál emberi mintákat követnek: a végtagok összehangolását szimulációk és utánzásos tanulás segíti.
Maier Vilmos - szmo.hu
2025. szeptember 27.



A kínai Kepler Robotics elindította a K2 Bumblebee humanoid robot tömeggyártását, írja a Rakéta. A modellt logisztikai munkákra, gyártási feladatokban segítésre, kiállításokra és „speciális műveletekre” szánják.

A K2 hibrid architektúrával működik, ami energiahatékony üzemet tesz lehetővé. A gyártó szerint a humanoid egyhuzamban akár 8 órát is dolgozik.

Az ár a hasonló, általános célú humanoidokhoz képest kicsivel magasabb:

körülbelül 11,5 millió forint.

A robotra már több ezer megrendelés érkezett.

A cég a külalakot kevésbé, a mozgást viszont nagyon „emberire” tervezte. A K2 Bumblebee imitációs tanulással és szimulációkkal sajátította el a járás emberihez hasonló jellegzetességeit, beleértve a végtagok mozgásának összehangolását.

A humanoid robotról készült videót itt lehet megnézni:


Link másolása
KÖVESS MINKET:


JÖVŐ
A Rovatból
Sora 2: megjöttek a videók, amiket a képtelenség megkülönböztetni a valóságtól
Náci egyenruhába bújtattak hírességek, meghamisított történelmi események, kamu filmjelenetek igazinak tűnő színészekkel – máris ilyen videók készültek az OpenAI legújabb videógeneráló modelljével, ami egyszerre lenyűgöző és félelmetes.


A Sora 2 videógeneráló modell szeptember végén jelent meg, azzal az ígérettel, hogy a korábbi változathoz képest jelentősen javult a fizikai pontosság, a realizmus és az irányíthatóság. Mivel az OpenAI már a Sora tavaly decemberben kiadott első változatát is – a ChatGPT sikerével párhuzamba állítva – a videókészítés „GPT‑1 pillanatának” nevezte, nagy várakozások előzték meg a „GPT‑3.5 pillanatként” beharangozott Sora 2-t.

Az első verzió fejlesztői változatáról a demók alapján azt írtuk, olyan minőségű filmekhez, amelyeket szöveges utasításra generál, normál esetben külső helyszínekre, díszletekre, profi felszerelésekre és szakemberekre, statisztákra, illetve színészekre lenne szükség, de „úgy fest, hogy mostantól egyetlen AI, a Sora is elég lesz hozzá”.

Nyújthat ennél is többet egy videógeneráló modell? A Sora 2–nek a jelek szerint sikerült, mert a világ egyik ámulatból a másikba esik a vele készült mozgóképek láttán. Az OpenAI azt állítja, hogy az új modell kiküszöböli a korábbi videógenerálók jellemző hibáit, például az amorf tárgyakat és karaktereket, a torzult valóságot vagy a „túlzott optimizmust”. Utóbbihoz példát is kapcsol: ha egy generált videóban szereplő kosárlabdázó „elvéti” a dobást, az eddigi verziók inkább kicsavarták a realitást, és a labda még lehetetlen szögből is a gyűrűbe „teleportált”. Ehhez képest a Sora 2 a fizika törvényeivel teljesen megegyező módon bánik a tárgyak mozgásával: a labda a palánkba csapódik és pont úgy pattan vissza, ahogy az a valóságban is történne.

A tökéletlenség lehalkításával és a képminőség feltekerésével az OpenAI kisebb csodát alkotott: még egyszerű szöveges utasításokból is olyan videókat hoz létre, amelyeket a legtöbb néző képtelen megkülönböztetni a valóságtól. Az pedig, hogy mekkora a szakadék a versenytársak videógeneráló modelljei, valamint a Sora 2 között, remekül illusztrálja ez az összehasonlítás, amelyben a Google fejlesztette Veo 3–mal vetik össze a képességeit.

Ebben a videóban semmi sem valódi:

A gyorsan bővülő AI‑videópiacon persze vannak más vetélytársak is, például a Meta „Vibes” alkalmazása és a Meta Movie Gen modell, valamint az Elon Musk-féle xAI Grok Imagine-je. A Forbes hangsúlyozza, hogy utóbbi rendszerek 6–10 másodperces felvételeket készítenek, míg a Sora 2 akár egyperces videókat generálhat, illetve hangot is ad a tartalmakhoz, ami komoly fegyvertény a jelenlegi mezőnyben. És eddig minden jel arra mutat, hogy a Sora 2 a legerősebb videógeneráló AI.

Az OpenAI a modell széles körű – de egyelőre Észak-Amerikára korlátozott – bevezetése óta arra biztatja a felhasználókat, hogy a Sora 2 segítségével találjanak ki minél több új világot és történetet. A lehetőségeknek – látszólag – csak a képzelet szab határt, hiszen a modell képes az emberi hanghoz igazított dialógusok és hangeffektek generálására is, sőt, ha kell, a felhasználó hang‑ és videómintája alapján avatárt készít, így a saját filmünk főszereplőjévé válhatunk.

Mi változott? – A Sora 2 új képességei

Bár hozzáférés hiányában nekünk, magyaroknak egyelőre nincs összehasonlítási alapunk, az új modellről megjelent videókon valóban az látszik, hogy komoly szintlépés történt. Amíg a Sora demóiban a generált karakterek szemeit jótékonyan elrejtette valami (többnyire egy napszemüveg), a Sora 2 már nem tart az „uncanny valley” jelenségtől. Ez ugye az a nyugtalanító érzés, ami egy videojátékhoz vagy filmhez digitális eszközökkel létrehozott arc láttán tör ránk: hiába realisztikus a karakter, a tekintete természetellenes marad.

Az új modell már nem ilyen „félénk”: tisztában van vele, hogy amit előállít, teljesen életszerű, ezért nincs szükség trükközésre.

Olyannyira nincs, hogy az alábbi videóban látható és hallható Sam Altman sem Sam Altman, hanem egy Sora 2-vel létrehozott avatár, ami az OpenAI vezérigazgatójaként mutatja be a generatív AI képességeit. És ha erre nem figyelmeztetnek előre, aligha mondanánk meg, hogy nem a valódi személyt látjuk.

Az OpenAI szerint a Sora 2 legnagyobb újítása a fizikai törvények pontosabb szimulációja és a látvány élethű megjelenítése. A modell hosszabb és összetettebb cselekményeket, illetve akár többszereplős akciókat is képes kezelni, miközben megőrzi a mozgás törvényeinek koherenciáját.

A vállalat kiemelte, hogy a videók több jelenetből álló utasításokat követhetnek, és a rendszer megőrzi a generált világ állapotát: figyelembe veszi például azt, hogy a tárgyak az előző képsorban pontosan hol voltak. Ezzel már lehetséges akár több perces klipek és kisfilmek, ezáltal komplexebb narratívák létrehozása, de az OpenAI most még a rövid, gyorsan terjedő tartalmak felé tereli a felhasználókat, mert a játékos menőség meghozza a befektetők kedvét a további tervek finanszírozásához.

Lőttek a filmeseknek, vagy a Sora 2 csak egy új „ecset”, amivel alkothatnak?

Az OpenAI azzal hirdette a Sora, majd a Sora 2 rendszert, hogy a filmipar, az animációs stúdiók és a művészek eszköze lehet. A BBC Science Focus egyetért ezzel: azt írják, a rendszer megkönnyítheti animált klipek készítését, és ezzel időt, pénzt spórol. Az első verzió tartalmai ugyanakkor hemzsegtek a hibáktól. Ahogy arra a Washington Post is felhívta a figyelmet: a rendszer egy 1930‑as évekbeli jelenetben a cigaretta rossz végét gyújtotta meg vagy épp egyszerre több telefonkagylót adott a generált karakter kezébe, ráadásul hangot sem tudott létrehozni.

Ehhez képest a Sora 2 pontosságot és már szinkronizált hangot, illetve hangeffekteket is kínál, amivel elvileg tökéletesen alkalmassá válik a komplex szórakoztatóipari felhasználásra.

Az IndieWire elemzője ennek ellenére sem gondolja, hogy az új verzió a filmiparnak készült. A fejlesztők szerinte „nem törődnek Hollywooddal”, hiszen a platform elsősorban virális tartalmak gyártására ösztönzi az embereket, így a közösségi média új mémgyártó eszközévé válhat. És addig, ameddig ez csak igazoltatás elől meglépő Super Mario-s viccek szintjén realizálódik, nincs is nagy baj.

Ez még senkit sem bánt:

A gondok akkor kezdődnek, ha a könnyed hecceken túllépve valódi emberekről vagy valós eseményeket szimuláló helyzetekről készülnek valóságszagú kamuvideók, ami megnehezíti a független filmesek etikus AI‑felhasználását. Onnantól a Nintendo sem mókás rajongói videóként fogja kezelni a fentihez hasonló alkotásokat – ami még ingyen reklámot is csap a Mario Kart játékoknak –, mert attól tart majd, hogy a trend visszaéléseket szül, és óriási energiákat kell fordítani a szellemi tulajdona megvédésére.

A véleménycikk arra is figyelmeztet, hogy a Sora‑videók virális mémjei új frontot nyitnak a szerzői jogi háborúban, hiszen az AI‑userek óhatatlanul egyre kevesebbet törődnek majd a szellemi tulajdonnal, ezáltal tovább mélyítik az árkot az alkotók és az AI‑fejlesztők között. Az Indiewire ezzel kapcsolatban szakmai állásfoglalásokat sürget: úgy véli, ha a jogtulajdonosok és szakszervezetek nem alakítanak ki standardokat, elveszíthetik a harcot.

Osztja ezt az aggodalmat a WGBH-nak nyilatkozó digitális képzőművész, Kyt Janae is, aki szerint nem kell egy év, és szinte képtelenek leszünk megkülönböztetni az ember alkotta tartalmakat az AI-val generált képektől. Thomas Smith, a képek digitalizálásával, menedzselésével, kiadásával és monetizálásával foglalkozó Gado Images vezérigazgatója hozzátette:

a mesterségesen létrehozott képek miatt a valódi fotók is hitelességi válságba kerülhetnek.

Ezek a megállapítások azt jelzik, hogy a videógeneráló AI több területen okozhat károkat, a szórakoztatóipartól a politikán át a személyiségi jogokig.

Máris támadják az új AI-modellt

A Sora 2 indítását rögtön kritikák és aggályok kísérték. A The Guardian például arról számolt be, hogy a generált videók posztolására létrehozott TikTok-szerű app feedje hamar megtelt erőszakos és rasszista jelenetekkel, köztük bombázást és tömeggyilkosságot szimuláló tartalmakkal. Joan Donovan kutató ezzel kapcsolatban arra figyelmeztetett, hogy az ilyen eszközök elmossák a valóság és a hazugság között húzódó határt, ezáltal alkalmassá válhatnak gyűlöletkeltésre és zaklatásra.

Sam Altman ehhez képest a saját blogján a „kreativitás ChatGPT‑pillanataként” jellemezte a Sora 2 indulását, de óvatosan elismerte azt is, hogy például a bullying elkerülése érdekében nagyobb figyelmet kell fordítani a moderálásra.

A Rolling Stone közben példákkal illusztrálva mutatta be, hogy a realisztikus videógeneráló segítségével a felhasználók – csupán heccből – náci egyenruhába bújtattak hírességeket, történelmi eseményeket hamisítottak vagy éppen levédett karaktereket (Pikachu, Ronald McDonald, SpongeBob) használtak fel, ami szerzői jogi veszélyeket sejtet.

A Sora 2 kritikusait idézve a magazin azt írja, hogy az OpenAI „próbálja bepereltetni önmagát”.

A Vox cikke egyenesebben fogalmaz: felhívja a figyelmet arra, hogy a Sora 2 alapértelmezése szerint a jogtulajdonosok azok, akiknek kérvényezniük kellene a karaktereik eltávolítását, ami olyan, mintha a fejlesztők kifejezetten a szerzői jogok megsértése felé terelnék a felhasználókat.

Nem véletlen, hogy a kritikákkal szembesülő Sam Altman később frissítette a posztját, jelezve, hogy a jövőben a jogtulajdonosok „opt‑in” alapon adhatnak hozzá karaktereket az AI-modellhez, lehetővé téve, hogy a generált videók után részesedést kapjanak a bevételekből.

Őrületes energiaigény és a Sora 2 más pénzügyi hatásai

A modell bejelentését követően az elemzők felvetették, hogy a videók generálása rendkívüli mennyiségű számítási kapacitást és energiát igényel. Egyes kutatók szerint egy rövid, nagy felbontású videó generálása több mint 700‑szor több energiát fogyaszt, mint egy állókép létrehozása. Ennek következtében a jövő adatközpontjai már minden kétséget kizáróan nagyvárosokkal vetekedő energiazabáló – és karbonkibocsátó – szörnyetegek lesznek.

A Time elemzése rámutat: az AI‑videók ugyan drágák, de a cégek – köztük az OpenAI és a Meta – abban reménykednek, hogy a rövid videók gyártásával több előfizetéses felhasználó és befektető érkezik. Ez további bevételi forráshoz juttatja őket, ami még nagyobb modellek, egy napon pedig az általános mesterséges intelligencia megjelenéséhez vezethet.

Az AI-cégeknek tényleg nagyon kell a pénz, mert a generatív videómodellek fejlesztése hatalmas összegeket emészt fel. Ez az elemzők szerint idővel arra készteti majd a vállalatokat, hogy a befektetőktől és felhasználóktól beszedett pénzen túl a hirdetési piacon is terjeszkedjenek, illetve további előfizetési csomagokat találjanak ki, valamint árat emeljenek.

Mindeközben fontos cél a felhasználók viselkedési adatainak gyűjtése: a jövőbeli modellekhez a valós interakciók és preferenciák révén tudnak több és jobb tréningadatot gyűjteni.

Ami pedig a belátható jövőben érkező fejlesztéseket illeti, az OpenAI egyik korábbi közleménye felvetette azt is, hogy létrehoznak egy „világszimulátort”, amely pontosan modellezi a fizikai világ törvényeit, ezzel új tudományos problémákat lesz képes megoldani.

Új AI-evolúciós lépcsőfokok jönnek

A Sora 2 ezeknek a vízióknak a nagy reménysége, amitől azt várják, hogy további fejlesztéseket és több platformon elérhető verziókat eredményez. A megjelenése új korszakot nyit a generatív AI-k világában, hiszen bátran kijelenthetjük, hogy ennyire valószerű mozgásokat és hangeffekteket, illetve ilyen időtartamú történeteket még egyik videógeneráló AI sem tudott létrehozni.

Bár a fizika törvényeit még nem követi le tökéletesen és vastagon lehetőséget ad a visszaélésekre – a deepfake-től az erőszakos tartalmakon át a szerzői jogok megsértéséig –, a komoly etikai és jogi kérdések kezelése után érdemes lehet kihasználni a benne rejlő lehetőségeket.

A szakértők szerint hamar mainstream eszközzé válhat, de a társadalomnak – még új normarendszerek és hatékony moderálás bevezetése mellett is – fel kell készülnie arra, hogy a valóság és a mesterséges tartalom közötti határ elmosódik.

Mivel a gazdasági potenciál óriási, számolni kell a bővülésével és az energiafogyasztás növekedésével, valamint azzal, hogy a szellemi tulajdon megóvása érdekében ki kell harcolni a generált tartalmak után járó részesedést. Ezek az együttműködések – ha egyáltalán megköttetnek és aztán hosszú távon működőképesnek bizonyulnak – a kreatív tartalomgyártás ragyogó gyöngyszemévé varázsolhatják a Sora 2-t, illetve a jövőben érkező hasonló modelleket.


Link másolása
KÖVESS MINKET:

Ajánljuk