JÖVŐ
A Rovatból

„Az emberiség erre agyban nincs felkészülve” – Tilesch György szerint a mesterséges intelligencia fejlődési sebessége szinte felfoghatatlan

A történelem során először nézünk szembe valamivel, ami exponenciális gyorsasággal fejlődik. A nemzetközileg is elismert AI-szakértő szerint nincsenek évtizedeink, sőt, éveink sem az alkalmazkodásra.


Bár a mesterséges intelligencia 66 éves fogalom, az első modellek is nagyon régóta léteznek, sőt, használható mesterséges intelligenciák is már jó ideje szolgálnak minket, de igazán láthatóvá most vált, hol is tart ez a technológia. A ChatGPT, majd a GPT4, illetve a különböző képalkotó modellek hirtelen élményszerűvé tették a mesterséges intelligenciát.

De történt valami ennél is fontosabb. Tilesch György szerint az eddigi lineáris fejlődés a történelem során először valódi exponenciális sebességre váltott.

– Jött egy hír nemrég, hogy az olasz kormány fontolgatja a ChatGPT betiltását. Miért? Olyan veszélyes valóban?

– A ChatGPT az a rendszer, amiről sokan beszélnek, de igazából ez csak leegyszerűsítő megjelölése a témának. Az ugyanis még nagyon-nagyon sok gyermekbetegséggel rendelkező megoldás volt, és pár hónapra rá már ott volt a GPT4, ami klasszisokkal jobb, ráadásul ugyanattól a cégtől, az Open AI-tól jött. De az összes konkurense is dolgozik hasonló modelleken, pár már ezekből ki is jött.

Azt gondolom, ez a rendszer olyan szerepet fog betölteni, mint amit a Ford T-modell töltött be a XX. század elején. Lehet mutogatni majd, hogy ez az, amit a nagyközönség elsőként elkezdett megvenni.

Tehát a ChatGPT igazából csak bevitte a mainstreambe az információt, hogy van működő mesterséges intelligencia, ami kétségkívül hasznossá vált, de rengeteg még a megoldandó feladat. Az olasz kormány részéről felmerült betiltási tervekről az gondolom, hogy az még nem lezárt ügy. Az olaszoknak az adatvédelemmel foglalkozó ügynöksége hívta fel az Open AI figyelmét arra, hogy súlyos hiányosságok vannak. Ezek után az Open AI maga döntött arról, hogy ideiglenesen kiviszi az olasz piacról a ChatGPT-t.

Ahol konkrétan betiltották, vagy ahol elérhetetlen, azok olyan országok, mint Oroszország, Szomália, hasonlók.

Európában most készül egy szabályozási hullám, amelynek a kimunkálásában sok olasz is vesz részt, ez az EU AI Act, ami novemberben, vagy előbb meg fog jelenni. Szerintem annyi történik, hogy példát akarnak demonstrálni nemzetállami szinten is, hogy már a törvény, illetve az európai szintű jogszabály hatályba lépése előtt megpróbálják valahogy kikényszeríteni bizonyos érzékeny adatok védelmét, vagy legalábbis jelezni aggályos részterületeken a cégeknek, hogy eddig és ne tovább. Nem gondolom, hogy ez frontálisan szembe menne az AI terjedési hullámával. Az OpenAI is dolgozik azon, hogy bizonyítani tudja, megfelel az olasz kormány, illetve az adatvédelmi ügynökség elvárásainak. Szerintem a versenyszférában van egy nagyobb probléma, és ezt nem nagyon tudják a jelen pillanatban kiküszöbölni. Ha egy vállalati közegben, vagy kormányzati közegben használják a ChatGPT-t, tehát ahol érzékeny adatokkal dolgoznak, és esetleg arra kérik meg, hogy egy meetingnek a leiratát összegezze és küldje ki mindenkinek, vagy egy pénzügyi jelentést készítsen el vállalati adatok alapján, akkor azok az adatok bizony felmennek Redmondba, a Microsoft szerverére, meg az Open AI-hoz. Ezek az adatok onnantól kezdve részévé válnak annak a korpusznak, ami alapján a mesterséges intelligencia modell működik, ami azt jelenti, hogy

a világ egy bármilyen távoli pontján visszaköhögheti bárkinek azokat a vállalati vagy kormányzati adatokat, amiket egy óvatlan munkatárs feltöltött. Erre a jelen pillanatban még technológiai megoldás nincs.

Ezért is vannak ezek a reakciók.

– És akkor még a latorállamok MI fejlesztéseiről nem is beszéltünk...

– Szabályozni csak azt tudjuk, ami kereskedelmi forgalomban van, elő lehet fizetni rá, meg lehet vásárolni stb. A latorállamok nem azt a stratégiát fogják folytatni, hogy megpróbálják meghekkelni a Big Tech által piacra dobott nagy generatív MI rendszereket, bár azért erre is lesznek próbálkozások szerintem. Ugyanis a kereskedelmi forgalomban elérhető nagy nyelvű modelleknél szakemberek ezrei dolgoznak azon, hogy minél bombabiztossabbá tegyék etikai, biztonsági kockázati szempontokból ezeket a modelleket.

Amikor viszont egy latorállam úgy dönt, hogy használni akar egy ilyet a saját céljaira, semmi mást nem csinál, gyakorlatilag klónozza a rendelkezésre álló információk alapján ezeket a modelleket, és saját megoldásokat kezd csinálni, azzal nem tudunk mit kezdeni.

Tehát kissé leegyszerűsítve: az Európai Unió meghatározhatja például azt, hogy milyen feltételekkel jöhet be egy kínai AI modell az európai piacra, és ezt kőkeményen be is kell tartani a kínaiaknak, azonban, ha nem akar nyilvánosan bejönni a piacra, hanem valahol a szürke vagy sötét zónában kíván tevékenykedni, az ellen nem sok fegyverünk van a jelen pillanatban.

– Tehát másolható, ellopható ez a technológia?

– Igen. Vannak olyan országok, melyek a nulláról építik újra ezeket, és vannak olyanok, amelyek az elérhető információk és technológiai specifikációk alapján megpróbálják megépíteni a klónjukat, de olyan is előfordulhat, hogy részleteiben el tudják lopni, tehát ezerféle módszer létezik erre.

A GPT4 esetében történt meg először, hogy amikor megjelent az a közlemény, amiben kifejtették, hogy mit tud ez a modell, nem tartalmazott technológiai specifikációt. Az egész szakma felhördült ezen.

És ők pont azzal védekeztek, hogy a lator államok sokkal könnyebben ellophatják, ha ismerik a részleteket. Ez a mai napig erősen megosztó, mert az Open AI, mint brand, ma már minden, csak nem open (azaz nyílt). Olyan szempontok feszülnek egymásnak, amelyek között nagyon nehéz igazságot tenni, mert mindenki valahol ködösít. De vannak például jótékony célú klónozási vagy közösségi megoldások is. Európában például van egy modell, aminek az a neve, hogy Bloom. Ez volt az első olyan klón, amit kifejezetten társadalmi, hasznossági szempontok vezettek. Ez tavaly november-december környékén jöhetett ki, a francia állam kölcsönadta az egyik szuperszámítógépét egy tudományos közösségnek, körülbelül ezer egyetem 2500 embere hozta össze az első európai közösségi modellt, amihez én nagyon nagy reményeket fűztem. Nincsen a közelében sem most annak, amit a GPT4 csinál, de mindenképp kijelölt egy utat.

Csak annyit akarok mondani, hogy nem minden klónozás rossz klónozás.

Azt is kell nézni, hogy ki csinálja, és milyen szándékkal csinálja.

Tilesch György, magyar-amerikai mesterséges intelligencia (MI) szakértő, tanácsadó, cégvezető és író, aki az Egyesült Államokban él és dolgozik.

A washingtoni Fehér Ház MI-etikai munkacsoportjának tagja, a PHI Institute for Augmented Intelligence alapító elnöke és a Neumann Társaság MI-nagykövete. Omar Hatamleh-val közösen írt egy könyvet az MI okozta gazdasági, politikai és társadalmi változásokról Mesterség és Intelligencia címmel. Magyarországhoz is kötődik, többek között a Neumann János Számítógéptudományi Társaság megemlékezés-sorozatában és egy MI-képzési programban is részt vesz.

– Mekkora egy ilyen rendszer fizikailag? Elvihető egy bőröndben? Mi kell ahhoz, hogy ez működjön?

– Ezeknek a modelleknek a leginkább meghatározható faktora, ami alapján összehasonlíthatóak voltak, a paraméterszám. Tehát a bonyolultsága és a mélysége. Illetve a betanításhoz szükséges infrastrukturális és számítási kapacitás. Minél nagyobb modellt akarunk, és minél bonyolultabb és mélyebb modellt akarunk alkotni, annál nagyobb az igény mind adatoldalon, mind infrastrukturális oldalon, mind tehetségi és elővigyázatossági oldalon.

Ahogy rohan előre a szekér, egyre nagyobbak a belépési korlátok ahhoz, hogy valaki domináns pozícióra legyen szert.

Volt egy sztori pár héttel ezelőtt, hogy az Open AI a Google-tól elhozott egy AI-gurut, akinek az első dolga volt azt mondani, hogy a Google, amely most ugye ideiglenesen hátrányba került, mert később jött a piacra, az már az Open AI adatain tanította be a saját modelljét, ami nagyon kínos volt, és jogilag is lesznek még ennek következményei. Magyarán nagyon-nagyon keveseknek van hozzáférése az adatmennyiséghez, ráadásul akiknek van, azokat is folyamatosan támadják, hogy egyáltalán volt-e joguk azokat az adatokat feltölteni a modelljeikbe. Tehát mondjuk milyen jogon használja fel a modell például a Wikipédia adatait, vagy a Redditet, ami alapján egyébként a legtöbb társalgás megtörténik.

Amikor azt olvassa, hogy valakinek beszólt a mesterséges intelligencia, vagy szerelmet vallott, akkor reddites sötét chatszobák termékeit köhögi vissza a mesterséges intelligencia modell.

Tehát van egy csomó dolog, ami szürke zónában van. A GPT3-as körülbelül 175 milliárd paraméterrel rendelkezett, a GPT 4 konkrét adatait nem tudjuk, mert senki nem mondta meg. De óvatos becslések szerint is a korábbinak körülbelül a 100-szorosa lehet. Ezek elképesztő számok. Hogy mást ne mondjak, 100 amerikai család egész éves energiafogyasztása az az energiaigény, ami egy ilyen modell betanításához kell.

– Tehát fogyaszt annyit, mint egy komoly gyár.

– Igen, és sokan tartanak is attól, hogy ha elindul ezeknek a modelleknek a proliferációja, magyarán mindenki megpróbálja a sajátját megcsinálni - akár egy éven belül is eljuthatunk oda, hogy mindenki saját AI modellt fejleszt -, akkor

ez az energiaszükséglet igen könnyen felugorhat mondjuk a kripto világ jelenlegi energiafogyasztására. Márpedig a bitcoinbányászat, amikor legutóbb néztem, Csehország éves fogyasztását jelentette körülbelül.

Ez az érem egyik oldala. A másik oldala nyilvánvalóan az, hogy ezek a nagy cégek az AI-t már arra is használhatják, hogy a modellek betanítási energiaköltségét, a szervereik fogyasztását csökkentsék. A Google 25% körüli energiafogyasztás-csökkentést tudott elérni. Tehát nagyon érdekes és komplex ez a világ, mert egyik oldalon drámai a helyzet, viszont a másik oldalon ugyanazt a technológiát lehet jobbításra is használni. Nagyon nehéz fekete-fehéreket mondani, és azt hiszem, tévút is lenne.

– Háborús célokra, fegyverrendszerek irányítására is használható ez az eszköz?

– A nyelvi modellek két okból értek el áttörést. Az egyik az, hogy az embernek egy személyes élményt nyújtanak, tehát képesek társalogni. Ezt mondjuk egy számítógépes látási modell vagy egy komplex adatanalitikai rendszer nem tudja nyújtani. A nagy nyelvi modellek megjelenésével szinte észrevétlenül átléptünk abba a korba, amit úgy hívnak, hogy multimodalitás. Korábban azt mondtuk, hogy a szűk AI-nak a korszakában vagyunk, amikor egy-egy feladatra lehet betanítani, és azt végrehajtja, általában jobban, mint az ember. A multimodalitás azt jelenti, hogy horizontálisan nagyon sokféle feladatot tud elvégezni, amelyeknek csak egy része szigorúan nyelvi. Ezt úgy hívják angolul, hogy general purpose AI, vagyis általános felhasználású AI.

A mesterséges intelligencia esetében is áll az a szabály, amit általában igaz a technológiára, hogy a legelső felhasználási cél mindig hadászati.

Tehát mielőtt még kereskedelmi forgalomba kerülne bármi, a hadászati felhasználása már évek óta megy. Ez a technológia sem kivétel ez alól. Én 2017-ben már dolgoztam Amerikában a Pentagonnal nagy mesterséges intelligencia projekteken, amiknek nem hadászati célja volt alapvetően, mert abban nem vettem volna részt, de a hadsereg karolt fel egy olyan mesterséges intelligenciát, ami a hadihajók karbantartásáról szólt, és 7 milliárd dollárt spórolt meg évente az amerikai haditengerészetnek. A hadászati felhasználások száma már jelenleg is végtelen. Ha megnézi azt, hogy autonóm drónok harcolnak már különböző isten háta mögötti régiókban a világban, az egy jelentős áttörés. Ezek az eszközök ugyanis nem távirányítottak, hanem

előre „tudja” a drón, hogy kin robbanjon fel, milyen típusú egyenruhára robbanjon fel, hogy milyen típusú tankon robbanjon, ezek már nagyon komoly dolgok.

Azt szerintem kevesen tudják Magyarországon, hogy az ukrán hadsereg ellenállóképességének egy jelentős faktora az, hogy az amerikai Palantir nevű AI cég beállt mögéjük. Hallotta már ezt a nevet?

– Nem.

– Ez egy érdekes cég, ami tulajdonképpen azt csinálta, hogy egy adatanalitikai rendszert adott nekik, amiben már korábban volt egy csomó műholdas felvétel, és a harctéri egységek megkapták azt a lehetőséget, hogy bármikor fotókat és adatokat töltsenek fel a rendszerbe.

Ezzel elérték az ukránok, hogy a csapásmérő képességük sokkal pontosabbá vált, sokkal jobban látták az ellenség a mozgását, és sokkal pontosabban tudtak célozni.

Tehát ez például óriási előny volt, amit ők egyébként nem is tagadnak. Mondok egy másik példát. Van egy Clearview AI nevezetű amerikai startup, amelyik Amerikában perek sorozatát kapta a nyakába az elmúlt években, mert semmi mást nem csinált, mint hogy a közösségi médiáról, meg a Google Fotókról, és hasonló alkalmazásokról szerezte be illegálisan több tízmillió, százmillió ember fotóját. És ezek alapján létrehozott egy olyan, bármikor lekérdezhető adatbázist, ami AI számítógépes látás alapján azonosítja az embert. Tehát ha én önről csinálok most egy fotót, feltöltöm, akkor megmondja nekem a Clearview AI, az Ön összes social media profilja és hasonló megjelenései alapján, hogy maga kicsoda. Ez kereskedelmi forgalomban elérhető megoldás, amit egyébként azt hiszem, 800 rendőrkapitányság használ Amerikában, így fél-legálisan, de bűnözők azonosítására.

– Erről eddig még csak kínai viszonylatban hallottunk, hogy így azonosítják az embereket, pontozzák is ráadásul.

– Az teljesen más, vagyis nem teljesen más, de Kínában ezt a párt csinálja, Amerikában meg egy startup. Ez nagy különbség. Egy startup, amelyik el tudta adni a termékét X darab amerikai rendőrőrsnek anélkül, hogy a szövetségi állam, vagy akár egy tagállam bele tudott volna szólni. De emiatt perek sokasága következett. Ekkor a Clearview AI, aminek nagyon komoly PR problémái voltak Amerikában, azt csinálta, hogy ingyen és bérmentve felajánlotta ezt a szoftverét az ukrán államnak és az ukrán hadseregnek, és az alapján nagyon jól tudják azonosítani például a saját halottaikat, és az orosz halottakat is. Tehát így tudják visszaigazolni, hogy kik voltak azok, akik meghaltak, vagy háborús bűncselekményeket követtek el

– Lehet, hogy használták ezt akkor is, amikor azonosították a bucsai tetteseket?

– Majdnem biztos.

– Nagyon gyorsulnak a dolgok, persze amióta létezik emberiség, azóta egyfolytában azt éljük meg, hogy gyorsul a fejlődés, és ez a gyorsulás exponenciális, ami egy darabig talán még követhető, aztán egyre kevésbé lesz követhető. Az a kérdés, hogy meddig tudjuk ezt ép ésszel követni?

– A nagy korszakváltást abban látom most, hogy szerintem eddig nem exponenciálisban voltunk. Tehát eddig, amikor ipari forradalmakról beszéltünk, azért mindig volt pár évünk vagy pár évtizedünk, hogy átálljunk egyik technológiáról a másikra. Szerintem az AI, és különösen a generatív AI hozta el igazából az exponencialitást, amiről az én szűkebb pátriámban, Szilícium-völgyben nagyon sok vátesz és sárkányfűárus már regélt évtizedek óta, de ez sokáig nem volt kézzelfogható az embereknek. Most szerintem abszolút exponenciálisban vagyunk. Hogy mást ne mondjak, én körülbelül nyolc éve foglalkozom mesterséges intelligenciával, és egészen tavalyig azt tudtam mondani, hogy még át tudjuk látni az ugrásokat, mert az éves ugrások félévesek lettek, a félévesek haviak, satöbbi. De ha most bármilyen szakmai szimpóziumon részt veszek, és megnézek egy chartot arról, hogy az elmúlt héten mi történt AI-ban, akkor 30 olyan dolgot látok minden héten, ami mérföldkőnek számít. Na és ez az, amit nem tudunk befogadni szerintem. Tehát a kérdésére az a válaszom, hogy

most küzdünk meg először a történelemben az exponencialitásnak a valós idejű problémájával, és biztos vagyok abban, hogy az emberiség erre agyban nincsen felkészülve.

Ezért történt az is, hogy egyébként általam nagyon tisztelt, és sok esetben személyesen ismert AI tudósok és szakértők moratóriumot kezdtek el követelni, amiről gondolom ön is olvasott, mert pont ez volt a célja, hogy mindenki olvasson róla. Egy nyílt kiáltványt tettek közzé, amiben azt kérték, hogy fél évig most mindenki álljon le.

– Ez megoldaná a helyzetet?

– Ők egy klasszikus nyilvános tárgyalási technikát követtek. Tehát, ha túl sokat kérünk, és megkapjuk a 20 százalékát, már akkor is egész jól vagyunk. Nyilván abban nem bízhattak semmilyen szinten, hogy ez így át fog menni. Körülbelül három évvel ezelőtt volt egy olyan hullám Amerikában, amikor rájöttek arra, hogy az arcfelismerőkben, tehát a valós idejű biometrikus azonosító-rendszerekben nagyon sok a probléma. Emlékszem, hogy volt egy nyári két hét, amikor az ottani cégek, amelyek ilyen rendszerek fejlesztésével foglalkoztak, azt mondták, hogy leállunk vele, vagy azt mondták, hogy nem adjuk el hadászati és rendészeti célokra, ami pedig ennek az elsődleges felhasználása volt.

Csak akkor megtanulták, hogy a kínai barátaink viszont nem állnak le, akik szintén az élbolyban vannak!

Ezt valószínűleg fiaskóként élte meg a technológiai szektor. Visszatérve erre a kiáltványra, én úgy gondolom, hogy a szándék nemes volt, és nagyon nagyra értékelem, hogy kitették az asztalra a problémát. Ez a következőképpen hangzik:

fegyverkezési versenybe torkollt a mesterséges intelligencia a főszereplő nagyvállalatok és államok részvételével. Ennek a sebessége felfoghatatlan mértékűvé vált pár hónapon belül, és semmilyen szabályozási környezet nem létezik a jelen pillanatban, ami ennek gátat tudna szabni.

Tehát a kérdés az volt, hogy fél évig, amíg a megfelelő szabályozási környezet nem jön létre, addig álljunk le. A fél évet azért számolták, mert mostantól számított fél éven belül biztos, hogy az EU kijön egy szabályozással. Az USA is most rekordsebességre kapcsolt szabalyozásilag. Az elvárás maga az irreális volt, de az, hogy ez téma lett a társadalomban és a legfelsőbb körökben, az szerintem hasznos volt.

– Öt év múlva hogy fogunk élni? Nem adok 10-et, csak 5-öt, hátha ellátunk még odáig.

– Én 2-3-at szoktam maximum bevállalni, de azt is évekkel ezelőtt. Meg se merem jósolni őszintén, szóval pontosan emiatt, mert tavaly november óta elszabadultak a dolgok. Amit látok biztosan, hogy a világ jelenlegi fragmentáltsága, tömbösödése szerintem csak erősödni fog, tehát

egy csomó mesterséges intelligencia alapú társadalmi-gazdasági modell fog fej-fej mellett kifejlődni.

Már látszik egy kínai modell, látszik egy európai modell, és valahogy körvonalazódik egy amerikai, ami egyébként egy kicsit homályosabb. Amerika most éppen gondolkodik, hogy mit kéne lépni, elég-e az, hogy a mi technológiai cégeinknél van az elsőbbség még jelen pillanatban, vagy európai mintára brutál erős szabályozást kell bevezetni. Tehát lesznek ilyen, hogyha úgy tetszik, AI alapú társadalmi operációs rendszerek, amelyek között szerintem nagyon kevés átjárás lesz. Ez a globalizmus egyfajta visszavetése lesz, hiszen eltérő és inkompatibilis modellek fognak létrejönni. Azon a válaszúton vagyunk, mint emberiség, hogy

sok múlhat azon, mennyire tudjuk rákényszeríteni a döntéshozóinkra, legyenek azok akár kormányzati, akár nagyvállalati döntéshozók, hogy szilárd mederbe tereljék ezt a folyamatot.

Ennek a demokráciákban szerintem alapelvnek kellene lennie. Én alapvetően nem osztom azt a negatív jövőképet, amit sok AI-szakértő jósol, hogy legalább 10% az esélye annak, hogy az AI következtében az emberiség kipusztul, azt viszont gondolom, hogy amennyiben nyakló nélkül hagyunk benyomulni egy exponenciális erőt például a munka világába, vagy az információszerzés világába, abból jó dolog nem jöhet ki. Tehát az exponencialitás sebessége, és az, hogy kinek a kezében van az AI, egy robbanóelegy tud lenni. Felelős gondolkodásra van szükség, és a társadalom részéről arra, hogy kikényszerítse a döntéshozóiból, hogy olyan AI-t kapjon, amilyet megérdemel.


Link másolása
KÖVESS MINKET:

Népszerű
Ajánljuk
Címlapról ajánljuk


JÖVŐ
A Rovatból
A mesterséges intelligencia képes lehet akár tíz évre előre megjósolni, hogy kinek milyen betegsége lesz
A modell névtelen kórlapok mintáit figyeli, és évekre előre megmutatja, hol nagyobb a kockázat. A fejlesztők szerint így hamarabb lehet beavatkozni, és még az is tervezhető, hány szívinfarktusra kell készülnie egy városnak 2030-ban.


A kutatók szerint a mesterséges intelligencia akár tíz évre előre jelezhet egészségi gondokat, írja a BBC. A rendszer az emberek egészségügyi adataiban keres mintákat, és több mint 1000 betegség kockázatát számolja. Úgy írják le, mint egy időjárás-előrejelzést: százalékban adja meg a valószínűséget. A cél, hogy időben kiszűrje a magas kockázatú embereket, és évekre előre segítse a kórházak tervezését.

A Delphi-2M nevű modell hasonló technológiára épül, mint a közismert MI-chatbotok, például a ChatGPT. A chatbotok nyelvi mintákat tanulnak, és megjósolják, milyen szavak követik egymást. A Delphi-2M névtelenített egészségügyi adatokból tanulta meg felismerni a mintázatokat, és így jelzi előre, mi következhet és mikor. Nem mond pontos dátumot, hanem 1231 betegség valószínűségét becsli.

„Ahogy az időjárásnál 70 százalék esélyt jelezhetünk az esőre, ugyanezt meg tudjuk tenni az egészségügyben is”

– mondta Ewan Birney professzor, az Európai Molekuláris Biológiai Laboratórium megbízott főigazgatója. „Ráadásul nemcsak egy betegségre, hanem egyszerre az összesre – ilyet még soha nem tudtunk. Izgatott vagyok” – tette hozzá.

A fejlesztők először brit, névtelenített adatokon tanították a modellt: kórházi felvételek, háziorvosi adatok és életmódbeli szokások (például dohányzás) több mint 400 ezer résztvevőtől a UK Biobank projektből. Ezután más Biobank-résztvevők adataival ellenőrizték az előrejelzéseket, majd 1,9 millió ember dániai egészségügyi adatán is letesztelték. „Ha a modellünk azt mondja, hogy a következő évben tízből egy az esély, akkor tényleg nagyjából tízből egy esetben következik be” - tette hozzá Birney professzor.

A rendszer azoknál a betegségeknél működik a legjobban, amelyeknek jól követhető a lefolyása, például a 2-es típusú cukorbetegség, a szívinfarktus vagy a szepszis. Az inkább esetleges fertőzéseknél gyengébben teljesít.

Az orvosok ma is írnak fel koleszterincsökkentőt annak alapján, mekkora valakinél a szívinfarktus vagy a stroke kockázata. Az MI-eszköz még nem áll készen a klinikai használatra, de hasonló módon tervezik alkalmazni: korán azonosítani a magas kockázatú embereket, amikor még van esély megelőzni a betegséget. Ez jelenthet gyógyszert vagy célzott életmódtanácsot – például akinek nagyobb az esélye bizonyos májbetegségekre, annak a szokásosnál jobban megérheti visszavenni az alkoholfogyasztásból.

Az MI a szűrőprogramok tervezésében is segíthet, és egy térség összes egészségügyi adatát elemezve előre jelezheti a várható igényeket,

például hogy 2030-ban nagyjából hány szívinfarktus várható egy adott városban.

„Ez egy újfajta megközelítés kezdete az emberi egészség és a betegséglefolyás megértésében” – mondta Moritz Gerstung professzor, a Német Rákkutató Központ (DKFZ) onkológiai MI-osztályának vezetője. „Az olyan generatív modellek, mint a miénk, egy napon személyre szabhatják az ellátást, és nagy léptékben előre jelezhetik az egészségügyi szükségleteket.”

A Nature tudományos folyóiratban ismertetett modellt még finomítani és tesztelni kell a klinikai használat előtt. Torzítást okozhat, hogy a UK Biobank adatai főként 40–70 éves emberektől származnak. A fejlesztők most bővítik a modellt képalkotó vizsgálatokkal, genetikai információkkal és vérvizsgálati eredményekkel.

„Fontos hangsúlyozni, hogy ez kutatás – mindent alaposan tesztelni, szabályozni és átgondolni kell, mielőtt használni kezdjük, de a technológia adott ahhoz, hogy ilyen előrejelzéseket készítsünk” – nyomatékosította Birney professzor. Úgy véli, a genomika egészségügyi bevezetéséhez hasonló utat járhat be a folyamat: a tudósok bizalmától a rutinszerű klinikai használatig akár egy évtized is eltelhet.

A kutatás az Európai Molekuláris Biológiai Laboratórium, a Német Rákkutató Központ (DKFZ) és a Koppenhágai Egyetem együttműködésében készült. Gustavo Sudre, a King’s College London kutatója így értékelt: „Ez a munka jelentős lépés a skálázható, értelmezhető és – ami a legfontosabb – etikailag felelős orvosi prediktív modellezés felé.”


Link másolása
KÖVESS MINKET:

Ajánljuk
JÖVŐ
A Rovatból
Megkezdték a humanoid robotok tömeggyártását Kínában
A cég több ezer előrendelést említ, az ár körülbelül 11,5 millió forint. A mozgásnál emberi mintákat követnek: a végtagok összehangolását szimulációk és utánzásos tanulás segíti.
Maier Vilmos - szmo.hu
2025. szeptember 27.



A kínai Kepler Robotics elindította a K2 Bumblebee humanoid robot tömeggyártását, írja a Rakéta. A modellt logisztikai munkákra, gyártási feladatokban segítésre, kiállításokra és „speciális műveletekre” szánják.

A K2 hibrid architektúrával működik, ami energiahatékony üzemet tesz lehetővé. A gyártó szerint a humanoid egyhuzamban akár 8 órát is dolgozik.

Az ár a hasonló, általános célú humanoidokhoz képest kicsivel magasabb:

körülbelül 11,5 millió forint.

A robotra már több ezer megrendelés érkezett.

A cég a külalakot kevésbé, a mozgást viszont nagyon „emberire” tervezte. A K2 Bumblebee imitációs tanulással és szimulációkkal sajátította el a járás emberihez hasonló jellegzetességeit, beleértve a végtagok mozgásának összehangolását.

A humanoid robotról készült videót itt lehet megnézni:


Link másolása
KÖVESS MINKET:


JÖVŐ
A Rovatból
Sora 2: megjöttek a videók, amiket a képtelenség megkülönböztetni a valóságtól
Náci egyenruhába bújtattak hírességek, meghamisított történelmi események, kamu filmjelenetek igazinak tűnő színészekkel – máris ilyen videók készültek az OpenAI legújabb videógeneráló modelljével, ami egyszerre lenyűgöző és félelmetes.


A Sora 2 videógeneráló modell szeptember végén jelent meg, azzal az ígérettel, hogy a korábbi változathoz képest jelentősen javult a fizikai pontosság, a realizmus és az irányíthatóság. Mivel az OpenAI már a Sora tavaly decemberben kiadott első változatát is – a ChatGPT sikerével párhuzamba állítva – a videókészítés „GPT‑1 pillanatának” nevezte, nagy várakozások előzték meg a „GPT‑3.5 pillanatként” beharangozott Sora 2-t.

Az első verzió fejlesztői változatáról a demók alapján azt írtuk, olyan minőségű filmekhez, amelyeket szöveges utasításra generál, normál esetben külső helyszínekre, díszletekre, profi felszerelésekre és szakemberekre, statisztákra, illetve színészekre lenne szükség, de „úgy fest, hogy mostantól egyetlen AI, a Sora is elég lesz hozzá”.

Nyújthat ennél is többet egy videógeneráló modell? A Sora 2–nek a jelek szerint sikerült, mert a világ egyik ámulatból a másikba esik a vele készült mozgóképek láttán. Az OpenAI azt állítja, hogy az új modell kiküszöböli a korábbi videógenerálók jellemző hibáit, például az amorf tárgyakat és karaktereket, a torzult valóságot vagy a „túlzott optimizmust”. Utóbbihoz példát is kapcsol: ha egy generált videóban szereplő kosárlabdázó „elvéti” a dobást, az eddigi verziók inkább kicsavarták a realitást, és a labda még lehetetlen szögből is a gyűrűbe „teleportált”. Ehhez képest a Sora 2 a fizika törvényeivel teljesen megegyező módon bánik a tárgyak mozgásával: a labda a palánkba csapódik és pont úgy pattan vissza, ahogy az a valóságban is történne.

A tökéletlenség lehalkításával és a képminőség feltekerésével az OpenAI kisebb csodát alkotott: még egyszerű szöveges utasításokból is olyan videókat hoz létre, amelyeket a legtöbb néző képtelen megkülönböztetni a valóságtól. Az pedig, hogy mekkora a szakadék a versenytársak videógeneráló modelljei, valamint a Sora 2 között, remekül illusztrálja ez az összehasonlítás, amelyben a Google fejlesztette Veo 3–mal vetik össze a képességeit.

Ebben a videóban semmi sem valódi:

A gyorsan bővülő AI‑videópiacon persze vannak más vetélytársak is, például a Meta „Vibes” alkalmazása és a Meta Movie Gen modell, valamint az Elon Musk-féle xAI Grok Imagine-je. A Forbes hangsúlyozza, hogy utóbbi rendszerek 6–10 másodperces felvételeket készítenek, míg a Sora 2 akár egyperces videókat generálhat, illetve hangot is ad a tartalmakhoz, ami komoly fegyvertény a jelenlegi mezőnyben. És eddig minden jel arra mutat, hogy a Sora 2 a legerősebb videógeneráló AI.

Az OpenAI a modell széles körű – de egyelőre Észak-Amerikára korlátozott – bevezetése óta arra biztatja a felhasználókat, hogy a Sora 2 segítségével találjanak ki minél több új világot és történetet. A lehetőségeknek – látszólag – csak a képzelet szab határt, hiszen a modell képes az emberi hanghoz igazított dialógusok és hangeffektek generálására is, sőt, ha kell, a felhasználó hang‑ és videómintája alapján avatárt készít, így a saját filmünk főszereplőjévé válhatunk.

Mi változott? – A Sora 2 új képességei

Bár hozzáférés hiányában nekünk, magyaroknak egyelőre nincs összehasonlítási alapunk, az új modellről megjelent videókon valóban az látszik, hogy komoly szintlépés történt. Amíg a Sora demóiban a generált karakterek szemeit jótékonyan elrejtette valami (többnyire egy napszemüveg), a Sora 2 már nem tart az „uncanny valley” jelenségtől. Ez ugye az a nyugtalanító érzés, ami egy videojátékhoz vagy filmhez digitális eszközökkel létrehozott arc láttán tör ránk: hiába realisztikus a karakter, a tekintete természetellenes marad.

Az új modell már nem ilyen „félénk”: tisztában van vele, hogy amit előállít, teljesen életszerű, ezért nincs szükség trükközésre.

Olyannyira nincs, hogy az alábbi videóban látható és hallható Sam Altman sem Sam Altman, hanem egy Sora 2-vel létrehozott avatár, ami az OpenAI vezérigazgatójaként mutatja be a generatív AI képességeit. És ha erre nem figyelmeztetnek előre, aligha mondanánk meg, hogy nem a valódi személyt látjuk.

Az OpenAI szerint a Sora 2 legnagyobb újítása a fizikai törvények pontosabb szimulációja és a látvány élethű megjelenítése. A modell hosszabb és összetettebb cselekményeket, illetve akár többszereplős akciókat is képes kezelni, miközben megőrzi a mozgás törvényeinek koherenciáját.

A vállalat kiemelte, hogy a videók több jelenetből álló utasításokat követhetnek, és a rendszer megőrzi a generált világ állapotát: figyelembe veszi például azt, hogy a tárgyak az előző képsorban pontosan hol voltak. Ezzel már lehetséges akár több perces klipek és kisfilmek, ezáltal komplexebb narratívák létrehozása, de az OpenAI most még a rövid, gyorsan terjedő tartalmak felé tereli a felhasználókat, mert a játékos menőség meghozza a befektetők kedvét a további tervek finanszírozásához.

Lőttek a filmeseknek, vagy a Sora 2 csak egy új „ecset”, amivel alkothatnak?

Az OpenAI azzal hirdette a Sora, majd a Sora 2 rendszert, hogy a filmipar, az animációs stúdiók és a művészek eszköze lehet. A BBC Science Focus egyetért ezzel: azt írják, a rendszer megkönnyítheti animált klipek készítését, és ezzel időt, pénzt spórol. Az első verzió tartalmai ugyanakkor hemzsegtek a hibáktól. Ahogy arra a Washington Post is felhívta a figyelmet: a rendszer egy 1930‑as évekbeli jelenetben a cigaretta rossz végét gyújtotta meg vagy épp egyszerre több telefonkagylót adott a generált karakter kezébe, ráadásul hangot sem tudott létrehozni.

Ehhez képest a Sora 2 pontosságot és már szinkronizált hangot, illetve hangeffekteket is kínál, amivel elvileg tökéletesen alkalmassá válik a komplex szórakoztatóipari felhasználásra.

Az IndieWire elemzője ennek ellenére sem gondolja, hogy az új verzió a filmiparnak készült. A fejlesztők szerinte „nem törődnek Hollywooddal”, hiszen a platform elsősorban virális tartalmak gyártására ösztönzi az embereket, így a közösségi média új mémgyártó eszközévé válhat. És addig, ameddig ez csak igazoltatás elől meglépő Super Mario-s viccek szintjén realizálódik, nincs is nagy baj.

Ez még senkit sem bánt:

A gondok akkor kezdődnek, ha a könnyed hecceken túllépve valódi emberekről vagy valós eseményeket szimuláló helyzetekről készülnek valóságszagú kamuvideók, ami megnehezíti a független filmesek etikus AI‑felhasználását. Onnantól a Nintendo sem mókás rajongói videóként fogja kezelni a fentihez hasonló alkotásokat – ami még ingyen reklámot is csap a Mario Kart játékoknak –, mert attól tart majd, hogy a trend visszaéléseket szül, és óriási energiákat kell fordítani a szellemi tulajdona megvédésére.

A véleménycikk arra is figyelmeztet, hogy a Sora‑videók virális mémjei új frontot nyitnak a szerzői jogi háborúban, hiszen az AI‑userek óhatatlanul egyre kevesebbet törődnek majd a szellemi tulajdonnal, ezáltal tovább mélyítik az árkot az alkotók és az AI‑fejlesztők között. Az Indiewire ezzel kapcsolatban szakmai állásfoglalásokat sürget: úgy véli, ha a jogtulajdonosok és szakszervezetek nem alakítanak ki standardokat, elveszíthetik a harcot.

Osztja ezt az aggodalmat a WGBH-nak nyilatkozó digitális képzőművész, Kyt Janae is, aki szerint nem kell egy év, és szinte képtelenek leszünk megkülönböztetni az ember alkotta tartalmakat az AI-val generált képektől. Thomas Smith, a képek digitalizálásával, menedzselésével, kiadásával és monetizálásával foglalkozó Gado Images vezérigazgatója hozzátette:

a mesterségesen létrehozott képek miatt a valódi fotók is hitelességi válságba kerülhetnek.

Ezek a megállapítások azt jelzik, hogy a videógeneráló AI több területen okozhat károkat, a szórakoztatóipartól a politikán át a személyiségi jogokig.

Máris támadják az új AI-modellt

A Sora 2 indítását rögtön kritikák és aggályok kísérték. A The Guardian például arról számolt be, hogy a generált videók posztolására létrehozott TikTok-szerű app feedje hamar megtelt erőszakos és rasszista jelenetekkel, köztük bombázást és tömeggyilkosságot szimuláló tartalmakkal. Joan Donovan kutató ezzel kapcsolatban arra figyelmeztetett, hogy az ilyen eszközök elmossák a valóság és a hazugság között húzódó határt, ezáltal alkalmassá válhatnak gyűlöletkeltésre és zaklatásra.

Sam Altman ehhez képest a saját blogján a „kreativitás ChatGPT‑pillanataként” jellemezte a Sora 2 indulását, de óvatosan elismerte azt is, hogy például a bullying elkerülése érdekében nagyobb figyelmet kell fordítani a moderálásra.

A Rolling Stone közben példákkal illusztrálva mutatta be, hogy a realisztikus videógeneráló segítségével a felhasználók – csupán heccből – náci egyenruhába bújtattak hírességeket, történelmi eseményeket hamisítottak vagy éppen levédett karaktereket (Pikachu, Ronald McDonald, SpongeBob) használtak fel, ami szerzői jogi veszélyeket sejtet.

A Sora 2 kritikusait idézve a magazin azt írja, hogy az OpenAI „próbálja bepereltetni önmagát”.

A Vox cikke egyenesebben fogalmaz: felhívja a figyelmet arra, hogy a Sora 2 alapértelmezése szerint a jogtulajdonosok azok, akiknek kérvényezniük kellene a karaktereik eltávolítását, ami olyan, mintha a fejlesztők kifejezetten a szerzői jogok megsértése felé terelnék a felhasználókat.

Nem véletlen, hogy a kritikákkal szembesülő Sam Altman később frissítette a posztját, jelezve, hogy a jövőben a jogtulajdonosok „opt‑in” alapon adhatnak hozzá karaktereket az AI-modellhez, lehetővé téve, hogy a generált videók után részesedést kapjanak a bevételekből.

Őrületes energiaigény és a Sora 2 más pénzügyi hatásai

A modell bejelentését követően az elemzők felvetették, hogy a videók generálása rendkívüli mennyiségű számítási kapacitást és energiát igényel. Egyes kutatók szerint egy rövid, nagy felbontású videó generálása több mint 700‑szor több energiát fogyaszt, mint egy állókép létrehozása. Ennek következtében a jövő adatközpontjai már minden kétséget kizáróan nagyvárosokkal vetekedő energiazabáló – és karbonkibocsátó – szörnyetegek lesznek.

A Time elemzése rámutat: az AI‑videók ugyan drágák, de a cégek – köztük az OpenAI és a Meta – abban reménykednek, hogy a rövid videók gyártásával több előfizetéses felhasználó és befektető érkezik. Ez további bevételi forráshoz juttatja őket, ami még nagyobb modellek, egy napon pedig az általános mesterséges intelligencia megjelenéséhez vezethet.

Az AI-cégeknek tényleg nagyon kell a pénz, mert a generatív videómodellek fejlesztése hatalmas összegeket emészt fel. Ez az elemzők szerint idővel arra készteti majd a vállalatokat, hogy a befektetőktől és felhasználóktól beszedett pénzen túl a hirdetési piacon is terjeszkedjenek, illetve további előfizetési csomagokat találjanak ki, valamint árat emeljenek.

Mindeközben fontos cél a felhasználók viselkedési adatainak gyűjtése: a jövőbeli modellekhez a valós interakciók és preferenciák révén tudnak több és jobb tréningadatot gyűjteni.

Ami pedig a belátható jövőben érkező fejlesztéseket illeti, az OpenAI egyik korábbi közleménye felvetette azt is, hogy létrehoznak egy „világszimulátort”, amely pontosan modellezi a fizikai világ törvényeit, ezzel új tudományos problémákat lesz képes megoldani.

Új AI-evolúciós lépcsőfokok jönnek

A Sora 2 ezeknek a vízióknak a nagy reménysége, amitől azt várják, hogy további fejlesztéseket és több platformon elérhető verziókat eredményez. A megjelenése új korszakot nyit a generatív AI-k világában, hiszen bátran kijelenthetjük, hogy ennyire valószerű mozgásokat és hangeffekteket, illetve ilyen időtartamú történeteket még egyik videógeneráló AI sem tudott létrehozni.

Bár a fizika törvényeit még nem követi le tökéletesen és vastagon lehetőséget ad a visszaélésekre – a deepfake-től az erőszakos tartalmakon át a szerzői jogok megsértéséig –, a komoly etikai és jogi kérdések kezelése után érdemes lehet kihasználni a benne rejlő lehetőségeket.

A szakértők szerint hamar mainstream eszközzé válhat, de a társadalomnak – még új normarendszerek és hatékony moderálás bevezetése mellett is – fel kell készülnie arra, hogy a valóság és a mesterséges tartalom közötti határ elmosódik.

Mivel a gazdasági potenciál óriási, számolni kell a bővülésével és az energiafogyasztás növekedésével, valamint azzal, hogy a szellemi tulajdon megóvása érdekében ki kell harcolni a generált tartalmak után járó részesedést. Ezek az együttműködések – ha egyáltalán megköttetnek és aztán hosszú távon működőképesnek bizonyulnak – a kreatív tartalomgyártás ragyogó gyöngyszemévé varázsolhatják a Sora 2-t, illetve a jövőben érkező hasonló modelleket.


Link másolása
KÖVESS MINKET:


JÖVŐ
A Rovatból
Mesterséges intelligenciával hoztak létre egy színésznőt - a hollywoodi színészek kiakadtak
Tilly Norwood már ügynökségeknél is próbálkozik, hogy szerepet kapjon, de több ismert színész és a szakszervezet is tiltakozik ellene.


Eline Van der Velden holland színész és komikus egy mesterséges intelligenciával működő, Tilly Norwood nevű szintetikus színészt hozott létre. Az alkotó szerint ez „a képzelőerő megnyilvánulása”, és hasonló „egy karakter megrajzolásához, egy szerep megírásához vagy egy előadás megalkotásához”.

Tilly Norwoodnak már saját Instagram-oldala is van. Készítői bőrhibákat is megjelenítettek rajta, valamint olyan mondatokat írtak a nevében, mint például azt, hogy „nagyon izgatott” a jövő miatt.

A fejlesztők már több ügynökségnél is bejelentkeztek, hogy hollywoodi filmes szereplési lehetőséget szerezzenek neki.

A hollywoodi színészszakszervezet és több ismert színész is tiltakozik az AI-színész ellen. A szervezet közleményében úgy fogalmazott:

Norwood „nem színész, hanem egy számítógépes program által generált karakter, amit profi színészek munkájával tanítottak be.

Nincsenek élményei, amikből meríthetne, nincsenek érzelmei, és az eddig látottak alapján a közönséget sem érdekli a számítógéppel generált, emberi valóságtól elszakadt tartalmak”.

Emily Blunt a mesterséges színészt „ijesztőnek” nevezte. Natasha Lyonne szerint pedig bojkottálni kell mindenkit, aki együtt dolgozna vele. A BBC szerint Lyonne épp egy olyan filmen dolgozik, amelyben valódi színészek szerepelnek, és amelyben „etikus mesterséges intelligenciát” alkalmaznak.

Whoopi Goldberg úgy véli, hogy a közönség képes megkülönböztetni a valódi embereket a mesterséges intelligencia által generált alakoktól, mivel „másképp mozognak”.

Van der Velden egy közelmúltbeli előadáson azt mondta, szerinte a hollywoodi stúdiók és ügynökségek titokban támogatják a mesterséges intelligencia használatát, és a következő hónapokban nagy bejelentésekre lehet számítani ezzel kapcsolatban.

(via 444)


Link másolása
KÖVESS MINKET: