JÖVŐ
A Rovatból

Pohly Ferenc: A robot kérdezőbiztos teljesen objektív, és egy csomó ember szívesebben és őszintébben beszél vele

A Minerva Intézet forradalmi AI-megoldással faggatta az embereket a politikai közhangulatról. Pohly Ferenc ügyvezető szerint az AI-alapú kérdezőbiztosok nem fáradnak el és semmilyen módon nem befolyásolják a válaszadókat.


Az idén nyáron alapított Minerva Intézet egy mesterséges intelligencia-alapú robotasszisztenssel végzi felméréseit. Július közepén például azt vizsgálták, milyen közhangulat, milyen témák foglalkoztatják az embereket, és hogy áll a Tisza és a Fidesz versenye.

Pohly Ferencet, a Minerva Intézet Nonprofit Kft. ügyvezetőjét arról faggattuk, hogy milyenek az első tapasztalataik az AI-asszisztenssel végzett telefonos közvélemény-kutatások kapcsán, és mennyire vált be a válaszadóknak, hogy nem élő ember van a vonal túloldalán? Arra is kíváncsiak voltunk, hogy ez a megoldás mennyiben jobb vagy hatékonyabb, mint a hagyományos, kérdezőbiztosokkal bonyolított kutatások, illetve milyen előnyöket rejt a technológia, ha az eredmények elkészítésére és elemzésére kerül sor.

- Miért döntöttetek az AI asszisztens használata mellett, milyen előnyt vártatok tőle, és mit kaptatok?

- Egyrészt azért döntöttünk mellette, mert mi, a Minerva Intézet alapítói nagyon régóta foglalkozunk ezzel a technológiával, tehát szöveggenerálással, szövegfelismeréssel és ezeknek mindenféle kommunikációs alkalmazásával. Hogy csak egy dolgot mondjak: ennek a Minerva robotnak a közeli rokona a MÁV-nál szolgálatot teljesítő Elvira nevű hangasszisztens. Ez a technológia a kezünkben volt, és úgy gondoltuk, hogy közvélemény-kutatási célra is rendkívül jó lehet. Ami pedig az előnyöket illeti: adja magát az automatizációtól várható előny, hiszen nem emberek végzik a kérdezést, hanem egy gép, ami nem fárad el, 0-24-ben tud telefonálni. Meg egyébként – és ez már egy olyan előny, ami nem feltétlenül magától értetődő – teljesen objektív.

A telefonos felmérések egyik problémájaként szokták felróni maguk a közvélemény-kutatók is, hogy a kérdezőbiztosok, akár a legjobb indulattal, de segítenek eldönteni egy-egy kérdést a felhívott személynek.

Vagyis valamennyire megmondják, hogy mit kell gondolni. Nem feltétlenül arra gondolok, hogy tudatosan befolyásolják a résztvevőt, hanem ha az visszakérdez, hogy „jaj, melyik is az a párt, most nem jut eszembe”, akkor megmondják, hogy melyik párt, és ezzel a kérdés nem tölti be a funkcióját, hiszen önmagától kellett volna megneveznie egy pártot. Ilyen értelemben a robot kérdezőbiztos teljesen objektív. Mindenkit pontosan ugyanazzal a lendülettel és ugyanazzal az intencióval kérdez – nincs befolyásolás semmilyen irányba. Ebből adódik egy másik dolog is, ami szintén nagy előny.

Azt tapasztaltuk a felmérések során, hogy egy csomó ember szívesebben és őszintébben beszél a robottal, mert érezhetően nem kell attól tartania, hogy megítélik, pláne úgy, hogy a bevezetőben elhangzik: a felvételeket sem fogja meghallgatni egyetlen ember sem.

Egyszóval könnyebben nyílnak meg és ezt el is mondják. A hívás végén az asszisztens közli, „ön most egy mesterséges intelligencia alapú robottal beszélgetett”, és megkérdezi, hogy milyen érzés volt. Erre elég sokan elárulták, hogy igazából tök jó, mert végre elmondhatták a véleményüket, végre kimondhatták, ami a szívüket nyomja. Az adatfelvétel szempontjából nagyon előnyös, ha könnyen megnyílnak, ezáltal a válaszadási hajlandóság nálunk – mondjuk így – az iparági átlagnál picivel magasabb, és azt gondoljuk, hogy még tovább tudjuk emelni. Összességében az a helyzet, hogy az emberek bizonyos érzékeny témákban valamivel szívesebben beszélnek egy robottal, mint egy másik emberrel.

- Ez valahol meglepő. Óhatatlanul eszünkbe juthat a robotaxi, amitől sokan tartanak. Igaz, ott a fizikai biztonságunk múlik az AI-n, míg egy közvélemény-kutatásban erről nincs szó, de akkor is: a bizalmunkba kell fogadni egy robotot.

- Nem egy barátom van, aki az AI-iparban dolgozik, és azt mondja, ő bizony be nem ülne egy robotaxiba, amit soha nem értek, hiszen tudjuk, hogy az önvezető autók összességében sokkal biztonságosabban vezetnek, mint az átlagos emberek. Ha a statisztikát nézzük, akkor az önvezető autók nagyságrendekkel kevesebb baleset részesei, mint az emberi sofőrök. De ettől még igaz az, hogy az emberek a gépekben, vagy az AI-ban nem feltétlenül bíznak. A közvélemény-kutatás viszont egy sokkal lazább, sokkal súlytalanabb szituáció: az AI kérdéseket tesz föl, én pedig válaszolok. Ha nem leszek ideges attól, hogy nem érti, amit mondok, vagy hogy rendre visszakérdez, akkor majdhogynem mindegy, hogy ember, vagy robot a kérdező. Ráadásul egy jó, az emberitől nem nagyon elütő beszédhang ezen csak segíteni tud.

- Azt állítjátok, hogy pontos és torzításmentes eredmény várható ezektől a kutatásoktól, de ezt hogyan tudjátok garantálni? Van egy forgatókönyv, amit az AI-nak szóról szóra követnie kell, vagy ennél megengedőbb a rendszeretek, és az AI eltérhet a megadott szövegtől?

- A kérdéseket szó szerint olvassa fel a rendszer, nem improvizál. Magyarul azon az oldalon, hogy a felmérés során mit mond, egyáltalán nincs nagy nyelvi modell, vagy arra bármilyen módon hasonlító generatív AI megoldás. És ez nem véletlenül van így: nem megengedhető az, hogy akár csak szavak szintjén eltérés legyen két embernek feltett kérdéssor között.

Akkor fogunk ugyanis releváns eredményt kapni, ha mindenkitől pontosan, szó szerint ugyanazt kérdezzük, ráadásul pontosan ugyanazzal a hangsúllyal.

A kérdésed értelmében: az egész rendszer mentes a „hallucinációtól”, de ami a mi oldalunkon, az értékeléskor egy picivel bonyolultabbá teszi a dolgot, az az, hogy ott már van nagy nyelvi modell, pontosabban generatív AI használat, hiszen nem meghallgatjuk a válaszokat, hanem leiratozó modellel szöveget készítünk belőlük. Ez még mindig nem okoz hallucinációt, de lehet, hogy rosszul ért valamit, és esetleg mást ír le, mint amit a résztvevőnk mondott. Ez elő is fordul, de körülbelül csak akkora arányban, mint az emberi kérdezőbiztosoknál. Ezt viszont érdemes megérteni. Ilyenkor van az, hogy a választ – miután leiratoztuk – egy nagy nyelvi modell segítségével úgymond megértjük, értelmezzük, kvázi lefordítjuk. Ha valaki azt mondta az eldöntendő kérdésre, hogy „inkább igen, mint nem”, akkor ebből csinálunk egy igent, és ez alapján megyünk tovább. Itt lép be a nagy nyelvi modell, de ugye a nagy nyelvi modellek rendkívül jók abban, hogy összefoglaljanak szövegeket, szóval nagyon-nagyon alacsony a hiba valószínűsége.

- Milyen új típusú adatokat vagy összefüggéseket lehet feltárni az általatok alkalmazott AI-alapú módszerrel, amit a hagyományos kutatások esetleg nem mutatnak ki? Ebből a szempontból vannak-e markáns különbségek?

- Nem hiszem, hogy vannak ilyenek, de azért árnyaljuk egy kicsit ezt a kérdést. Azt gondolom, hogy amit egy emberi kérdezőbiztos meg tud kérdezni, és aztán egy emberi elemző ki tud elemezni, azt meg tudja csinálni az AI is. Az viszont más kérdés, hogy a már kódolt, tehát bizonyos szintig értelmezett, vagy inkább formalizált adatbázisból milyen következtetéseket tudunk levonni. Az AI ebben tud segíteni, de nem csak nekünk, hanem az elemzőknek is. Tehát ebben nincs különbség. Ami egy kicsit más, az az, hogy nyílt kérdést is fel tudunk tenni, magyarul nem csak előre megadott válaszokat tudunk fogadni, mint az, hogy „igen/nem”, vagy „teljesen egyetértek”, „inkább egyetértek” stb. Van olyan kérdés is, hogy „jellemezze az adott politikust néhány szóval”, vagy „mit gondol arról, hogy Magyarországnak ismét járt űrhajósa a világűrben”. Erre szabadon válaszol a kérdezett személy, és a szöveget, a szabadon elmondott választ AI-val tudjuk értelmezni. Ez a nagy nyelvi modell másik belépőpontja: jelentés alapján kategóriákba soroljuk a válaszokat. Megmutatjuk az összes szabad szöveget a nagy nyelvi modellnek, ami kielemzi, hogy milyen jellemző kategóriák voltak a válaszok között, és a válaszokat be is sorolja valamelyik kategóriába. Ezt ugyancsak el tudja végezni egy emberi elemzőkkel dolgozó kutatócég, de csak hosszú idő alatt.

Ha egy ezres reprezentatív mintát nézünk, tehát ezer válaszban kell végignézni tíz olyan kérdést, amire szabad szöveges válasz érkezett, akkor több ember több napi munkájába kerül a kategorizálás. Esetünkben ez megvan akár pár perc alatt.

Tehát az idő az, amiből sokat tudunk spórolni az AI alkalmazásával. Hogy aztán az ily módon bekódolt, tehát mondjuk formálisan jobban kezelhető vagy jobban elemezhető adatokban mit találunk, abban az AI szintén nagyon sokat tud segíteni, de pontosan annyira, amennyire bármilyen adattudománnyal foglalkozó, adatelemzéssel foglalkozó szakember.

- A júliusban végzett, magyar politikai közhangulatot mérő kutatásotokról azt nyilatkoztátok, hogy nem tekinthető reprezentatívnak, és az eredmények különböző súlyozásokkal jött ki. Miért volt szükség ezekre a súlyozásokra, mennyire lehetett vele korrigálni a mintavételi torzulásokat?

- Ezzel belemegyünk a telefonos közvélemény-kutatások legzűrösebb és legfejvakarósabb részébe, amivel az egész szakma küzd, úgyhogy nagyon óvatos leszek, mert nem akarok senkit megbántani. Az van, hogy a reprezentativitás első körben azt jelenti: minden ember teljesen egyforma eséllyel kerülhet bele a mintába. Ez a reprezentativitás feltétele, és egyébként a reprezentativitástól azt várjuk, hogy a minta tükrözze az alapvető demográfiai megoszlások szerinti arányokat. Tehát ami a népességben igaz mondjuk a kormegoszlásra, az a kormegoszlás legyen igaz a mintára is. A hazai közmegegyezés szerint nálunk körülbelül 1000 fős minta már elegendő ahhoz, hogy reprezentáljunk 9-10 millió embert. Akkor viszont, ha összeállítunk egy ilyen mintát, akkor azok lesznek benne, akik hajlandóak válaszolni, és ez bizonyos értelemben már nem az átlagot képviseli, hiszen az átlag egyébként nem hajlandó válaszolni.

Nagyon sokan utasítják vissza az ilyenfajta megkereséseket, szóval arról, aki egyáltalán hajlandó válaszolni, feltételezhetjük, hogy közéleti kérdésekben az átlagnál aktívabb, vagy az átlagnál érdeklődőbb. És a reprezentativitás itt már kicsit sérül is.

Aztán: a közvélemény-kutatók különféle módszerekkel igyekeznek korrigálni, hogy a végső minta mégiscsak jobban reprezentálja a lakosságot. Ez a korrekció sokféle lehet, például ott a kvótázás, ami azt jelenti, hogy hívogatjuk az embereket, és amikor már beszéltünk a kormegoszlás szerinti aránynak megfelelő számú 60 évessel, akkor többet nem veszünk fel a mintába. Ez lehet egy irány, de lehet az is, hogy túlkérdezzük a mintanagyságot, és abból már kijönnek a megfelelő arányok. És olyat is szoktak csinálni a profi közvélemény-kutatók, hogy mindenféle kérdést tesznek fel, amelyek konkrét rákérdezés nélkül sorolják be az embereket bizonyos klaszterekbe, és ezeknek a kérdéseknek a használatával készítik el a súlyozást.

- Mondanál erre egy magyar példát?

- Például az, hogy az ember kormánypárti vagy ellenzéki szavazó, meglehetősen nagy korrelációt szokott mutatni azzal a kérdéssel, hogy „támogatja-e az egyneműek házasságát vagy sem”. Tehát, ha valaki nem mondja meg, hogy kire fog szavazni, de elárulja, hogy nem támogatja az egyneműek házasságát, akkor be lehet tippelni, hogy kormánypárti szavazó. Ilyesmire kell gondolni. De súlyozás az is, ha a 60+-os válaszadók aránya nem éri el a kívánt 40 százalékot, csak 37-et, akkor a 60+-osok válaszait megfelelő aránnyal felszorozzák. Pár százalékos differenciát még lehet így korrigálni, és nem fog sérülni a reprezentativitás. Megjegyzem: az a tapasztalat, hogy az idősebbek sokkal inkább hajlandóak felvenni egy ismeretlen számot, és aztán sokkal inkább hajlandóak beszélni a kérdezővel, szóval az idős korosztály rendre felülreprezentált ezekben a mintákban.

- Laikusként is azt feltételeznénk, hogy az idősekhez képest az aktív korú emberek kevésbé hajlandóak időt szánni a nem szorosan a magánéletükhöz vagy a munkájukhoz szükséges telefonhívásokra. Az ő válaszadási hajlandóságukat növelheti, ha AI-val beszélgethetnek a kutatás során?

- Kicsit növeli, de azért nem számottevően. Éppen ezért a kormegoszlás eléggé más volt a mi mintánkban, sőt, túlságosan is: több volt az idős válaszadó annál, hogy ezt egy sima súlyozással korrigálni lehetett volna. Pontosabban: lehetett volna korrigálni, de arra már egy rendes statisztikus azt mondja, hogy ez így nem reprezentatív. Ezért választottunk olyan módszert, amivel ezen javítani lehet: havonta feltesszük ezer embernek ugyanezeket a kérdéseket. Eddig két kutatásunk volt, de jön a következő szeptemberben. Amikor már megvan három hónap, és ott ugyanazokat a trendeket tapasztaljuk, akkor már lehet azt mondani, hogy egy minta a hagyományos statisztikai értelemben ugyan nem reprezentatív, de a három minta együtt már igen.

- Milyen más adatfelvételi csatornák jelenhetnek meg a jövőben a telefonoson kívül? Online vagy valamilyen hibrid kutatási formába bevonható-e az az AI megoldás, amit alkalmaztok?

- Bevonható, és gondolkodunk is rajta, de hangsúlyozzuk, hogy mi alapvetően nem akarunk kutatóintézet lenni. Amikor kutatásokat csinálunk a saját szakállunkra, és egyelőre ez a helyzet, akkor az eredményeket közzétesszük a weboldalunkon, ahonnan bárki le tudja tölteni a válaszok adatbázisát, az elemzést és a módszertani leírást is.

Az is a célunk, hogy adjunk egy nonprofit hozzáférést olyan adatokhoz, amelyekről tudni lehet, hogy nincs mögöttük megrendelő, nincs mögöttük semmilyen másodlagos szándék. Mindenki úgy elemzi és azt lát bele az adatbázisba, amit szeretne.

A lényeg, hogy szuper jó, reprezentatív közvélemény-kutatásokat közöljünk a nyilvánossággal, és infrastruktúrát biztosítsunk olyanoknak, akik hatékonyabban akarják elvégezni a telefonos közvélemény-kutatásukat. És ehhez az infrastruktúrához nagyon izgalmas lenne hozzáadni – és ebben gondolkodunk csak igazán – az online felületet. Akár úgy, hogy Viber vagy Messenger hívásban történjen egy ilyen beszélgetés, akár úgy, hogy egy újságcikk alján induljon el, egy linkre kattintva. De ott van az a lehetőség is, hogy ha valakinek egyébként volna kedve beszélgetni, de csak később, amikor például egy órán keresztül kocsiban lesz, akkor online helyzetben tudjon visszahívást kérni egy neki megfelelő időpontra. Ezek izgalmasabb dolgok, és ilyenekkel tervezünk is előállni, de a Minerva Intézetet csak idén nyáron alapítottuk, úgyhogy sok mindent ki kell még próbálnunk. Sok mindent el fogunk vetni, míg más dolgokat megtartunk.

- Azok alapján, amit eddig tapasztaltatok, milyen jövőt jósolsz az AI-nak a közvélemény-kutatások jövőjében Magyarországon?

- Általában is látszik, hogy a beszédalapú kommunikációnak van egyfajta újjászületése az AI-nak köszönhetően.  A Sirivel vagy a Google Asszisztenssel is tudunk beszélgetni, a 18 éves gyerekeimen pedig azt látom, hogy inkább beszélgetnek a ChatGPT-vel, mintsem hogy gépeljenek. Szóval az élő beszédnek van egyfajta új felívelése, és egészen biztos, hogy ez a közvélemény-kutatásokban is opció lesz. Ráadásul fontos opció, mert ugyan ki szeretne húsz mondatot leírni egy kérdésre arról, hogy mit gondol egy világpolitikai helyzetről, miközben egy beszélgetésben lehet, hogy szívesen elmondja?

Azt gondolom, hogy az élőbeszédes kérdés-válasz alapú közvélemény-kutatás pont attól fog felívelni, hogy ezzel a megoldással, az AI használatával igazán hatékonnyá lehet tenni.

Mert megszervezni egy kutatást: kérdezőbiztosok tucatjait munkára, telefonálásra, visszahívásra, többszöri visszahívásra bírni, az sokkal nehezebb, mint egy szoftvernek megmondani, hogy hívd fel ezt az ezer számot és kérek belőle ezer eredményt. Az élő beszéd egyébként nem kis részben az AI-nak köszönhetően jön vissza, hiszen egy sokkal természetesebb kommunikációs felület, mint az írás, a gépelés, sokkal naturálisabb forma, így sokat fog segíteni az AI a közvélemény-kutatóknak is.


Link másolása
KÖVESS MINKET:

Népszerű
Ajánljuk
Címlapról ajánljuk


JÖVŐ
A Rovatból
Kiderült, meddig marad élhető a Föld – szuperszámítógépekkel számolta ki a NASA
Nem villámcsapás-szerű összeomlásra, hanem lassú, visszafordíthatatlan hanyatlásra kell készülnünk a kutatás eredménye szerint.


A NASA kutatói összefogtak a japán Toho Egyetem szakembereivel, és szuperszámítógépekkel modellezték, meddig maradhat élhető a Föld. Az eredmények egy távoli, de egyértelmű menetrendet vázolnak fel az élet végét illetően – számolt be róla a BGR.

A kutatás szerint a Nap jelenti majd a legnagyobb gondot: a következő egymilliárd évben nő a kibocsátása, és fokozatosan a lakhatósági határ fölé melegíti bolygónkat.

A becslés alapján a földi élet nagyjából az 1 000 002 021-es évben érhet véget, amikor a felszíni viszonyok már a legellenállóbb élőlényeknek is túl szélsőségesek lesznek.

A lejtmenet azonban sokkal korábban elindul. Ahogy a Nap forrósodik, a Föld légköre jelentősen átalakul: csökken az oxigénszint, meredeken nő a hőmérséklet, és romlik a levegő minősége. A részletes éghajlati és napsugárzási modellek szerint

ez nem villámcsapás-szerű összeomlás, hanem lassú, visszafordíthatatlan hanyatlás.

Ennek jelei már most látszanak. Erősödnek a napviharok és a koronakidobódások, nemrég az elmúlt 20 év legerősebb viharát rögzítették. Ezek hatnak a Föld mágneses mezejére és csökkentik a légköri oxigént.

Közben az ember okozta klímaváltozás is tovább növeli a terhelést:

a globális felmelegedés és a sarki jég olvadása a korábbi előrejelzéseknél gyorsabban halad, ami arra utal, hogy a környezet már jóval az egymilliárd éves időtáv előtt is ellehetetleníti az életet az emberek számára.

A kutatók a felkészülés és az alkalmazkodás fontosságát hangsúlyozzák. Egyesek zárt életfenntartó rendszereket és mesterséges élőhelyeket javasolnak, mások pedig a Földön túli lehetőségeket vizsgálják: a NASA és a SpaceX hosszú távú Mars-missziói az emberi élet fennmaradásának lehetséges útjait keresik, ha bolygónk lakhatatlanná válik.


# Csináld másképp

Te mit csinálnál másképp? - Csatlakozz a klímaváltozás hatásairól, a műanyagmentességről és a zero waste-ről szóló facebook-csoportunkhoz, és oszd meg a véleményedet, tapasztalataidat!

Link másolása
KÖVESS MINKET:

Ajánljuk
JÖVŐ
A Rovatból
A mesterséges intelligencia képes lehet akár tíz évre előre megjósolni, hogy kinek milyen betegsége lesz
A modell névtelen kórlapok mintáit figyeli, és évekre előre megmutatja, hol nagyobb a kockázat. A fejlesztők szerint így hamarabb lehet beavatkozni, és még az is tervezhető, hány szívinfarktusra kell készülnie egy városnak 2030-ban.


A kutatók szerint a mesterséges intelligencia akár tíz évre előre jelezhet egészségi gondokat, írja a BBC. A rendszer az emberek egészségügyi adataiban keres mintákat, és több mint 1000 betegség kockázatát számolja. Úgy írják le, mint egy időjárás-előrejelzést: százalékban adja meg a valószínűséget. A cél, hogy időben kiszűrje a magas kockázatú embereket, és évekre előre segítse a kórházak tervezését.

A Delphi-2M nevű modell hasonló technológiára épül, mint a közismert MI-chatbotok, például a ChatGPT. A chatbotok nyelvi mintákat tanulnak, és megjósolják, milyen szavak követik egymást. A Delphi-2M névtelenített egészségügyi adatokból tanulta meg felismerni a mintázatokat, és így jelzi előre, mi következhet és mikor. Nem mond pontos dátumot, hanem 1231 betegség valószínűségét becsli.

„Ahogy az időjárásnál 70 százalék esélyt jelezhetünk az esőre, ugyanezt meg tudjuk tenni az egészségügyben is”

– mondta Ewan Birney professzor, az Európai Molekuláris Biológiai Laboratórium megbízott főigazgatója. „Ráadásul nemcsak egy betegségre, hanem egyszerre az összesre – ilyet még soha nem tudtunk. Izgatott vagyok” – tette hozzá.

A fejlesztők először brit, névtelenített adatokon tanították a modellt: kórházi felvételek, háziorvosi adatok és életmódbeli szokások (például dohányzás) több mint 400 ezer résztvevőtől a UK Biobank projektből. Ezután más Biobank-résztvevők adataival ellenőrizték az előrejelzéseket, majd 1,9 millió ember dániai egészségügyi adatán is letesztelték. „Ha a modellünk azt mondja, hogy a következő évben tízből egy az esély, akkor tényleg nagyjából tízből egy esetben következik be” - tette hozzá Birney professzor.

A rendszer azoknál a betegségeknél működik a legjobban, amelyeknek jól követhető a lefolyása, például a 2-es típusú cukorbetegség, a szívinfarktus vagy a szepszis. Az inkább esetleges fertőzéseknél gyengébben teljesít.

Az orvosok ma is írnak fel koleszterincsökkentőt annak alapján, mekkora valakinél a szívinfarktus vagy a stroke kockázata. Az MI-eszköz még nem áll készen a klinikai használatra, de hasonló módon tervezik alkalmazni: korán azonosítani a magas kockázatú embereket, amikor még van esély megelőzni a betegséget. Ez jelenthet gyógyszert vagy célzott életmódtanácsot – például akinek nagyobb az esélye bizonyos májbetegségekre, annak a szokásosnál jobban megérheti visszavenni az alkoholfogyasztásból.

Az MI a szűrőprogramok tervezésében is segíthet, és egy térség összes egészségügyi adatát elemezve előre jelezheti a várható igényeket,

például hogy 2030-ban nagyjából hány szívinfarktus várható egy adott városban.

„Ez egy újfajta megközelítés kezdete az emberi egészség és a betegséglefolyás megértésében” – mondta Moritz Gerstung professzor, a Német Rákkutató Központ (DKFZ) onkológiai MI-osztályának vezetője. „Az olyan generatív modellek, mint a miénk, egy napon személyre szabhatják az ellátást, és nagy léptékben előre jelezhetik az egészségügyi szükségleteket.”

A Nature tudományos folyóiratban ismertetett modellt még finomítani és tesztelni kell a klinikai használat előtt. Torzítást okozhat, hogy a UK Biobank adatai főként 40–70 éves emberektől származnak. A fejlesztők most bővítik a modellt képalkotó vizsgálatokkal, genetikai információkkal és vérvizsgálati eredményekkel.

„Fontos hangsúlyozni, hogy ez kutatás – mindent alaposan tesztelni, szabályozni és átgondolni kell, mielőtt használni kezdjük, de a technológia adott ahhoz, hogy ilyen előrejelzéseket készítsünk” – nyomatékosította Birney professzor. Úgy véli, a genomika egészségügyi bevezetéséhez hasonló utat járhat be a folyamat: a tudósok bizalmától a rutinszerű klinikai használatig akár egy évtized is eltelhet.

A kutatás az Európai Molekuláris Biológiai Laboratórium, a Német Rákkutató Központ (DKFZ) és a Koppenhágai Egyetem együttműködésében készült. Gustavo Sudre, a King’s College London kutatója így értékelt: „Ez a munka jelentős lépés a skálázható, értelmezhető és – ami a legfontosabb – etikailag felelős orvosi prediktív modellezés felé.”


Link másolása
KÖVESS MINKET:


JÖVŐ
A Rovatból
Megkezdték a humanoid robotok tömeggyártását Kínában
A cég több ezer előrendelést említ, az ár körülbelül 11,5 millió forint. A mozgásnál emberi mintákat követnek: a végtagok összehangolását szimulációk és utánzásos tanulás segíti.
Maier Vilmos - szmo.hu
2025. szeptember 27.



A kínai Kepler Robotics elindította a K2 Bumblebee humanoid robot tömeggyártását, írja a Rakéta. A modellt logisztikai munkákra, gyártási feladatokban segítésre, kiállításokra és „speciális műveletekre” szánják.

A K2 hibrid architektúrával működik, ami energiahatékony üzemet tesz lehetővé. A gyártó szerint a humanoid egyhuzamban akár 8 órát is dolgozik.

Az ár a hasonló, általános célú humanoidokhoz képest kicsivel magasabb:

körülbelül 11,5 millió forint.

A robotra már több ezer megrendelés érkezett.

A cég a külalakot kevésbé, a mozgást viszont nagyon „emberire” tervezte. A K2 Bumblebee imitációs tanulással és szimulációkkal sajátította el a járás emberihez hasonló jellegzetességeit, beleértve a végtagok mozgásának összehangolását.

A humanoid robotról készült videót itt lehet megnézni:


Link másolása
KÖVESS MINKET:


JÖVŐ
A Rovatból
Sora 2: megjöttek a videók, amiket a képtelenség megkülönböztetni a valóságtól
Náci egyenruhába bújtattak hírességek, meghamisított történelmi események, kamu filmjelenetek igazinak tűnő színészekkel – máris ilyen videók készültek az OpenAI legújabb videógeneráló modelljével, ami egyszerre lenyűgöző és félelmetes.


A Sora 2 videógeneráló modell szeptember végén jelent meg, azzal az ígérettel, hogy a korábbi változathoz képest jelentősen javult a fizikai pontosság, a realizmus és az irányíthatóság. Mivel az OpenAI már a Sora tavaly decemberben kiadott első változatát is – a ChatGPT sikerével párhuzamba állítva – a videókészítés „GPT‑1 pillanatának” nevezte, nagy várakozások előzték meg a „GPT‑3.5 pillanatként” beharangozott Sora 2-t.

Az első verzió fejlesztői változatáról a demók alapján azt írtuk, olyan minőségű filmekhez, amelyeket szöveges utasításra generál, normál esetben külső helyszínekre, díszletekre, profi felszerelésekre és szakemberekre, statisztákra, illetve színészekre lenne szükség, de „úgy fest, hogy mostantól egyetlen AI, a Sora is elég lesz hozzá”.

Nyújthat ennél is többet egy videógeneráló modell? A Sora 2–nek a jelek szerint sikerült, mert a világ egyik ámulatból a másikba esik a vele készült mozgóképek láttán. Az OpenAI azt állítja, hogy az új modell kiküszöböli a korábbi videógenerálók jellemző hibáit, például az amorf tárgyakat és karaktereket, a torzult valóságot vagy a „túlzott optimizmust”. Utóbbihoz példát is kapcsol: ha egy generált videóban szereplő kosárlabdázó „elvéti” a dobást, az eddigi verziók inkább kicsavarták a realitást, és a labda még lehetetlen szögből is a gyűrűbe „teleportált”. Ehhez képest a Sora 2 a fizika törvényeivel teljesen megegyező módon bánik a tárgyak mozgásával: a labda a palánkba csapódik és pont úgy pattan vissza, ahogy az a valóságban is történne.

A tökéletlenség lehalkításával és a képminőség feltekerésével az OpenAI kisebb csodát alkotott: még egyszerű szöveges utasításokból is olyan videókat hoz létre, amelyeket a legtöbb néző képtelen megkülönböztetni a valóságtól. Az pedig, hogy mekkora a szakadék a versenytársak videógeneráló modelljei, valamint a Sora 2 között, remekül illusztrálja ez az összehasonlítás, amelyben a Google fejlesztette Veo 3–mal vetik össze a képességeit.

Ebben a videóban semmi sem valódi:

A gyorsan bővülő AI‑videópiacon persze vannak más vetélytársak is, például a Meta „Vibes” alkalmazása és a Meta Movie Gen modell, valamint az Elon Musk-féle xAI Grok Imagine-je. A Forbes hangsúlyozza, hogy utóbbi rendszerek 6–10 másodperces felvételeket készítenek, míg a Sora 2 akár egyperces videókat generálhat, illetve hangot is ad a tartalmakhoz, ami komoly fegyvertény a jelenlegi mezőnyben. És eddig minden jel arra mutat, hogy a Sora 2 a legerősebb videógeneráló AI.

Az OpenAI a modell széles körű – de egyelőre Észak-Amerikára korlátozott – bevezetése óta arra biztatja a felhasználókat, hogy a Sora 2 segítségével találjanak ki minél több új világot és történetet. A lehetőségeknek – látszólag – csak a képzelet szab határt, hiszen a modell képes az emberi hanghoz igazított dialógusok és hangeffektek generálására is, sőt, ha kell, a felhasználó hang‑ és videómintája alapján avatárt készít, így a saját filmünk főszereplőjévé válhatunk.

Mi változott? – A Sora 2 új képességei

Bár hozzáférés hiányában nekünk, magyaroknak egyelőre nincs összehasonlítási alapunk, az új modellről megjelent videókon valóban az látszik, hogy komoly szintlépés történt. Amíg a Sora demóiban a generált karakterek szemeit jótékonyan elrejtette valami (többnyire egy napszemüveg), a Sora 2 már nem tart az „uncanny valley” jelenségtől. Ez ugye az a nyugtalanító érzés, ami egy videojátékhoz vagy filmhez digitális eszközökkel létrehozott arc láttán tör ránk: hiába realisztikus a karakter, a tekintete természetellenes marad.

Az új modell már nem ilyen „félénk”: tisztában van vele, hogy amit előállít, teljesen életszerű, ezért nincs szükség trükközésre.

Olyannyira nincs, hogy az alábbi videóban látható és hallható Sam Altman sem Sam Altman, hanem egy Sora 2-vel létrehozott avatár, ami az OpenAI vezérigazgatójaként mutatja be a generatív AI képességeit. És ha erre nem figyelmeztetnek előre, aligha mondanánk meg, hogy nem a valódi személyt látjuk.

Az OpenAI szerint a Sora 2 legnagyobb újítása a fizikai törvények pontosabb szimulációja és a látvány élethű megjelenítése. A modell hosszabb és összetettebb cselekményeket, illetve akár többszereplős akciókat is képes kezelni, miközben megőrzi a mozgás törvényeinek koherenciáját.

A vállalat kiemelte, hogy a videók több jelenetből álló utasításokat követhetnek, és a rendszer megőrzi a generált világ állapotát: figyelembe veszi például azt, hogy a tárgyak az előző képsorban pontosan hol voltak. Ezzel már lehetséges akár több perces klipek és kisfilmek, ezáltal komplexebb narratívák létrehozása, de az OpenAI most még a rövid, gyorsan terjedő tartalmak felé tereli a felhasználókat, mert a játékos menőség meghozza a befektetők kedvét a további tervek finanszírozásához.

Lőttek a filmeseknek, vagy a Sora 2 csak egy új „ecset”, amivel alkothatnak?

Az OpenAI azzal hirdette a Sora, majd a Sora 2 rendszert, hogy a filmipar, az animációs stúdiók és a művészek eszköze lehet. A BBC Science Focus egyetért ezzel: azt írják, a rendszer megkönnyítheti animált klipek készítését, és ezzel időt, pénzt spórol. Az első verzió tartalmai ugyanakkor hemzsegtek a hibáktól. Ahogy arra a Washington Post is felhívta a figyelmet: a rendszer egy 1930‑as évekbeli jelenetben a cigaretta rossz végét gyújtotta meg vagy épp egyszerre több telefonkagylót adott a generált karakter kezébe, ráadásul hangot sem tudott létrehozni.

Ehhez képest a Sora 2 pontosságot és már szinkronizált hangot, illetve hangeffekteket is kínál, amivel elvileg tökéletesen alkalmassá válik a komplex szórakoztatóipari felhasználásra.

Az IndieWire elemzője ennek ellenére sem gondolja, hogy az új verzió a filmiparnak készült. A fejlesztők szerinte „nem törődnek Hollywooddal”, hiszen a platform elsősorban virális tartalmak gyártására ösztönzi az embereket, így a közösségi média új mémgyártó eszközévé válhat. És addig, ameddig ez csak igazoltatás elől meglépő Super Mario-s viccek szintjén realizálódik, nincs is nagy baj.

Ez még senkit sem bánt:

A gondok akkor kezdődnek, ha a könnyed hecceken túllépve valódi emberekről vagy valós eseményeket szimuláló helyzetekről készülnek valóságszagú kamuvideók, ami megnehezíti a független filmesek etikus AI‑felhasználását. Onnantól a Nintendo sem mókás rajongói videóként fogja kezelni a fentihez hasonló alkotásokat – ami még ingyen reklámot is csap a Mario Kart játékoknak –, mert attól tart majd, hogy a trend visszaéléseket szül, és óriási energiákat kell fordítani a szellemi tulajdona megvédésére.

A véleménycikk arra is figyelmeztet, hogy a Sora‑videók virális mémjei új frontot nyitnak a szerzői jogi háborúban, hiszen az AI‑userek óhatatlanul egyre kevesebbet törődnek majd a szellemi tulajdonnal, ezáltal tovább mélyítik az árkot az alkotók és az AI‑fejlesztők között. Az Indiewire ezzel kapcsolatban szakmai állásfoglalásokat sürget: úgy véli, ha a jogtulajdonosok és szakszervezetek nem alakítanak ki standardokat, elveszíthetik a harcot.

Osztja ezt az aggodalmat a WGBH-nak nyilatkozó digitális képzőművész, Kyt Janae is, aki szerint nem kell egy év, és szinte képtelenek leszünk megkülönböztetni az ember alkotta tartalmakat az AI-val generált képektől. Thomas Smith, a képek digitalizálásával, menedzselésével, kiadásával és monetizálásával foglalkozó Gado Images vezérigazgatója hozzátette:

a mesterségesen létrehozott képek miatt a valódi fotók is hitelességi válságba kerülhetnek.

Ezek a megállapítások azt jelzik, hogy a videógeneráló AI több területen okozhat károkat, a szórakoztatóipartól a politikán át a személyiségi jogokig.

Máris támadják az új AI-modellt

A Sora 2 indítását rögtön kritikák és aggályok kísérték. A The Guardian például arról számolt be, hogy a generált videók posztolására létrehozott TikTok-szerű app feedje hamar megtelt erőszakos és rasszista jelenetekkel, köztük bombázást és tömeggyilkosságot szimuláló tartalmakkal. Joan Donovan kutató ezzel kapcsolatban arra figyelmeztetett, hogy az ilyen eszközök elmossák a valóság és a hazugság között húzódó határt, ezáltal alkalmassá válhatnak gyűlöletkeltésre és zaklatásra.

Sam Altman ehhez képest a saját blogján a „kreativitás ChatGPT‑pillanataként” jellemezte a Sora 2 indulását, de óvatosan elismerte azt is, hogy például a bullying elkerülése érdekében nagyobb figyelmet kell fordítani a moderálásra.

A Rolling Stone közben példákkal illusztrálva mutatta be, hogy a realisztikus videógeneráló segítségével a felhasználók – csupán heccből – náci egyenruhába bújtattak hírességeket, történelmi eseményeket hamisítottak vagy éppen levédett karaktereket (Pikachu, Ronald McDonald, SpongeBob) használtak fel, ami szerzői jogi veszélyeket sejtet.

A Sora 2 kritikusait idézve a magazin azt írja, hogy az OpenAI „próbálja bepereltetni önmagát”.

A Vox cikke egyenesebben fogalmaz: felhívja a figyelmet arra, hogy a Sora 2 alapértelmezése szerint a jogtulajdonosok azok, akiknek kérvényezniük kellene a karaktereik eltávolítását, ami olyan, mintha a fejlesztők kifejezetten a szerzői jogok megsértése felé terelnék a felhasználókat.

Nem véletlen, hogy a kritikákkal szembesülő Sam Altman később frissítette a posztját, jelezve, hogy a jövőben a jogtulajdonosok „opt‑in” alapon adhatnak hozzá karaktereket az AI-modellhez, lehetővé téve, hogy a generált videók után részesedést kapjanak a bevételekből.

Őrületes energiaigény és a Sora 2 más pénzügyi hatásai

A modell bejelentését követően az elemzők felvetették, hogy a videók generálása rendkívüli mennyiségű számítási kapacitást és energiát igényel. Egyes kutatók szerint egy rövid, nagy felbontású videó generálása több mint 700‑szor több energiát fogyaszt, mint egy állókép létrehozása. Ennek következtében a jövő adatközpontjai már minden kétséget kizáróan nagyvárosokkal vetekedő energiazabáló – és karbonkibocsátó – szörnyetegek lesznek.

A Time elemzése rámutat: az AI‑videók ugyan drágák, de a cégek – köztük az OpenAI és a Meta – abban reménykednek, hogy a rövid videók gyártásával több előfizetéses felhasználó és befektető érkezik. Ez további bevételi forráshoz juttatja őket, ami még nagyobb modellek, egy napon pedig az általános mesterséges intelligencia megjelenéséhez vezethet.

Az AI-cégeknek tényleg nagyon kell a pénz, mert a generatív videómodellek fejlesztése hatalmas összegeket emészt fel. Ez az elemzők szerint idővel arra készteti majd a vállalatokat, hogy a befektetőktől és felhasználóktól beszedett pénzen túl a hirdetési piacon is terjeszkedjenek, illetve további előfizetési csomagokat találjanak ki, valamint árat emeljenek.

Mindeközben fontos cél a felhasználók viselkedési adatainak gyűjtése: a jövőbeli modellekhez a valós interakciók és preferenciák révén tudnak több és jobb tréningadatot gyűjteni.

Ami pedig a belátható jövőben érkező fejlesztéseket illeti, az OpenAI egyik korábbi közleménye felvetette azt is, hogy létrehoznak egy „világszimulátort”, amely pontosan modellezi a fizikai világ törvényeit, ezzel új tudományos problémákat lesz képes megoldani.

Új AI-evolúciós lépcsőfokok jönnek

A Sora 2 ezeknek a vízióknak a nagy reménysége, amitől azt várják, hogy további fejlesztéseket és több platformon elérhető verziókat eredményez. A megjelenése új korszakot nyit a generatív AI-k világában, hiszen bátran kijelenthetjük, hogy ennyire valószerű mozgásokat és hangeffekteket, illetve ilyen időtartamú történeteket még egyik videógeneráló AI sem tudott létrehozni.

Bár a fizika törvényeit még nem követi le tökéletesen és vastagon lehetőséget ad a visszaélésekre – a deepfake-től az erőszakos tartalmakon át a szerzői jogok megsértéséig –, a komoly etikai és jogi kérdések kezelése után érdemes lehet kihasználni a benne rejlő lehetőségeket.

A szakértők szerint hamar mainstream eszközzé válhat, de a társadalomnak – még új normarendszerek és hatékony moderálás bevezetése mellett is – fel kell készülnie arra, hogy a valóság és a mesterséges tartalom közötti határ elmosódik.

Mivel a gazdasági potenciál óriási, számolni kell a bővülésével és az energiafogyasztás növekedésével, valamint azzal, hogy a szellemi tulajdon megóvása érdekében ki kell harcolni a generált tartalmak után járó részesedést. Ezek az együttműködések – ha egyáltalán megköttetnek és aztán hosszú távon működőképesnek bizonyulnak – a kreatív tartalomgyártás ragyogó gyöngyszemévé varázsolhatják a Sora 2-t, illetve a jövőben érkező hasonló modelleket.


Link másolása
KÖVESS MINKET:

Ajánljuk