JÖVŐ
A Rovatból

Nem csak a munkát, az áramot is elveszi – Egyre fenyegetőbb az AI energiaéhsége, amit velünk fizettethetnek meg a cégek

A generatív AI térnyerésével rohamosan nő az adatközpontok villamosenergia-fogyasztása. A szakértők figyelmeztetnek: a technológiai forradalom megfelelő energiaellátás híján megtorpanhat, és mindenre hatással lehet, az energiaipartól a háztartások rezsiköltségéig.


A mesterséges intelligenciát gyakran tisztán digitális jelenségnek tekintjük, amely a bitek és algoritmusok megfoghatatlan szintjén működik, de valójában minden egyes AI-val generált kép, vagy ChatGPT-ben keletkezett válasz mögött mérhető energiafogyasztás áll. A háttérben hatalmas szerverközpontok dolgoznak, amelyek ásványi anyagokból készült chipekkel és félvezetőkkel teli számítógépparkokat működtetnek – és ehhez jelentős mennyiségű villamosenergia kell. Amennyiben tehát az AI fejlődését és terjedését vizsgáljuk, a számítástechnikai kihívások mellett figyelembe kell venni az infrastrukturális és ökológiai korlátokat is.

Bármennyire ígéretes az AI, a növekedésének van egy nagyon is kézzelfogható határa, amire Sam Altman, az OpenAI vezérigazgatója nemrég egy kongresszusi meghallgatáson világított rá. Mint mondta, „idővel a mesterséges intelligencia költsége össze fog érni az energia költségével”.

Altman a Time szerint arról is beszélt, hogy hiába válnak egyre automatizáltabbá és olcsóbbá a chipgyártási és hálózati folyamatok, egy elektron energiaigénye akkor sem lesz kisebb, vagyis a számítási feladatok fizikai energiaigénye adott, és nem csökken zéró alá. Végső soron tehát egy érett AI-gazdaságban az „intelligencia” előállításának határköltsége megközelíti az elektromosság határköltségét.

Még konkrétabban: hogy mennyi AI-t kaphatunk, „azt az energia bősége korlátozza” – magyarázta Altman.

A forradalmi AI-termékeket fejlesztő cég vezetője világossá tette: az energetikai innováció és az AI képességei között közvetlen kapcsolat keletkezik, így azok a régiók, amelyek bőségesen, megbízhatóan és olcsón tudnak energiát biztosítani, döntő előnyre tesznek szert a számítási kapacitás terén.

Energiakorlátok: lesz-e elég áram az AI-hoz?

Az, hogy az innováció egyik kulcsa az energia, már napjainkban is tetten érhető. Egyes becslések szerint csak az Egyesült Államoknak akár további 90 gigawatt teljesítményre – tehát pluszban nagyjából 60 paksi atomerőműre – lenne szükség az adatközpontok ellátásához a következő években. A City Journal szerint Altman ezért figyelmeztetett arra, hogy az energiaellátás fejlesztése a legfontosabb stratégiai beruházás. „Nem jut eszembe semmi, ami hosszú távon fontosabb lenne, mint az energia” – fogalmazott az amerikai szenátus energiaügyi bizottsága előtt.

Azok az országok vagy vállalatok tehát, amelyek képesek nagy mennyiségben tiszta energiát előállítani, lényegében meghatározzák majd, hogy mi válik lehetségessé az AI-fejlesztésben.

És Kína már most globális vezető szerepben van a megújuló energia területén, ráadásul az évtized végére a világ teljes megújuló kapacitásának közel felét birtokolhatja majd. Jól látszik, hogy az AI-verseny könnyen energiaversennyé alakulhat: az nyer, akinek több és tisztább energiája van az AI rendszerek üzemeltetésére.

És ennek hatása a mindennapokban is érezhető lesz – jósolta a BloombergNEF, Elon Muskra hivatkozva. A robotikai és AI-forradalomra készülő Tesla-vezér nyilatkozata szerint „jelenleg chiphiány van, egy év múlva transzformátorhiány, két év múlva pedig áramhiány lesz”. Mark Zuckerberg szintén tett erre utaló jelzést, amikor nemrég kijelentette: a Meta azonnal nekilátna több adatközpont építésének, ha kapna hozzá elegendő villamosenergiát.

Az adatközpontok energiaellátása már napjainkban sem egyszerű.

A világ legnagyobb adatközpontjainak otthont adó Észak-Virginiában a szerverparkok már kb. 2,5 gigawatt kapacitást kötnek le, ami a térség áramszükségletének kb. 20 százalékát jelenti, és a szakértők arra számítanak, hogy az igények évi 25 százalékkal nőnek. Pedig már 2022-ben (a ChatGPT szabadon engedése előtt) előfordult, hogy egy helyi áramszolgáltató átmenetileg kénytelen volt leállítani az új adatközpontok hálózatra kapcsolását, mert nem tudta garantálni az ellátásukat. Hasonló helyzet állt elő Írországban, ahol a Dublin környéki adatközpontok – szintén 2022-ben – felemésztették az ország teljes áramfogyasztásának 21 százalékát – szemben a 2015-ös öt százalékkal. Itt a hatóságok moratóriumot hirdettek új adatközpontok létesítésére.

A példák jól jelzik: könnyen előfordulhat, hogy a hagyományos hálózatfejlesztés nem tud lépést tartani az AI-központok energiaigényével.

Ugrásszerű növekedés indult, a tettes az AI

A mesterséges intelligencia széleskörű használata miatt az elmúlt években érezhetően megugrott az emberiség energiaigénye. A fordulópont 2020 körül érkezett el: egy évtizednyi viszonylagos stagnálás után az adatközpontok villamosenergia-igénye hirtelen növekedésnek indult, egyrészt az AI modellek szaporodása, másrészt pedig a COVID-időszak távmunkatrendje miatt. A fogyasztás meredeken emelkedni kezdett, leginkább a szerverparkok növekvő igénybevételének köszönhető.

Az amerikai Környezet- és Energiakutató Intézet becslései szerint az adatközpontok áramfelhasználása már 2022-ben elérte a 176 terawattórát az Egyesült Államokban (ami több mint kétszerese a néhány évvel korábbinak), miközben a globális adatközpontok energiafelhasználása 460 TWh lehetett. Az MIT riportja összehasonlításképpen azt írja, ha az adatközpontok önálló országot alkotnának, akkor már az AI jelentősebb térnyerése előtt, 2022-ben a világ 11. legnagyobb áramfogyasztójának számítottak volna, pedig ez sehol sincs a jelenlegi áramfelhasználáshoz képest.

A kutatók úgy számolnak, hogy az adatközpontok már 2026-ban elérik az 1050 terawattórás energiaigényt, amivel – megint csak országként kezelve – az ötödik legnagyobb felhasználóvá válnak, és Japán, illetve Oroszország közé jönnek fel a világranglistán.

Ez őrületesen gyors változás. Amerikai példával érzékeltetve: az AI-ra specializált szerverek éves fogyasztása 2017-ben még alig két terawattóra volt, 2023-ra viszont már elérte a 40 terawattórát, ami hússzoros növekedés – úgy, hogy csak a ChatGPT 2022-es megjelenését követő egyetlen év alatt megháromszorozódott az energiafelvételük.

Mit mutatnak az előrejelzések 2030-ra és 2040-re?

A fentebb írt tendencia folytatódni látszik, ami az évtized végére sokkoló mértékű energiaigényt jelez előre. A Nemzetközi Energiaügynökség (IEA) elemzése azt mutatja, hogy a globális adatközpontok villamosenergia-fogyasztása 2030-ra a jelenlegi több mint a kétszeresére nő, és eléri a 945 terawattórát.

Ez kb. 475 paksi atomerőmű, és csaknem annyi áram, mint amennyit a 125 milliós lakossággal rendelkező Japán teljes gazdasága fogyaszt.

De menjünk még tovább a belátható jövőben: a Rystad Energy nemrég közzétett előrejelzése 2040-re már közel 1800 terawattóra fogyasztást vetít előre – ez nagyjából annyi energia, amennyivel 150 millió amerikai háztartást lehetne ellátni, egy teljes éven át.

Verseny az energiaforrásokért: merre tovább?

Az előttünk álló legnagyobb kihívás az, hogy milyen energiaforrásokkal és hogyan tudjuk kielégíteni az AI által gerjesztett plusz igényt. A jelenlegi trendek alapján a villamosenergia előállításának diverzifikációjára elengedhetetlennek tűnik. Az IEA azt látja, hogy az adatközpontok növekvő áramszükségletét számos forrásból fedezheti a világ, és ebben főszerepet játszhat a szél- és napenergia mellett a földgáz is, hiszen ezek költséghatékonysága és elérhetősége igen kedvező a kulcspiacokon. Fontos megjegyezni ugyanakkor, hogy a megújulók termelése még mindig erősen időjárásfüggő, így sokan fordulhatnak majd az atomenergia felé.

A Goldman Sachs elemzői ezzel kapcsolatban azt írják, hogy 2030-ig globálisan 85–90 GW új nukleáris kapacitásra lenne szükség ahhoz, hogy az adatközpontok várható többletigényét teljes mértékben atomenergiával fedezzük. Reálisan azonban ennek csak a töredéke épül meg: a riport szerint világszinten a szükséges atomkapacitás kevesebb mint tíz százaléka áll majd rendelkezésre az évtized végére.

Ennek oka az, hogy bár az atomenergia megbízható és közel zéró kibocsátású, az új erőművek létesítése időigényes és drága.

Rövid távon tehát valóban a földgáz és a megújulók kombinációja töltheti be a tátongó űrt. Egy iparági felmérés kimutatta: megfelelő energiatárolással (vagyis akkumulátorokkal kiegészítve) a szél- és napenergia egy adatközpont igényének 80 százalékát is fedezheti, viszont a fennmaradó időre (amikor például nem süt a nap vagy szélcsend van) hagyományos energiaforrásokra van szükség a folyamatos ellátáshoz.

A jelenlegi trend azt mutatja, hogy sok új adatközpont – főleg Ázsiában és Észak-Amerikában –földgáztüzelésű erőművekhez csatlakozik, mivel ezek tudják azonnal kiszolgálni a gyorsan növekvő igényeket. A hagyományos megoldásnak ugyanakkor ára van: ha a globális adatközpont-kapacitás bővülését 60 százalékban földgázerőművek biztosítják, az évente további 215 millió tonna karbonkibocsátást jelentene 2030-ra, ezzel a világ energiaipari emissziójának kb. 0,6 százalékát adná.

Sorra vásárolják fel az atomenergia-kapacitásokat

A techcégek felismerték a helyzet komolyságát, és már most jelentős lépéseket tesznek az energiaellátás biztonságáért. A legnagyobb felhőszolgáltatók (mint a Google, az Amazon, a Microsoft vagy a Meta) a világ legnagyobb zöldenergia-vásárlói közé léptek: összesen több mint 70 gigawatt kapacitásra kötöttek hosszú távú áramvásárlási szerződéseket. A BloombergNEF szerint az is jól látható trend, hogy a tiszta, folyamatos ellátás reményében a vállalatok újra az atomenergia felé fordulnak.

A Microsoft például nemrég szerződött a hírhedt (1979-ben súlyos reaktorbalesetet szenvedett, majd 1985-2019-ig működő) Three Mile Island atomerőmű 2027-28-as újraindítására, hogy aztán a teljes termelését az adatközpontjai üzemeltetésére fordítsa, míg az Amazon 2023-ban úgy, ahogy van, megvette egy pennsylvaniai atomerőmű melletti adatközpont teljes kapacitását, a Google pedig rendelt hét darab kis moduláris reaktort.

A technológiai szektor tehát korábban nem látott mértékben invesztál az energiatermelésbe, viszont akadályokba ütközik a szabályozó hatóságok szintjén, mivel azok nem feltétlenül nézik jó szemmel, hogy milyen biztonsági feltételek mellett és mennyi kapacitást foglalnak be, illetve ezzel milyen hatást gyakorolnak az áram piaci árára.

A hosszabb távú megoldást sokan a technológiai áttörésektől remélik. Az összes energiaforrás turbófokozatra kapcsolása mellett megjelent az igény az innovációra, így a fúziós energia ígérete is egyre többeket vonz. Altman személyesen is befektetett például a Helion nevű fúziós startupba, amellyel a Microsoft ugyancsak megállapodást kötött. Ez a cég 2028-ra ígéri, hogy az első kísérleti fúziós erőműve már képes lesz áramot termelni.

Az AI energiafogyasztását a lakossággal és a kisfogyasztókkal fizettethetik meg

Az energiaigény növekedése – amennyiben a kínálat nem tart lépést az igényekkel – óhatatlanul az árak emelkedéséhez vezet. Az Egyesült Államok Elnöki Hivatalának Gazdasági Tanácsa (CEA) nemrég kiszámolta: ha nem történik kellő volumenű beruházás az energiatermelésbe, 2030-ra az áramárak 9–58 százalékkal nőnek a megnövekedett kereslet miatt. Ez a Fox Business elemzése alapján minden fogyasztót érinteni fog.

A kiemelkedően sok áramot használó vállalatok – mint az AI-központok – mindazonáltal szintén magasabb díjat fizethetnek majd, hogy finanszírozzák a hálózatfejlesztést, de ezeket a plusz terheket aligha akarják benyelni. Félő, hogy a vállalatok megemelkedett költségei rejtve maradnak vagy szétterülnek, és végső soron a háztartások és kisfogyasztók viselik majd az AI energiaéhségének terheit. Mark Wolfe, az amerikai Nemzeti Energiatámogató Igazgatók Szövetségének ügyvezetője a CBS Newsnak azt mondta, „a szolgáltatók versenyt futnak az egekbe szökő AI- és felhőigények kielégítéséért, ezért új infrastruktúrát építenek majd és emelik a díjakat – gyakran bármiféle átláthatóság és lakossági beleszólás nélkül.

Ez magasabb villanyszámlát jelent a hétköznapi háztartásoknak, míg a techcégek jól járnak a zárt ajtók mögött nyélbe ütött kedvezményes alkukkal.”

A következő években tehát várhatóan nőni fog az energiaár a mesterséges intelligencia térnyerése miatt, akár közvetlenül (a felhőszolgáltatások drágulása révén), akár közvetetten (a villamosenergia árában realizálódva). Ebbe az irányba mutat az is, hogy sok vállalat már most jelentős összegeket költ AI-infrastruktúrára: a City Journal szerint a legnagyobb tech cégek 2023-ban kb. 300 milliárd dollárt fordítottak AI-adatközpontokra világszerte, és ez az összeg 2030-ra elérheti az évi ezermilliárd dollárt is. És minden 100 milliárd dollárnyi új adatközpont-beruházás nagyjából ugyanekkora összegű energiaszámlát jelent évtizedes távlatban. Ebből világosan kitűnik, hogy az energiaköltség az AI költségének meghatározó elemévé válik.

Az energia-infrastruktúra gyors bővítése rengeteg pénzbe kerül, amit végső soron a fogyasztók és az adófizetők állhatnak.

Ha az AI miatt trillió dolláros nagyságrendben kell beruházni új erőművekbe és hálózatfejlesztésbe, az valószínűleg megjelenik az adókban vagy az energiaárakban. Ezáltal joggal merül fel az aggodalom, hogy a cechet a háztartások fizetik meg, miközben a hasznot a nagy technológiai cégek fölözik le. A társadalmi igazságosság szempontjából kérdés, hogy helyes-e az általános energiaár-emelkedés terhére kielégíteni az AI energiaigényét. További aggály, hogy az energiaellátás javára esetleg más területektől (pl. oktatás, egészségügy) vonnak el erőforrásokat – legalábbis abban az esetben, ha a kormányok mindent az energiabővítésnek rendelnek alá.

Mit érzékelnek a felhasználók az AI energiaéhségéből?

Jelenleg szinte semmit. Amikor valaki beír egy kérdést a ChatGPT-be, nem látja, hogy a válasz mögött mennyi áram ég el – és az átlagfelhasználó erre nem is gondol. Pedig egy MIT-kutatás szerint egy ChatGPT-lekérdezés nagyjából ötször több elektromos energiát használ el, mint egy egyszerű Google-keresés. A különbség oka az, hogy az AI-modell párhuzamos számításokat végez a válasz generálásához, ami több processzort és ezáltal több energiát mozgat meg. Ez ugyanakkor a háttérben történik, így a felhasználó ugyanúgy egy pár másodperces választ lát a képernyőn, mintha csak egy keresést indított volna. Az energiafogyasztás ezen a szinten tehát rejtve marad.

Közvetetten azonban a felhasználók is találkozhatnak az AI energiaéhségének hatásaival. Ahogy fentebb fejtegettük, a villanyszámlák emelkedése vagy az energiaszolgáltatók új díjszabásai mögött részben az áll, hogy ki kell szolgálni az adatközpontok igényeit. Ha az energiaárak jelentősen nőnek, az hat a gazdaság minden területére – így a digitális szolgáltatások beárazására is. Elképzelhető tehát, hogy idővel az ingyenesen vagy olcsón használt AI-alkalmazások díjkötelessé válnak vagy drágulnak, hogy a szolgáltatók fedezni tudják az energiaköltségeket.

A nagy technológiai cégek üzleti modelljében eddig gyakran elveszett az AI- és felhőszolgáltatások költsége, de ha tovább nő, előbb-utóbb megjelenik a felhasználói oldalon.

David Cahn, a Sequoia Capital partnere kiszámolta, hogy a nagy AI-beruházások megtérüléséhez globális szinten akár évi 600 milliárd dollárnyi bevételt kellene termelni az AI-szolgáltatásokból – ami fejenként nagyjából 600 dolláros (több mint 200 ezer forintos) éves kiadást jelentene az egymilliárd legjobban kapcsolódó felhasználó számára.

Az energiakínálat bővítése és az energia-infrastruktúra fejlesztése tehát nem pusztán az AI energiaéhségének kiszolgálása, hanem befektetés is a jövőbe. Ha sikerül fenntartható módon kielégíteni a növekvő energiaigényt, az megalapozza a mesterséges intelligencia további fejlődését és az abból származó előnyöket. Az emberiség olyan produktivitási és innovációs ugrást érhet el, ami felgyorsíthatja a gazdasági növekedést és számos problémára megoldást kínálhat. A technológia egyik legígéretesebb hozadéka összességében a nagyarányú termelékenységnövekedés lehet – ami minden gazdaságban a hosszú távú jólét kulcsa.


Link másolása
KÖVESS MINKET:

Népszerű
Ajánljuk
Címlapról ajánljuk


JÖVŐ
A Rovatból
Kiderült, meddig marad élhető a Föld – szuperszámítógépekkel számolta ki a NASA
Nem villámcsapás-szerű összeomlásra, hanem lassú, visszafordíthatatlan hanyatlásra kell készülnünk a kutatás eredménye szerint.


A NASA kutatói összefogtak a japán Toho Egyetem szakembereivel, és szuperszámítógépekkel modellezték, meddig maradhat élhető a Föld. Az eredmények egy távoli, de egyértelmű menetrendet vázolnak fel az élet végét illetően – számolt be róla a BGR.

A kutatás szerint a Nap jelenti majd a legnagyobb gondot: a következő egymilliárd évben nő a kibocsátása, és fokozatosan a lakhatósági határ fölé melegíti bolygónkat.

A becslés alapján a földi élet nagyjából az 1 000 002 021-es évben érhet véget, amikor a felszíni viszonyok már a legellenállóbb élőlényeknek is túl szélsőségesek lesznek.

A lejtmenet azonban sokkal korábban elindul. Ahogy a Nap forrósodik, a Föld légköre jelentősen átalakul: csökken az oxigénszint, meredeken nő a hőmérséklet, és romlik a levegő minősége. A részletes éghajlati és napsugárzási modellek szerint

ez nem villámcsapás-szerű összeomlás, hanem lassú, visszafordíthatatlan hanyatlás.

Ennek jelei már most látszanak. Erősödnek a napviharok és a koronakidobódások, nemrég az elmúlt 20 év legerősebb viharát rögzítették. Ezek hatnak a Föld mágneses mezejére és csökkentik a légköri oxigént.

Közben az ember okozta klímaváltozás is tovább növeli a terhelést:

a globális felmelegedés és a sarki jég olvadása a korábbi előrejelzéseknél gyorsabban halad, ami arra utal, hogy a környezet már jóval az egymilliárd éves időtáv előtt is ellehetetleníti az életet az emberek számára.

A kutatók a felkészülés és az alkalmazkodás fontosságát hangsúlyozzák. Egyesek zárt életfenntartó rendszereket és mesterséges élőhelyeket javasolnak, mások pedig a Földön túli lehetőségeket vizsgálják: a NASA és a SpaceX hosszú távú Mars-missziói az emberi élet fennmaradásának lehetséges útjait keresik, ha bolygónk lakhatatlanná válik.


# Csináld másképp

Te mit csinálnál másképp? - Csatlakozz a klímaváltozás hatásairól, a műanyagmentességről és a zero waste-ről szóló facebook-csoportunkhoz, és oszd meg a véleményedet, tapasztalataidat!

Link másolása
KÖVESS MINKET:

JÖVŐ
A Rovatból
A mesterséges intelligencia képes lehet akár tíz évre előre megjósolni, hogy kinek milyen betegsége lesz
A modell névtelen kórlapok mintáit figyeli, és évekre előre megmutatja, hol nagyobb a kockázat. A fejlesztők szerint így hamarabb lehet beavatkozni, és még az is tervezhető, hány szívinfarktusra kell készülnie egy városnak 2030-ban.


A kutatók szerint a mesterséges intelligencia akár tíz évre előre jelezhet egészségi gondokat, írja a BBC. A rendszer az emberek egészségügyi adataiban keres mintákat, és több mint 1000 betegség kockázatát számolja. Úgy írják le, mint egy időjárás-előrejelzést: százalékban adja meg a valószínűséget. A cél, hogy időben kiszűrje a magas kockázatú embereket, és évekre előre segítse a kórházak tervezését.

A Delphi-2M nevű modell hasonló technológiára épül, mint a közismert MI-chatbotok, például a ChatGPT. A chatbotok nyelvi mintákat tanulnak, és megjósolják, milyen szavak követik egymást. A Delphi-2M névtelenített egészségügyi adatokból tanulta meg felismerni a mintázatokat, és így jelzi előre, mi következhet és mikor. Nem mond pontos dátumot, hanem 1231 betegség valószínűségét becsli.

„Ahogy az időjárásnál 70 százalék esélyt jelezhetünk az esőre, ugyanezt meg tudjuk tenni az egészségügyben is”

– mondta Ewan Birney professzor, az Európai Molekuláris Biológiai Laboratórium megbízott főigazgatója. „Ráadásul nemcsak egy betegségre, hanem egyszerre az összesre – ilyet még soha nem tudtunk. Izgatott vagyok” – tette hozzá.

A fejlesztők először brit, névtelenített adatokon tanították a modellt: kórházi felvételek, háziorvosi adatok és életmódbeli szokások (például dohányzás) több mint 400 ezer résztvevőtől a UK Biobank projektből. Ezután más Biobank-résztvevők adataival ellenőrizték az előrejelzéseket, majd 1,9 millió ember dániai egészségügyi adatán is letesztelték. „Ha a modellünk azt mondja, hogy a következő évben tízből egy az esély, akkor tényleg nagyjából tízből egy esetben következik be” - tette hozzá Birney professzor.

A rendszer azoknál a betegségeknél működik a legjobban, amelyeknek jól követhető a lefolyása, például a 2-es típusú cukorbetegség, a szívinfarktus vagy a szepszis. Az inkább esetleges fertőzéseknél gyengébben teljesít.

Az orvosok ma is írnak fel koleszterincsökkentőt annak alapján, mekkora valakinél a szívinfarktus vagy a stroke kockázata. Az MI-eszköz még nem áll készen a klinikai használatra, de hasonló módon tervezik alkalmazni: korán azonosítani a magas kockázatú embereket, amikor még van esély megelőzni a betegséget. Ez jelenthet gyógyszert vagy célzott életmódtanácsot – például akinek nagyobb az esélye bizonyos májbetegségekre, annak a szokásosnál jobban megérheti visszavenni az alkoholfogyasztásból.

Az MI a szűrőprogramok tervezésében is segíthet, és egy térség összes egészségügyi adatát elemezve előre jelezheti a várható igényeket,

például hogy 2030-ban nagyjából hány szívinfarktus várható egy adott városban.

„Ez egy újfajta megközelítés kezdete az emberi egészség és a betegséglefolyás megértésében” – mondta Moritz Gerstung professzor, a Német Rákkutató Központ (DKFZ) onkológiai MI-osztályának vezetője. „Az olyan generatív modellek, mint a miénk, egy napon személyre szabhatják az ellátást, és nagy léptékben előre jelezhetik az egészségügyi szükségleteket.”

A Nature tudományos folyóiratban ismertetett modellt még finomítani és tesztelni kell a klinikai használat előtt. Torzítást okozhat, hogy a UK Biobank adatai főként 40–70 éves emberektől származnak. A fejlesztők most bővítik a modellt képalkotó vizsgálatokkal, genetikai információkkal és vérvizsgálati eredményekkel.

„Fontos hangsúlyozni, hogy ez kutatás – mindent alaposan tesztelni, szabályozni és átgondolni kell, mielőtt használni kezdjük, de a technológia adott ahhoz, hogy ilyen előrejelzéseket készítsünk” – nyomatékosította Birney professzor. Úgy véli, a genomika egészségügyi bevezetéséhez hasonló utat járhat be a folyamat: a tudósok bizalmától a rutinszerű klinikai használatig akár egy évtized is eltelhet.

A kutatás az Európai Molekuláris Biológiai Laboratórium, a Német Rákkutató Központ (DKFZ) és a Koppenhágai Egyetem együttműködésében készült. Gustavo Sudre, a King’s College London kutatója így értékelt: „Ez a munka jelentős lépés a skálázható, értelmezhető és – ami a legfontosabb – etikailag felelős orvosi prediktív modellezés felé.”


Link másolása
KÖVESS MINKET:

Ajánljuk

JÖVŐ
A Rovatból
Megkezdték a humanoid robotok tömeggyártását Kínában
A cég több ezer előrendelést említ, az ár körülbelül 11,5 millió forint. A mozgásnál emberi mintákat követnek: a végtagok összehangolását szimulációk és utánzásos tanulás segíti.
Maier Vilmos - szmo.hu
2025. szeptember 27.



A kínai Kepler Robotics elindította a K2 Bumblebee humanoid robot tömeggyártását, írja a Rakéta. A modellt logisztikai munkákra, gyártási feladatokban segítésre, kiállításokra és „speciális műveletekre” szánják.

A K2 hibrid architektúrával működik, ami energiahatékony üzemet tesz lehetővé. A gyártó szerint a humanoid egyhuzamban akár 8 órát is dolgozik.

Az ár a hasonló, általános célú humanoidokhoz képest kicsivel magasabb:

körülbelül 11,5 millió forint.

A robotra már több ezer megrendelés érkezett.

A cég a külalakot kevésbé, a mozgást viszont nagyon „emberire” tervezte. A K2 Bumblebee imitációs tanulással és szimulációkkal sajátította el a járás emberihez hasonló jellegzetességeit, beleértve a végtagok mozgásának összehangolását.

A humanoid robotról készült videót itt lehet megnézni:


Link másolása
KÖVESS MINKET:


JÖVŐ
A Rovatból
Sora 2: megjöttek a videók, amiket a képtelenség megkülönböztetni a valóságtól
Náci egyenruhába bújtattak hírességek, meghamisított történelmi események, kamu filmjelenetek igazinak tűnő színészekkel – máris ilyen videók készültek az OpenAI legújabb videógeneráló modelljével, ami egyszerre lenyűgöző és félelmetes.


A Sora 2 videógeneráló modell szeptember végén jelent meg, azzal az ígérettel, hogy a korábbi változathoz képest jelentősen javult a fizikai pontosság, a realizmus és az irányíthatóság. Mivel az OpenAI már a Sora tavaly decemberben kiadott első változatát is – a ChatGPT sikerével párhuzamba állítva – a videókészítés „GPT‑1 pillanatának” nevezte, nagy várakozások előzték meg a „GPT‑3.5 pillanatként” beharangozott Sora 2-t.

Az első verzió fejlesztői változatáról a demók alapján azt írtuk, olyan minőségű filmekhez, amelyeket szöveges utasításra generál, normál esetben külső helyszínekre, díszletekre, profi felszerelésekre és szakemberekre, statisztákra, illetve színészekre lenne szükség, de „úgy fest, hogy mostantól egyetlen AI, a Sora is elég lesz hozzá”.

Nyújthat ennél is többet egy videógeneráló modell? A Sora 2–nek a jelek szerint sikerült, mert a világ egyik ámulatból a másikba esik a vele készült mozgóképek láttán. Az OpenAI azt állítja, hogy az új modell kiküszöböli a korábbi videógenerálók jellemző hibáit, például az amorf tárgyakat és karaktereket, a torzult valóságot vagy a „túlzott optimizmust”. Utóbbihoz példát is kapcsol: ha egy generált videóban szereplő kosárlabdázó „elvéti” a dobást, az eddigi verziók inkább kicsavarták a realitást, és a labda még lehetetlen szögből is a gyűrűbe „teleportált”. Ehhez képest a Sora 2 a fizika törvényeivel teljesen megegyező módon bánik a tárgyak mozgásával: a labda a palánkba csapódik és pont úgy pattan vissza, ahogy az a valóságban is történne.

A tökéletlenség lehalkításával és a képminőség feltekerésével az OpenAI kisebb csodát alkotott: még egyszerű szöveges utasításokból is olyan videókat hoz létre, amelyeket a legtöbb néző képtelen megkülönböztetni a valóságtól. Az pedig, hogy mekkora a szakadék a versenytársak videógeneráló modelljei, valamint a Sora 2 között, remekül illusztrálja ez az összehasonlítás, amelyben a Google fejlesztette Veo 3–mal vetik össze a képességeit.

Ebben a videóban semmi sem valódi:

A gyorsan bővülő AI‑videópiacon persze vannak más vetélytársak is, például a Meta „Vibes” alkalmazása és a Meta Movie Gen modell, valamint az Elon Musk-féle xAI Grok Imagine-je. A Forbes hangsúlyozza, hogy utóbbi rendszerek 6–10 másodperces felvételeket készítenek, míg a Sora 2 akár egyperces videókat generálhat, illetve hangot is ad a tartalmakhoz, ami komoly fegyvertény a jelenlegi mezőnyben. És eddig minden jel arra mutat, hogy a Sora 2 a legerősebb videógeneráló AI.

Az OpenAI a modell széles körű – de egyelőre Észak-Amerikára korlátozott – bevezetése óta arra biztatja a felhasználókat, hogy a Sora 2 segítségével találjanak ki minél több új világot és történetet. A lehetőségeknek – látszólag – csak a képzelet szab határt, hiszen a modell képes az emberi hanghoz igazított dialógusok és hangeffektek generálására is, sőt, ha kell, a felhasználó hang‑ és videómintája alapján avatárt készít, így a saját filmünk főszereplőjévé válhatunk.

Mi változott? – A Sora 2 új képességei

Bár hozzáférés hiányában nekünk, magyaroknak egyelőre nincs összehasonlítási alapunk, az új modellről megjelent videókon valóban az látszik, hogy komoly szintlépés történt. Amíg a Sora demóiban a generált karakterek szemeit jótékonyan elrejtette valami (többnyire egy napszemüveg), a Sora 2 már nem tart az „uncanny valley” jelenségtől. Ez ugye az a nyugtalanító érzés, ami egy videojátékhoz vagy filmhez digitális eszközökkel létrehozott arc láttán tör ránk: hiába realisztikus a karakter, a tekintete természetellenes marad.

Az új modell már nem ilyen „félénk”: tisztában van vele, hogy amit előállít, teljesen életszerű, ezért nincs szükség trükközésre.

Olyannyira nincs, hogy az alábbi videóban látható és hallható Sam Altman sem Sam Altman, hanem egy Sora 2-vel létrehozott avatár, ami az OpenAI vezérigazgatójaként mutatja be a generatív AI képességeit. És ha erre nem figyelmeztetnek előre, aligha mondanánk meg, hogy nem a valódi személyt látjuk.

Az OpenAI szerint a Sora 2 legnagyobb újítása a fizikai törvények pontosabb szimulációja és a látvány élethű megjelenítése. A modell hosszabb és összetettebb cselekményeket, illetve akár többszereplős akciókat is képes kezelni, miközben megőrzi a mozgás törvényeinek koherenciáját.

A vállalat kiemelte, hogy a videók több jelenetből álló utasításokat követhetnek, és a rendszer megőrzi a generált világ állapotát: figyelembe veszi például azt, hogy a tárgyak az előző képsorban pontosan hol voltak. Ezzel már lehetséges akár több perces klipek és kisfilmek, ezáltal komplexebb narratívák létrehozása, de az OpenAI most még a rövid, gyorsan terjedő tartalmak felé tereli a felhasználókat, mert a játékos menőség meghozza a befektetők kedvét a további tervek finanszírozásához.

Lőttek a filmeseknek, vagy a Sora 2 csak egy új „ecset”, amivel alkothatnak?

Az OpenAI azzal hirdette a Sora, majd a Sora 2 rendszert, hogy a filmipar, az animációs stúdiók és a művészek eszköze lehet. A BBC Science Focus egyetért ezzel: azt írják, a rendszer megkönnyítheti animált klipek készítését, és ezzel időt, pénzt spórol. Az első verzió tartalmai ugyanakkor hemzsegtek a hibáktól. Ahogy arra a Washington Post is felhívta a figyelmet: a rendszer egy 1930‑as évekbeli jelenetben a cigaretta rossz végét gyújtotta meg vagy épp egyszerre több telefonkagylót adott a generált karakter kezébe, ráadásul hangot sem tudott létrehozni.

Ehhez képest a Sora 2 pontosságot és már szinkronizált hangot, illetve hangeffekteket is kínál, amivel elvileg tökéletesen alkalmassá válik a komplex szórakoztatóipari felhasználásra.

Az IndieWire elemzője ennek ellenére sem gondolja, hogy az új verzió a filmiparnak készült. A fejlesztők szerinte „nem törődnek Hollywooddal”, hiszen a platform elsősorban virális tartalmak gyártására ösztönzi az embereket, így a közösségi média új mémgyártó eszközévé válhat. És addig, ameddig ez csak igazoltatás elől meglépő Super Mario-s viccek szintjén realizálódik, nincs is nagy baj.

Ez még senkit sem bánt:

A gondok akkor kezdődnek, ha a könnyed hecceken túllépve valódi emberekről vagy valós eseményeket szimuláló helyzetekről készülnek valóságszagú kamuvideók, ami megnehezíti a független filmesek etikus AI‑felhasználását. Onnantól a Nintendo sem mókás rajongói videóként fogja kezelni a fentihez hasonló alkotásokat – ami még ingyen reklámot is csap a Mario Kart játékoknak –, mert attól tart majd, hogy a trend visszaéléseket szül, és óriási energiákat kell fordítani a szellemi tulajdona megvédésére.

A véleménycikk arra is figyelmeztet, hogy a Sora‑videók virális mémjei új frontot nyitnak a szerzői jogi háborúban, hiszen az AI‑userek óhatatlanul egyre kevesebbet törődnek majd a szellemi tulajdonnal, ezáltal tovább mélyítik az árkot az alkotók és az AI‑fejlesztők között. Az Indiewire ezzel kapcsolatban szakmai állásfoglalásokat sürget: úgy véli, ha a jogtulajdonosok és szakszervezetek nem alakítanak ki standardokat, elveszíthetik a harcot.

Osztja ezt az aggodalmat a WGBH-nak nyilatkozó digitális képzőművész, Kyt Janae is, aki szerint nem kell egy év, és szinte képtelenek leszünk megkülönböztetni az ember alkotta tartalmakat az AI-val generált képektől. Thomas Smith, a képek digitalizálásával, menedzselésével, kiadásával és monetizálásával foglalkozó Gado Images vezérigazgatója hozzátette:

a mesterségesen létrehozott képek miatt a valódi fotók is hitelességi válságba kerülhetnek.

Ezek a megállapítások azt jelzik, hogy a videógeneráló AI több területen okozhat károkat, a szórakoztatóipartól a politikán át a személyiségi jogokig.

Máris támadják az új AI-modellt

A Sora 2 indítását rögtön kritikák és aggályok kísérték. A The Guardian például arról számolt be, hogy a generált videók posztolására létrehozott TikTok-szerű app feedje hamar megtelt erőszakos és rasszista jelenetekkel, köztük bombázást és tömeggyilkosságot szimuláló tartalmakkal. Joan Donovan kutató ezzel kapcsolatban arra figyelmeztetett, hogy az ilyen eszközök elmossák a valóság és a hazugság között húzódó határt, ezáltal alkalmassá válhatnak gyűlöletkeltésre és zaklatásra.

Sam Altman ehhez képest a saját blogján a „kreativitás ChatGPT‑pillanataként” jellemezte a Sora 2 indulását, de óvatosan elismerte azt is, hogy például a bullying elkerülése érdekében nagyobb figyelmet kell fordítani a moderálásra.

A Rolling Stone közben példákkal illusztrálva mutatta be, hogy a realisztikus videógeneráló segítségével a felhasználók – csupán heccből – náci egyenruhába bújtattak hírességeket, történelmi eseményeket hamisítottak vagy éppen levédett karaktereket (Pikachu, Ronald McDonald, SpongeBob) használtak fel, ami szerzői jogi veszélyeket sejtet.

A Sora 2 kritikusait idézve a magazin azt írja, hogy az OpenAI „próbálja bepereltetni önmagát”.

A Vox cikke egyenesebben fogalmaz: felhívja a figyelmet arra, hogy a Sora 2 alapértelmezése szerint a jogtulajdonosok azok, akiknek kérvényezniük kellene a karaktereik eltávolítását, ami olyan, mintha a fejlesztők kifejezetten a szerzői jogok megsértése felé terelnék a felhasználókat.

Nem véletlen, hogy a kritikákkal szembesülő Sam Altman később frissítette a posztját, jelezve, hogy a jövőben a jogtulajdonosok „opt‑in” alapon adhatnak hozzá karaktereket az AI-modellhez, lehetővé téve, hogy a generált videók után részesedést kapjanak a bevételekből.

Őrületes energiaigény és a Sora 2 más pénzügyi hatásai

A modell bejelentését követően az elemzők felvetették, hogy a videók generálása rendkívüli mennyiségű számítási kapacitást és energiát igényel. Egyes kutatók szerint egy rövid, nagy felbontású videó generálása több mint 700‑szor több energiát fogyaszt, mint egy állókép létrehozása. Ennek következtében a jövő adatközpontjai már minden kétséget kizáróan nagyvárosokkal vetekedő energiazabáló – és karbonkibocsátó – szörnyetegek lesznek.

A Time elemzése rámutat: az AI‑videók ugyan drágák, de a cégek – köztük az OpenAI és a Meta – abban reménykednek, hogy a rövid videók gyártásával több előfizetéses felhasználó és befektető érkezik. Ez további bevételi forráshoz juttatja őket, ami még nagyobb modellek, egy napon pedig az általános mesterséges intelligencia megjelenéséhez vezethet.

Az AI-cégeknek tényleg nagyon kell a pénz, mert a generatív videómodellek fejlesztése hatalmas összegeket emészt fel. Ez az elemzők szerint idővel arra készteti majd a vállalatokat, hogy a befektetőktől és felhasználóktól beszedett pénzen túl a hirdetési piacon is terjeszkedjenek, illetve további előfizetési csomagokat találjanak ki, valamint árat emeljenek.

Mindeközben fontos cél a felhasználók viselkedési adatainak gyűjtése: a jövőbeli modellekhez a valós interakciók és preferenciák révén tudnak több és jobb tréningadatot gyűjteni.

Ami pedig a belátható jövőben érkező fejlesztéseket illeti, az OpenAI egyik korábbi közleménye felvetette azt is, hogy létrehoznak egy „világszimulátort”, amely pontosan modellezi a fizikai világ törvényeit, ezzel új tudományos problémákat lesz képes megoldani.

Új AI-evolúciós lépcsőfokok jönnek

A Sora 2 ezeknek a vízióknak a nagy reménysége, amitől azt várják, hogy további fejlesztéseket és több platformon elérhető verziókat eredményez. A megjelenése új korszakot nyit a generatív AI-k világában, hiszen bátran kijelenthetjük, hogy ennyire valószerű mozgásokat és hangeffekteket, illetve ilyen időtartamú történeteket még egyik videógeneráló AI sem tudott létrehozni.

Bár a fizika törvényeit még nem követi le tökéletesen és vastagon lehetőséget ad a visszaélésekre – a deepfake-től az erőszakos tartalmakon át a szerzői jogok megsértéséig –, a komoly etikai és jogi kérdések kezelése után érdemes lehet kihasználni a benne rejlő lehetőségeket.

A szakértők szerint hamar mainstream eszközzé válhat, de a társadalomnak – még új normarendszerek és hatékony moderálás bevezetése mellett is – fel kell készülnie arra, hogy a valóság és a mesterséges tartalom közötti határ elmosódik.

Mivel a gazdasági potenciál óriási, számolni kell a bővülésével és az energiafogyasztás növekedésével, valamint azzal, hogy a szellemi tulajdon megóvása érdekében ki kell harcolni a generált tartalmak után járó részesedést. Ezek az együttműködések – ha egyáltalán megköttetnek és aztán hosszú távon működőképesnek bizonyulnak – a kreatív tartalomgyártás ragyogó gyöngyszemévé varázsolhatják a Sora 2-t, illetve a jövőben érkező hasonló modelleket.


Link másolása
KÖVESS MINKET: