JÖVŐ
A Rovatból

Tartósan és életveszélyesen forró lehet a nyár az Alföldön és a nagyvárosokban, ha nem csökkentjük a kibocsátásokat

A pesszimista forgatókönyv szerint, ha a jelenlegi módon folytatjuk a kibocsátásokat, úgy a mainál 12-szer több tartós hőhullámos napra számíthatunk a század végéig országosan. A déli országrész, Szeged környéke és az Alföld a legkitettebb, ahol 30 nap feletti éves értékeket várunk. A Másfélfok cikke.


Mintegy 90%-os valószínűséggel állíthatjuk, hogy az emberi tevékenység miatt nő a tartós hőhullámos napok száma Magyarországon. Míg a hetvenes-nyolcvanas években országos átlagban nem volt ilyen nap, ez mára évi 2 napra emelkedett. Ez a szám csak országos átlagban tűnik alacsonynak: míg az északi és a hegyvidéki tájainkon nagyon ritkák a hőhullámok, addig az Alföldön a legextrémebb évben, 2012-ben 18 tartós hőhullámos nap volt. A jövő még lesújtóbb: a pesszimista forgatókönyv szerint, ha a jelenlegi módon folytatjuk a kibocsátásokat, úgy a mainál 12-szer több tartós hőhullámos napra számíthatunk a század végéig országosan. A déli országrész, Szeged környéke és az Alföld a legkitettebb, ahol 30 nap feletti éves értékeket várunk. Az évi maximumhőmérsékletek is mindenhol statisztikailag szignifikánsan emelkednek országszerte, azonban itt csak kb. 60%-os valószínűséggel jelenthetjük ki, hogy az emberi kibocsátások miatt történik mindez. Ez azonban nem csökkenti annak a kockázatát, hogy a pesszimista forgatókönyvet követve az Alföldön minden évben számíthatunk 40 °C-os maximumokra a század utolsó két évtizedében, különösen szélsőségesen forró években pedig 45 °C feletti értékek sem kizártak az ország legmelegebb részein, amit rajtunk kívül az infrastruktúra is meg fog szenvedni. Kizárólag egy mérsékelt kibocsátásokkal számoló jövőkép szerint van esélyünk annak megfékezésére, hogy a század közepétől ne szabaduljon el az emberi szervezetre akár életveszélyes hőhullámos napok száma, és az elindult exponenciálisan növekvő trendet lassítani tudjuk. Szabó Péter és Pongrácz Rita elemzése a Másfélfokon.

Jelen tanulmányban azt vizsgáljuk, hogy a tartós hőhullámok hogyan alakulnak hazánkban, vagyis amikor a napi átlaghőmérséklet legalább 3 napig 27 °C feletti. Emellett a nyári extrém értékeket, azaz az évi maximumhőmérsékleteket (a napi maximumhőmérséklet éves maximumát) is elemezzük. Megadjuk, hogy mi várható a jövőben a mérsékelt vagy fokozódó éghajlatváltozás és antropogén hatások esetén, és hogy a változásokért az emberi tevékenység okolható-e. Az elemzést a tartós hőhullámos napokkal kezdjük.

A hetvenes-nyolcvanas években nem volt, ma már szinte országosan lehet hőhullám /h2>

Tekintsük először az elmúlt 50 év megfigyeléseit (forrás: Országos Meteorológiai Szolgálat)! Idén épp most éljük át az első tartós hőhullámos napokat, amelyből tavaly a nyár folyamán országos átlagban 4 ilyen nap volt.

Ha a hetvenes-nyolcvanas éveket tekintjük, akkor az ország délkeleti részét leszámítva 20 év alatt egyetlen tartós hőhullámos napot sem éltünk át.

1. ábra: A tartós hőhullámos napok átlagos évi száma 1971-1990 és 2001-2020 között az Országos Meteorológiai Szolgálat mérései szerint. A szerzők ábrája.

2001-től vizsgálva ez jelentősen megváltozott, hiszen országos átlagban már évi két napra számíthatunk, az Alföld déli részén ennek duplájára is. A húszéves átlag azt jelenti, hogy ugyan nem minden évben várhatunk ennyi napot (pl. 2018-ban, 2019-ben vagy 2020-ban gyakorlatilag nem volt ilyen nap), de előfordulhatnak kevésbé elviselhető, szélsőségesebb évek is (pl. 2012-ben és 2015-ben országos átlagban 8, illetve 7 ilyen naptól szenvedtünk). Az országos átlag önmagában kevésbé tűnhet fenyegetőnek, de mivel az északi és a hegyvidéki tájainkon nagyon ritkák a hőhullámok, mindez azt jelenti, hogy

a tavalyi (2021) 4 napos országos átlag mellett délkeleten 13 napot észleltünk, míg a legextrémebb esetben, 2012-ben a területi átlagban detektált 8 naphoz az Alföld közepén jóval több, összesen 18 nap tartozott.

Ezt pedig már nem könnyű elviselni. Különösen az idősebbek és a kisgyerekek szervezete veszélyeztetett a nyári hőségek idején.

Mi okozzuk, és egész nyáron szenvedni fogunk jövőben, ha nem mérsékeljük a kibocsátásokat

Ha elemzésünket kiterjesztjük a 20. század elejéig a rendelkezésre álló klímaszimulációk felhasználásával, az eredmények azt jelzik, hogy voltak ugyan olyan évek is, amikor előfordultak hőhullámos időszakok, de a manapság jellemzőhöz képest jóval ritkábban – olyannyira, hogy egyes évtizedekben a tartós hőhullámok szinte ismeretlenek voltak (2. ábra, szürke sáv).

Ahhoz, hogy az utóbbi három évtizedben megjelent, exponenciálisan növekvő trendről eldöntsük, hogy az emberiség felelős-e érte, az elmúlt szűk 50 évre vonatkozó, kétféle éghajlati szimulációt kell tekintenünk. Az egyik esetben a modellek csak természetes kényszereket vettek figyelembe, míg a másikban a valóságot, azaz az emberi tevékenység miatt növekvő üvegházgáz-koncentrációkat is. A szimulációk alapján a megfigyelésekkel megegyező trendet 9-ből 8 modell esetében csak akkor kapjuk meg, ha az emberi tevékenységet is figyelembe vesszük.

Ezzel a kb. 90%-os aránnyal nagy bizonyossággal állíthatjuk, hogy az emberiség okolható a tartós hőhullámok gyakoriságának növekedéséért.

Ha a jövőbeli modelleredményeket tekintjük, a pesszimista jövőkép szerint várható helyzet rendkívül lesújtó. Az antropogén hatások további fokozódása miatt (2. ábra, piros sáv)

a tartós hőhullámokban exponenciális növekedés várható: a század végére a jelenleginél átlagosan 12-szer több tartós hőhullámos napra számíthatunk.

Ez az országos átlag azt jelenti, hogy sajnos lehetnek olyan évek is, amikor a nyár több mint 5-6 hetében szenvedni fogunk a hőségtől, ugyanakkor biztosan nem lesznek majd olyan évek, amikor egyáltalán nem fordul majd elő tartós hőhullámos nap.

Kizárólag egy mérsékeltebb kibocsátásokkal számoló jövőkép szerint van esély annak megfékezésére, hogy a század közepétől ne szabaduljon el a hőhullámok száma, és az elindult exponenciálisan növekvő trendet lassítani tudjuk.

A mérsékeltebb antropogén-kibocsátással számoló modellszimulációk alapján a növekedés annyira megszelídíthető, hogy a jelenlegihez képest átlagosan “csupán” 3-szorosra nőjön az előfordulási gyakoriság (2. ábra, narancs sáv).

2. ábra: A tartós hőhullámos napok Magyarországon az 1971-2020 időszak mérései (kék), valamint az 1900-2005 időszakban historikus kényszerekkel futtatott modellek (szürke), illetve a 2006-2100 időszakban az optimistább RCP4.5 (narancs) és a pesszimista RCP8.5 (piros) forgatókönyvet követő jövőbeli szimulációk alapján. Az eredményeken ötéves simítást alkalmaztunk, a színes sávok a legszélsőségesebb szimulációkat már nem tartalmazzák, a vastagított vonalak pedig a szimulációk mediánját jelölik. A szerzők ábrája.

Részletesebben a 3. ábra mutatja húszéves időszakokra lebontva, hogy a következő 80 évben az országon belül hol várható a legtöbb tartós hőhullámos nap. A legsötétebb színeket szinte mindig délkeleten, Szeged térségében találjuk. Itt az optimista és pesszimista forgatókönyv közötti különbség 2060-tól válik jelentőssé:

az utóbbi esetében a század végére 30 nap felett várhatjuk éves átlagban a tartós hőhullámos napokat a legjobban kitett alföldi térségekben. Ez egyes években akár a nyár felét is jelentheti.

3. ábra: A tartós hőhullámos napok várható átlagos évi száma 2021-2040-ben, 2041-2060-ban, 2061-2080-ban és 2081-2100-ban az optimistább RCP4.5 (fent) és a pesszimista RCP8.5 (lent) forgatókönyvet figyelembe vevő modellszimulációk átlaga alapján. A szerzők ábrája.

Továbbá azt is láthatjuk, hogy a fosszilis energiahordozók folytatódó túlsúlyára alapuló jövőképet követve – a jelenlegi helyzettől jelentősen eltérően – szinte alig lesz olyan része az országnak, ahol egyáltalán ne fordulnának majd elő hőhullámok.

Nemcsak hosszabbak lesznek a hőhullámok, de még melegebbek is

A hőhullámok gyakorisága mellett egészségügyi szempontból további fontos tényező, hogy azok milyen intenzitásúak. Ehhez az évi maximumhőmérsékleteket elemezzük. Az elmúlt öt évtized mérései alapján az országban mindenhol statisztikailag szignifikánsan növekvő trendről beszélhetünk (4. ábra).

Míg 1971-1990-ben csupán 33,3 °C volt az éves legmagasabb hőmérséklet országos átlaga, addig 2001-2020-ban már ennél magasabb, 35,6 °C.

A jól érzékelhető növekedés nem egyenletes, és például a 2018-2020 időszak relatíve enyhébb volt: az országos évi maximumok 34-35 °C körüliek voltak, de az évek közötti ingadozások ellenére az utóbbi 20 év mindegyikében magasabb volt az országos átlagos maximumhőmérséklet, mint 40-50 éve. Az elmúlt 50 év legmelegebb napján, 2007-ben pedig az országos átlag 39,2 °C volt (sőt, hazánk területének ötödén 40 °C-ot is mértek).

4. ábra: Az évi maximumhőmérséklet évtizedes trendje [°C/évtized] az 1971-2020 időszakban az Országos Meteorológiai Szolgálat mérései alapján. A trend mindenhol statisztikailag szignifikáns. A szerzők ábrája.

Ha klímaszimulációkkal ezen elemzésünket is kiterjesztjük a 20. század elejéig, láthatjuk, hogy a század legnagyobb részén a belső változékonyság dominált (5. ábra, szürke sáv). Az utóbbi évtizedekben mért nem egyenletes, de növekvő trend vizsgálatakor is a csak természetes kényszereket figyelembe vevő és az emberi tevékenység okozta többlet üvegházgáz-növekedést is tekintő szimulációk alapján nyilatkozhatunk. 8-ból 5 modell esetén csak akkor kapunk a mérésekhez hasonló trendet, ha az emberi tevékenységet is figyelembe vesszük. Tehát

a tartós hőhullámos napokhoz képest alacsonyabb, mintegy 60%-os megbízhatósággal állíthatjuk, hogy mi tehetünk az egyre magasabb évi maximumokról, azaz a hőségek intenzitásának növekedéséről is.

A jövőt vizsgálva megállapíthatjuk, hogy gyakorlatilag a jelenlegi trend folytatására kell felkészülnünk a pesszimista jövőkép szerint, és a század végén minden egyes évben a közelmúltban (2007-ben) még a legextrémebbnek számító 39 °C fölötti országos átlagokra számíthatunk. Ezzel szemben a mérsékeltebb kibocsátásokkal az éves maximumok 37 °C körüli tetőzésével kevésbé forrón tarthatnánk nyaraink legmelegebb napjait is (5. ábra, narancs és piros sáv).

5. ábra: Az évi maximumhőmérséklet Magyarországon az 1971-2020 időszak mérései (kék), valamint az 1900-2005 időszakban historikus kényszerekkel futtatott modellek (szürke), illetve a 2006-2100 időszakban az optimistább RCP4.5 (narancs) és a pesszimista RCP8.5 (piros) forgatókönyvet követő jövőbeli szimulációk alapján. Az eredményeken ötéves simítást alkalmaztunk, a színes sávok a legszélsőségesebb szimulációkat már nem tartalmazzák, a vastagított vonalak pedig a szimulációk mediánját jelölik. A szerzők ábrája.

Az Alföld van a legnagyobb veszélyben, szélsőségesen meleg években akár 45 °C körüli hőmérséklet is lehet majd

A térbeli szerkezetet kialakító okok – tehát a trópusi területekhez való relatíve közelebbi elhelyezkedés és a kontinentális hatás – változatlanok, így a 6. ábra szerint az ország déli, délkeleti felén várhatjuk továbbra is az évi legmelegebb nappali hőmérsékleteket. Az antropogén hatás jövőbeli alakulása persze a növekedés mértékében eltér: míg a pesszimista kibocsátást követve az Alföldön minden évben 40 °C-os maximumokra számíthatunk a század utolsó két évtizedében, addig az optimistább jövőkép szerint inkább “csak” 38 °C-ra.

A két forgatókönyv közötti különbség ugyan kisebb, mint a tartós hőhullámoknál, de ez nem jelenti azt, hogy ez a 2-2,5 °C-os különbség ne volna jelentős az emberi szervezetre gyakorolt hatás szempontjából (hiszen például a többlethalálozás a lineárisnál nagyobb arányban nő a hőtöbblettel).

6. ábra: Az évi maximumhőmérséklet várható sokéves átlaga 2021-2040-ben, 2041-2060-ban, 2061-2080-ban és 2081-2100-ban az optimistább RCP4.5 (fent) és a pesszimista RCP8.5 (lent) forgatókönyvet figyelembe vevő modellszimulációk átlaga alapján. A szerzők ábrája.

Ha nem csupán az évi átlagos maximumokra vagyunk kíváncsiak, hanem a mérnöki tervezés szempontjából is lényeges, rendkívül extrém, 10, illetve 20 évente átlagosan egyszer előforduló értékeket szeretnénk tudni, akkor sajnos nem állhatunk meg a 40 °C-nál. A 7. ábra ugyan országos átlagokat jelenít meg, mégis jól látszik, hogy míg 1971-1990-ben a megfigyelések szerint kicsivel 36 °C alatt voltak a 20 évente átlagosan egyszer előforduló maximumok, addig ez az érték a 21. század kezdetétől már teljesen átlagos lett, és a maximum inkább 39 °C közeli volt (lásd 2007-et, amikor a legmelegebb napon ennyi volt az országos maximumhőmérséklet).

Az eltolódás a modelleredmények bizonytalansága mellett a jövőben is folytatódik: a század végén a zöldebb jövőkép szerint 20 év alatt átlagosan egyszer számíthatunk 40-41 °C-okra, ugyanakkor a pesszimista szcenáriót követve az ijesztően magas 43 °C-os országos átlag lesz a 20 évente egyszer előforduló jellemző érték.

Ez azt jelenti, hogy az ország egyes részein inkább 45 °C feletti értékekre kell majd számítanunk.

Az adaptációs felkészülés során az extrém hőstresszre érzékeny infrastruktúrák tervezésénél mindenképpen figyelembe kell venni tehát, hogy akár 45 °C-os értékek is előfordulhatnak.

7. ábra: Az extrém, azaz a 10, illetve 20 évente átlagosan egyszer előforduló maximumhőmérsékletek az 1971-1990 és 2001-2020 időszak mérései szerint [balra], továbbá a 2021-2040, 2041-2060, 2061-2080 és 2081-2100 időszakra az optimistább RCP4.5 és a pesszimista RCP8.5 forgatókönyvet figyelembe vevő klímaszimulációk alapján várható értékek tartománya [jobbra]. Az értékek az országos átlagra vonatkoznak, a tartományok a legszélsőségesebb szimulációkat már nem tartalmazzák. A szerzők ábrája.

Mérséklés nélkül nem csupán forró, hanem életveszélyes is lehet a nyár a jövőben

Összefoglalva tehát: (1) A tartós hőhullámok az utóbbi két évtizedben egyre gyakrabban jelentkeztek, melyért egyértelműen az emberiség okolható. Nemcsak a hőség gyakorisága, hanem az évi maximumhőmérsékletek is jelentősen nőttek. (2) Ha a jövőben tovább folytatjuk a fosszilis energiahordozók intenzív használatát, és fokozzuk a globális felmelegedést, akkor a mai hőhullámok sokszorosa várható a 21. század végén – az Alföldön évi átlagban akár 30 nap felett. Ugyanitt pedig az évi maximumok várhatóan minden évben elérik majd a 40 °C-ot.

A nyári hőhullámok esetében elsősorban a mitigációs célokat kellene szem előtt tartanunk, hogy elkerüljük a társadalomra nehezedő, a jelenleginél sokszorosan nagyobb egészségügyi nyomást.

Mitigáció nélkül a pesszimista forgatókönyv szerint éves átlagban három-négyszer annyi hőhullámos naptól szenvedhetünk, mintha a zöldebb jövőt követnénk, és mivel nem lineáris a kapcsolat a hőhullámos napok és a halálozások között, ez várhatóan sokkal jelentősebb többlethalálozással jár majd. Ez különösen az Alföldet és a nagyvárosokat érintheti majd.

Az alkalmazkodási lehetőségek egyikeként szokás említeni a belterek hűtését; ennek azonban jelentős energiaigénye van, amit fosszilis energiahordozókkal biztosítva tovább erősítjük a globális felmelegedést, és egy öngerjesztő folyamatot táplálunk. Sokkal inkább megéri a kibocsátásokat csökkentenünk és áttérni egy zöldebb forgatókönyvre. Már csak azért is, hiszen a többi évszak melegedésével ellentétben a gyakoribb nyári hőségek már közvetlen, akár életveszélyes hatással vannak az emberi szervezetre.

Jelen tanulmány elkészítésében a szerzőkön kívül még részt vett: Bartholy Judit és Mráz Anna. Köszönet illeti a globális modellszimulációk elkészítéséért a WCRP CMIP 6. fázisában résztvevő intézményeket, a regionális modelleredményekért az Euro-CORDEX konzorcium modellező intézeteinek tagjait, a hazai megfigyelésekért pedig az Országos Meteorológiai Szolgálatot.


# Csináld másképp

Te mit csinálnál másképp? - Csatlakozz a klímaváltozás hatásairól, a műanyagmentességről és a zero waste-ről szóló facebook-csoportunkhoz, és oszd meg a véleményedet, tapasztalataidat!

Link másolása
KÖVESS MINKET:

Népszerű
Ajánljuk
Címlapról ajánljuk


JÖVŐ
A Rovatból
Milliós fizetések és új szakmák: öt állás, amit a mesterséges intelligenciának köszönhetünk majd
A mesterséges intelligencia rohamos fejlődése nemcsak a technológiát, hanem a munkaerőpiacot is formálja. Hamarosan olyan munkákért is fizethetnek majd, amelyek ma még nem is léteznek.


A mesterséges intelligencia kapcsán legtöbbször arról hallunk, hogyan váltja ki az emberi munkát. A gyorséttermek pultjaitól és recepciós pultoktól a futárszolgálatokig és raktárakig sok szakma veszélybe került. Bár szakértők szerint nagyjából 40 állás „AI-biztosnak” számít, a lista meglepően rövid.

Az AI körül azonban nemcsak a munkahelyek megszűnése miatt vannak viták. Egyre több szó esik az adatvédelmi és a félretájékoztatási kockázatokról is – például arról, mennyire jó ötlet mindent megosztani a ChatGPT-vel.

Pedig a technológia nem csak rosszra használható. Gyorsíthatja a monoton munkát, segíthet utazást szervezni, sőt, akár virtuális terapeutaként is működhet. Ráadásul olyan, ma még nem létező állásokat hozhat létre, amelyek komoly fizetést kínálnak.

A Mediumon megjelent összeállítás szerint ez lehet az öt legígéretesebb jövőbeli AI-állás:

1. Érzelmi AI-promptmérnök

Várható éves fizetés: kb. 110 millió forint.
 Feladata: megtanítani a mesterséges intelligenciának az érzelmek kezelését. Egy AI-terapeutánál vagy trénernél alapelvárás, hogy empatikus és érzelmileg intelligens legyen. Ehhez olyan szakemberekre lesz szükség, akik képesek emberi tudást és érzelmi finomságot átadni a gépeknek.

2. Digitális személyiségtervező

Az AI-generált Instagram-influenszerek már most is felbukkannak, de a jövőben tervezők alkothatják meg teljes háttértörténetüket és hangjukat. Legyen szó virtuális személyi edzőről vagy online műsorvezetőről, ezek a karakterek már nemcsak a fantáziából, hanem kódokból is születnek majd.

3. Etikai algoritmusellenőr

A közösségi médiában látott személyre szabott tartalmak mögött bonyolult algoritmusok állnak. Ha ezek torz, elfogult vagy furcsa eredményeket adnak, független ellenőrök vizsgálhatják át a működésüket, és biztosíthatják a rendszer igazságosságát.

4. Szintetikus emlékek kurátora

Az AI „memóriája” – és felejtési képessége – eddig kevés figyelmet kapott. A szintetikus emlékek kurátora adatkutatási, történetmesélési és mentálhigiénés ismeretekkel alakít ki olyan AI-társakat, amelyek személyre szabott élményeket és beszélgetéseket kínálnak.

5. AI-világépítő a valóságban

A GTA fejlesztői a virtuális világok mesterei, de a jövőben tervezőknek AI-alapú, valós terek létrehozásán kell dolgozniuk. Okososztálytermek, alkalmazkodó városok, rutinokat megtanuló otthonok – a digitális világépítés kilép a képernyőről.

(via LADbible)


Link másolása
KÖVESS MINKET:

Ajánljuk
JÖVŐ
A Rovatból
Nem csak a munkát, az áramot is elveszi – Egyre fenyegetőbb az AI energiaéhsége, amit velünk fizettethetnek meg a cégek
A generatív AI térnyerésével rohamosan nő az adatközpontok villamosenergia-fogyasztása. A szakértők figyelmeztetnek: a technológiai forradalom megfelelő energiaellátás híján megtorpanhat, és mindenre hatással lehet, az energiaipartól a háztartások rezsiköltségéig.


A mesterséges intelligenciát gyakran tisztán digitális jelenségnek tekintjük, amely a bitek és algoritmusok megfoghatatlan szintjén működik, de valójában minden egyes AI-val generált kép, vagy ChatGPT-ben keletkezett válasz mögött mérhető energiafogyasztás áll. A háttérben hatalmas szerverközpontok dolgoznak, amelyek ásványi anyagokból készült chipekkel és félvezetőkkel teli számítógépparkokat működtetnek – és ehhez jelentős mennyiségű villamosenergia kell. Amennyiben tehát az AI fejlődését és terjedését vizsgáljuk, a számítástechnikai kihívások mellett figyelembe kell venni az infrastrukturális és ökológiai korlátokat is.

Bármennyire ígéretes az AI, a növekedésének van egy nagyon is kézzelfogható határa, amire Sam Altman, az OpenAI vezérigazgatója nemrég egy kongresszusi meghallgatáson világított rá. Mint mondta, „idővel a mesterséges intelligencia költsége össze fog érni az energia költségével”.

Altman a Time szerint arról is beszélt, hogy hiába válnak egyre automatizáltabbá és olcsóbbá a chipgyártási és hálózati folyamatok, egy elektron energiaigénye akkor sem lesz kisebb, vagyis a számítási feladatok fizikai energiaigénye adott, és nem csökken zéró alá. Végső soron tehát egy érett AI-gazdaságban az „intelligencia” előállításának határköltsége megközelíti az elektromosság határköltségét.

Még konkrétabban: hogy mennyi AI-t kaphatunk, „azt az energia bősége korlátozza” – magyarázta Altman.

A forradalmi AI-termékeket fejlesztő cég vezetője világossá tette: az energetikai innováció és az AI képességei között közvetlen kapcsolat keletkezik, így azok a régiók, amelyek bőségesen, megbízhatóan és olcsón tudnak energiát biztosítani, döntő előnyre tesznek szert a számítási kapacitás terén.

Energiakorlátok: lesz-e elég áram az AI-hoz?

Az, hogy az innováció egyik kulcsa az energia, már napjainkban is tetten érhető. Egyes becslések szerint csak az Egyesült Államoknak akár további 90 gigawatt teljesítményre – tehát pluszban nagyjából 60 paksi atomerőműre – lenne szükség az adatközpontok ellátásához a következő években. A City Journal szerint Altman ezért figyelmeztetett arra, hogy az energiaellátás fejlesztése a legfontosabb stratégiai beruházás. „Nem jut eszembe semmi, ami hosszú távon fontosabb lenne, mint az energia” – fogalmazott az amerikai szenátus energiaügyi bizottsága előtt.

Azok az országok vagy vállalatok tehát, amelyek képesek nagy mennyiségben tiszta energiát előállítani, lényegében meghatározzák majd, hogy mi válik lehetségessé az AI-fejlesztésben.

És Kína már most globális vezető szerepben van a megújuló energia területén, ráadásul az évtized végére a világ teljes megújuló kapacitásának közel felét birtokolhatja majd. Jól látszik, hogy az AI-verseny könnyen energiaversennyé alakulhat: az nyer, akinek több és tisztább energiája van az AI rendszerek üzemeltetésére.

És ennek hatása a mindennapokban is érezhető lesz – jósolta a BloombergNEF, Elon Muskra hivatkozva. A robotikai és AI-forradalomra készülő Tesla-vezér nyilatkozata szerint „jelenleg chiphiány van, egy év múlva transzformátorhiány, két év múlva pedig áramhiány lesz”. Mark Zuckerberg szintén tett erre utaló jelzést, amikor nemrég kijelentette: a Meta azonnal nekilátna több adatközpont építésének, ha kapna hozzá elegendő villamosenergiát.

Az adatközpontok energiaellátása már napjainkban sem egyszerű.

A világ legnagyobb adatközpontjainak otthont adó Észak-Virginiában a szerverparkok már kb. 2,5 gigawatt kapacitást kötnek le, ami a térség áramszükségletének kb. 20 százalékát jelenti, és a szakértők arra számítanak, hogy az igények évi 25 százalékkal nőnek. Pedig már 2022-ben (a ChatGPT szabadon engedése előtt) előfordult, hogy egy helyi áramszolgáltató átmenetileg kénytelen volt leállítani az új adatközpontok hálózatra kapcsolását, mert nem tudta garantálni az ellátásukat. Hasonló helyzet állt elő Írországban, ahol a Dublin környéki adatközpontok – szintén 2022-ben – felemésztették az ország teljes áramfogyasztásának 21 százalékát – szemben a 2015-ös öt százalékkal. Itt a hatóságok moratóriumot hirdettek új adatközpontok létesítésére.

A példák jól jelzik: könnyen előfordulhat, hogy a hagyományos hálózatfejlesztés nem tud lépést tartani az AI-központok energiaigényével.

Ugrásszerű növekedés indult, a tettes az AI

A mesterséges intelligencia széleskörű használata miatt az elmúlt években érezhetően megugrott az emberiség energiaigénye. A fordulópont 2020 körül érkezett el: egy évtizednyi viszonylagos stagnálás után az adatközpontok villamosenergia-igénye hirtelen növekedésnek indult, egyrészt az AI modellek szaporodása, másrészt pedig a COVID-időszak távmunkatrendje miatt. A fogyasztás meredeken emelkedni kezdett, leginkább a szerverparkok növekvő igénybevételének köszönhető.

Az amerikai Környezet- és Energiakutató Intézet becslései szerint az adatközpontok áramfelhasználása már 2022-ben elérte a 176 terawattórát az Egyesült Államokban (ami több mint kétszerese a néhány évvel korábbinak), miközben a globális adatközpontok energiafelhasználása 460 TWh lehetett. Az MIT riportja összehasonlításképpen azt írja, ha az adatközpontok önálló országot alkotnának, akkor már az AI jelentősebb térnyerése előtt, 2022-ben a világ 11. legnagyobb áramfogyasztójának számítottak volna, pedig ez sehol sincs a jelenlegi áramfelhasználáshoz képest.

A kutatók úgy számolnak, hogy az adatközpontok már 2026-ban elérik az 1050 terawattórás energiaigényt, amivel – megint csak országként kezelve – az ötödik legnagyobb felhasználóvá válnak, és Japán, illetve Oroszország közé jönnek fel a világranglistán.

Ez őrületesen gyors változás. Amerikai példával érzékeltetve: az AI-ra specializált szerverek éves fogyasztása 2017-ben még alig két terawattóra volt, 2023-ra viszont már elérte a 40 terawattórát, ami hússzoros növekedés – úgy, hogy csak a ChatGPT 2022-es megjelenését követő egyetlen év alatt megháromszorozódott az energiafelvételük.

Mit mutatnak az előrejelzések 2030-ra és 2040-re?

A fentebb írt tendencia folytatódni látszik, ami az évtized végére sokkoló mértékű energiaigényt jelez előre. A Nemzetközi Energiaügynökség (IEA) elemzése azt mutatja, hogy a globális adatközpontok villamosenergia-fogyasztása 2030-ra a jelenlegi több mint a kétszeresére nő, és eléri a 945 terawattórát.

Ez kb. 475 paksi atomerőmű, és csaknem annyi áram, mint amennyit a 125 milliós lakossággal rendelkező Japán teljes gazdasága fogyaszt.

De menjünk még tovább a belátható jövőben: a Rystad Energy nemrég közzétett előrejelzése 2040-re már közel 1800 terawattóra fogyasztást vetít előre – ez nagyjából annyi energia, amennyivel 150 millió amerikai háztartást lehetne ellátni, egy teljes éven át.

Verseny az energiaforrásokért: merre tovább?

Az előttünk álló legnagyobb kihívás az, hogy milyen energiaforrásokkal és hogyan tudjuk kielégíteni az AI által gerjesztett plusz igényt. A jelenlegi trendek alapján a villamosenergia előállításának diverzifikációjára elengedhetetlennek tűnik. Az IEA azt látja, hogy az adatközpontok növekvő áramszükségletét számos forrásból fedezheti a világ, és ebben főszerepet játszhat a szél- és napenergia mellett a földgáz is, hiszen ezek költséghatékonysága és elérhetősége igen kedvező a kulcspiacokon. Fontos megjegyezni ugyanakkor, hogy a megújulók termelése még mindig erősen időjárásfüggő, így sokan fordulhatnak majd az atomenergia felé.

A Goldman Sachs elemzői ezzel kapcsolatban azt írják, hogy 2030-ig globálisan 85–90 GW új nukleáris kapacitásra lenne szükség ahhoz, hogy az adatközpontok várható többletigényét teljes mértékben atomenergiával fedezzük. Reálisan azonban ennek csak a töredéke épül meg: a riport szerint világszinten a szükséges atomkapacitás kevesebb mint tíz százaléka áll majd rendelkezésre az évtized végére.

Ennek oka az, hogy bár az atomenergia megbízható és közel zéró kibocsátású, az új erőművek létesítése időigényes és drága.

Rövid távon tehát valóban a földgáz és a megújulók kombinációja töltheti be a tátongó űrt. Egy iparági felmérés kimutatta: megfelelő energiatárolással (vagyis akkumulátorokkal kiegészítve) a szél- és napenergia egy adatközpont igényének 80 százalékát is fedezheti, viszont a fennmaradó időre (amikor például nem süt a nap vagy szélcsend van) hagyományos energiaforrásokra van szükség a folyamatos ellátáshoz.

A jelenlegi trend azt mutatja, hogy sok új adatközpont – főleg Ázsiában és Észak-Amerikában –földgáztüzelésű erőművekhez csatlakozik, mivel ezek tudják azonnal kiszolgálni a gyorsan növekvő igényeket. A hagyományos megoldásnak ugyanakkor ára van: ha a globális adatközpont-kapacitás bővülését 60 százalékban földgázerőművek biztosítják, az évente további 215 millió tonna karbonkibocsátást jelentene 2030-ra, ezzel a világ energiaipari emissziójának kb. 0,6 százalékát adná.

Sorra vásárolják fel az atomenergia-kapacitásokat

A techcégek felismerték a helyzet komolyságát, és már most jelentős lépéseket tesznek az energiaellátás biztonságáért. A legnagyobb felhőszolgáltatók (mint a Google, az Amazon, a Microsoft vagy a Meta) a világ legnagyobb zöldenergia-vásárlói közé léptek: összesen több mint 70 gigawatt kapacitásra kötöttek hosszú távú áramvásárlási szerződéseket. A BloombergNEF szerint az is jól látható trend, hogy a tiszta, folyamatos ellátás reményében a vállalatok újra az atomenergia felé fordulnak.

A Microsoft például nemrég szerződött a hírhedt (1979-ben súlyos reaktorbalesetet szenvedett, majd 1985-2019-ig működő) Three Mile Island atomerőmű 2027-28-as újraindítására, hogy aztán a teljes termelését az adatközpontjai üzemeltetésére fordítsa, míg az Amazon 2023-ban úgy, ahogy van, megvette egy pennsylvaniai atomerőmű melletti adatközpont teljes kapacitását, a Google pedig rendelt hét darab kis moduláris reaktort.

A technológiai szektor tehát korábban nem látott mértékben invesztál az energiatermelésbe, viszont akadályokba ütközik a szabályozó hatóságok szintjén, mivel azok nem feltétlenül nézik jó szemmel, hogy milyen biztonsági feltételek mellett és mennyi kapacitást foglalnak be, illetve ezzel milyen hatást gyakorolnak az áram piaci árára.

A hosszabb távú megoldást sokan a technológiai áttörésektől remélik. Az összes energiaforrás turbófokozatra kapcsolása mellett megjelent az igény az innovációra, így a fúziós energia ígérete is egyre többeket vonz. Altman személyesen is befektetett például a Helion nevű fúziós startupba, amellyel a Microsoft ugyancsak megállapodást kötött. Ez a cég 2028-ra ígéri, hogy az első kísérleti fúziós erőműve már képes lesz áramot termelni.

Az AI energiafogyasztását a lakossággal és a kisfogyasztókkal fizettethetik meg

Az energiaigény növekedése – amennyiben a kínálat nem tart lépést az igényekkel – óhatatlanul az árak emelkedéséhez vezet. Az Egyesült Államok Elnöki Hivatalának Gazdasági Tanácsa (CEA) nemrég kiszámolta: ha nem történik kellő volumenű beruházás az energiatermelésbe, 2030-ra az áramárak 9–58 százalékkal nőnek a megnövekedett kereslet miatt. Ez a Fox Business elemzése alapján minden fogyasztót érinteni fog.

A kiemelkedően sok áramot használó vállalatok – mint az AI-központok – mindazonáltal szintén magasabb díjat fizethetnek majd, hogy finanszírozzák a hálózatfejlesztést, de ezeket a plusz terheket aligha akarják benyelni. Félő, hogy a vállalatok megemelkedett költségei rejtve maradnak vagy szétterülnek, és végső soron a háztartások és kisfogyasztók viselik majd az AI energiaéhségének terheit. Mark Wolfe, az amerikai Nemzeti Energiatámogató Igazgatók Szövetségének ügyvezetője a CBS Newsnak azt mondta, „a szolgáltatók versenyt futnak az egekbe szökő AI- és felhőigények kielégítéséért, ezért új infrastruktúrát építenek majd és emelik a díjakat – gyakran bármiféle átláthatóság és lakossági beleszólás nélkül.

Ez magasabb villanyszámlát jelent a hétköznapi háztartásoknak, míg a techcégek jól járnak a zárt ajtók mögött nyélbe ütött kedvezményes alkukkal.”

A következő években tehát várhatóan nőni fog az energiaár a mesterséges intelligencia térnyerése miatt, akár közvetlenül (a felhőszolgáltatások drágulása révén), akár közvetetten (a villamosenergia árában realizálódva). Ebbe az irányba mutat az is, hogy sok vállalat már most jelentős összegeket költ AI-infrastruktúrára: a City Journal szerint a legnagyobb tech cégek 2023-ban kb. 300 milliárd dollárt fordítottak AI-adatközpontokra világszerte, és ez az összeg 2030-ra elérheti az évi ezermilliárd dollárt is. És minden 100 milliárd dollárnyi új adatközpont-beruházás nagyjából ugyanekkora összegű energiaszámlát jelent évtizedes távlatban. Ebből világosan kitűnik, hogy az energiaköltség az AI költségének meghatározó elemévé válik.

Az energia-infrastruktúra gyors bővítése rengeteg pénzbe kerül, amit végső soron a fogyasztók és az adófizetők állhatnak.

Ha az AI miatt trillió dolláros nagyságrendben kell beruházni új erőművekbe és hálózatfejlesztésbe, az valószínűleg megjelenik az adókban vagy az energiaárakban. Ezáltal joggal merül fel az aggodalom, hogy a cechet a háztartások fizetik meg, miközben a hasznot a nagy technológiai cégek fölözik le. A társadalmi igazságosság szempontjából kérdés, hogy helyes-e az általános energiaár-emelkedés terhére kielégíteni az AI energiaigényét. További aggály, hogy az energiaellátás javára esetleg más területektől (pl. oktatás, egészségügy) vonnak el erőforrásokat – legalábbis abban az esetben, ha a kormányok mindent az energiabővítésnek rendelnek alá.

Mit érzékelnek a felhasználók az AI energiaéhségéből?

Jelenleg szinte semmit. Amikor valaki beír egy kérdést a ChatGPT-be, nem látja, hogy a válasz mögött mennyi áram ég el – és az átlagfelhasználó erre nem is gondol. Pedig egy MIT-kutatás szerint egy ChatGPT-lekérdezés nagyjából ötször több elektromos energiát használ el, mint egy egyszerű Google-keresés. A különbség oka az, hogy az AI-modell párhuzamos számításokat végez a válasz generálásához, ami több processzort és ezáltal több energiát mozgat meg. Ez ugyanakkor a háttérben történik, így a felhasználó ugyanúgy egy pár másodperces választ lát a képernyőn, mintha csak egy keresést indított volna. Az energiafogyasztás ezen a szinten tehát rejtve marad.

Közvetetten azonban a felhasználók is találkozhatnak az AI energiaéhségének hatásaival. Ahogy fentebb fejtegettük, a villanyszámlák emelkedése vagy az energiaszolgáltatók új díjszabásai mögött részben az áll, hogy ki kell szolgálni az adatközpontok igényeit. Ha az energiaárak jelentősen nőnek, az hat a gazdaság minden területére – így a digitális szolgáltatások beárazására is. Elképzelhető tehát, hogy idővel az ingyenesen vagy olcsón használt AI-alkalmazások díjkötelessé válnak vagy drágulnak, hogy a szolgáltatók fedezni tudják az energiaköltségeket.

A nagy technológiai cégek üzleti modelljében eddig gyakran elveszett az AI- és felhőszolgáltatások költsége, de ha tovább nő, előbb-utóbb megjelenik a felhasználói oldalon.

David Cahn, a Sequoia Capital partnere kiszámolta, hogy a nagy AI-beruházások megtérüléséhez globális szinten akár évi 600 milliárd dollárnyi bevételt kellene termelni az AI-szolgáltatásokból – ami fejenként nagyjából 600 dolláros (több mint 200 ezer forintos) éves kiadást jelentene az egymilliárd legjobban kapcsolódó felhasználó számára.

Az energiakínálat bővítése és az energia-infrastruktúra fejlesztése tehát nem pusztán az AI energiaéhségének kiszolgálása, hanem befektetés is a jövőbe. Ha sikerül fenntartható módon kielégíteni a növekvő energiaigényt, az megalapozza a mesterséges intelligencia további fejlődését és az abból származó előnyöket. Az emberiség olyan produktivitási és innovációs ugrást érhet el, ami felgyorsíthatja a gazdasági növekedést és számos problémára megoldást kínálhat. A technológia egyik legígéretesebb hozadéka összességében a nagyarányú termelékenységnövekedés lehet – ami minden gazdaságban a hosszú távú jólét kulcsa.


Link másolása
KÖVESS MINKET:


JÖVŐ
A Rovatból
Közelít a „városgyilkos” aszteroida – A tudósok szerint növelni kell a bolygóvédelmi intézkedéseket
A minden idők legveszélyesebb aszteroidájának kikiáltott égitest a számítások szerint elkerüli a Földet, de mégsem nyugodhatunk meg teljesen. A Holdat eltalálhatja, és ha így lesz, azt mind meg fogjuk érezni.


Nemrég írtunk róla, hogy a tavaly év végén, a chilei ATLAS távcsőrendszerrel felfedezett 2024 YR4 jelű kisbolygó földi becsapódásának esélye szinte nullára csökkent, de ezzel párhuzamosan megugrott a lehetősége annak, hogy égi kísérőnk, a Hold felszínébe csapódik. A belátható időn belül, 2032 végére várt esemény éppen a Föld felőli oldalon történhet meg, így szabad szemmel is láthatnánk, amire kb. 5000 éve nem volt példa.

Bár csak 60 méteres (vagyis kb. akkora, mint a Szent István-bazilika oldaltornyai), ez az aszteroida képes lenne egy kisebb régió vagy város elpusztítására a Földön.

A 2024. december 27-i felfedezés óta aktívan megfigyelt égitest becsapódási esélyét hónapokon át egyre magasabbra módosították a kutatók, mígnem 2025 februárjában már 3,1 százaléknál járt, amivel elnyerte a valaha felfedezett legkockázatosabb aszteroida címet. A maga műfajában extrém magasnak számító rizikó miatt a média hamar ráragasztotta a „városgyilkos” nevet, mintegy jelezve, hogy a dinoszauruszokat kiirtó „bolygógyilkos” meteorok 10-15 kilométeres átmérőjéhez képest ugyan eltörpül, de igenis jelentős veszélyforrás.

A The Guardian tudományos munkatársa, Nicola Davis szerint, ha kihalási eseményt nem is vonna maga után, a pusztítása jelentős lenne: a 2024 YR4 becsapódása „7,8 megatonna TNT-vel” egyenlő robbanási energiát szabadítana fel, ami több mint 500 hirosimai atombomba erejének felel meg. Nem csoda, hogy a felfedezést követően életbe lépett a nemzetközi aszteroida-figyelő hálózat (IAWN) bolygóvédelmi protokollja: világszerte szakemberek tömege igyekezett minél jobban pontosítani az égitest pályáját.

Elhárult a veszély – legalábbis a Földre nézve, de a Hold még bajban lehet

A kutatók a távcsöves megfigyelések – többek között a James Webb űrtávcső 2025. márciusi mérései – és sok-sok számítás alapján elkezdték lefelé módosítani a földi katasztrófa esélyét, ami mostanra már csak 0.0017 százalék, vagyis elhanyagolható. Összehasonlításképp: a hírhedt Apophis aszteroida esetében 2004-ben még 2,7 százalékos becsapódási esélytől tartottak a csillagászok, ám a Live Science szerint a pálya pontosítása után kiderült, hogy a 2029-ben esedékes érkezése során valóban közeli (kb. 32 ezer kilométeres), de biztonságos távolságban fog elhaladni a Föld mellett. Ez egyébként egyedülálló lehetőséget nyit majd a megfigyelésére, hiszen a kb. 340 méteres objektum legalább tízszer közelebb lesz hozzánk, mint a Hold.

Apropó: Hold. Bár a 2024 Y4R esetében a kutatók kizárták, hogy veszélyt jelent a Földre, kiderült, hogy égi kísérőnket elég jó eséllyel eltalálhatja.

2025 júniusában – mielőtt a kisbolygó túlságosan eltávolodott volna és kikerült a teleszkópok látómezőjéből – sikerült még néhány pontos mérést végezni a pályájáról. Az azóta elvégzett számítások eredménye váratlan fordulatot hozott: kb. 4,3 százalék az esélye annak, hogy az aszteroida beleáll a Holdba. Ez ugyan nem nagy valószínűség, de ahhoz már elég, hogy a tudósok komolyan kezdjenek foglalkozni a „holdi becsapódás” forgatókönyvével.

„Kezdjük felismerni, hogy a ’védőpajzsot’ egy kicsit messzebbre is ki kellene terjesztenünk” – idézi a CNN Dr. Paul Wiegertet, a kanadai Western University csillagászát. A tudós szerint ma már olyan dolgokat is „védenünk”, vagyis figyelnünk kell, amelyek távolabb vannak a Földtől, hiszen ezzel bővül a látókörünk és felkészülhetünk a becsapódási események földi hatásaira.

Az Y4R Holdba ütközése a tudomány számára szó szerint soha vissza nem térő esély lenne arra, hogy élőben megfigyelje egy ekkora objektum becsapódását, hiszen az előzetes számítások szerint az esemény a Holdnak azon az oldalán következne be, ami a Földről folyamatosan látható. Wiegert és kollégái egy friss tanulmányban kifejtik: az ütközést szabad szemmel is megfigyelhető villanás kísérné, amely néhány másodpercig tartana.

Az elemzés alapján az aszteroida nagyjából egy kilométer átmérőjű krátert ütne a Holdba, így ez lenne a legnagyobb becsapódás, ami a Hold felszínén az elmúlt 5000 évben történt.

A tudósok modellezése azt mutatja, hogy az YR4 akár százmillió kilogramm (vagyis nagyjából egy magyar parlamentnyi) kőzetet és port robbantana ki a Holdból a becsapódás pillanatában. A kráterből felszálló törmelék java a Hold felszínén terülne szét, ami komoly veszélyt jelentene az akkor már várhatóan ott tartózkodó űrhajósokra.

Mivel az űrkutatásban élen járó országok egymás lábán taposva igyekeznek visszatérni a lunáris felszínre, elég valószínű, hogy az emberiség a 2030-as évek elején már visszatérő vendég lesz a Holdon. A rendszeres küldetéseket, vagy állandó legénységgel működő bázis építését célzó terveket ugyanakkor – oly’ sok technológiai akadály mellett – most már az Y4R is keresztül húzhatja. A felszínre hulló törmelék egy része ráadásul kiszakadhat a Hold gravitációs vonzásából, és útnak indulna a Föld felé. Wiegert számításai szerint a 0,1–10 milliméteres porszemcsék akár napok-hetek alatt elérnék a bolygót, a parányi részecskék pedig – az extrém sebességük okán – látványos meteorhullást idézhetnek elő az éjszakai égbolton. Szép, de közben cseppet sem veszélytelen jelenség lenne.

„Bár nem számítunk nagyobb kődarabokra, legfeljebb cukorkocka méretűre, ezek a szemcsék gyorsabbak, mint egy lövedék. Ha egy műholdat találnának el, kárt okoznának benne” – hangsúlyozza Wiegert.

Az egycentiméteresnél nagyobb darabok túlnyomó része elégne a légkörünkben, de előfordulhat, hogy némelyik darab Föld körüli pályára áll – ebben az esetben műholdakat, űreszközöket vagy akár űrhajósokat is veszélyeztethetnek – írja a The Guardian. Wiegert úgy becsüli, hogy a néhány milliméteres porszemekből százszámra, ezerszámra juthat a Föld körüli pályára, ami azt jelentené, hogy a műholdflottánk néhány nap leforgása alatt akár tíz évnyi mikrometeorit-terhelést kaphat.

És az emberiség ma már túlságosan rá van utalva a műholdakra ahhoz, hogy erre a problémára rálegyintsen. „Az űr szinte mindenre hatással van – a kereskedelemtől és kommunikációtól kezdve a közlekedésen és iparon át az oktatásig és a közösségi médiáig. Ezért, ha elveszítjük az űrhöz való hozzáférést és a műholdak hatékony használatát, az komoly veszélyt jelentene az emberiségre” – vezette le az ABC 7 kérdésére Dan Oltrogge, az amerikai COMSPOC űrbiztonsági cég vezető tudósa.

A tudósok jelenlegi modelljei szerint egyébként nem kell tartani egy Kessler-szindróma méretű (akár évtizedekig tartó) kommunikációs összeomlástól, vagyis attól, hogy az aszteroida darabjai láncreakcióban leszedik az égről a műholdakat. A hatást inkább ahhoz lehetne hasonlítani, mint amikor kavics vágódik egy száguldó autó szélvédőjéhez. A műholdak napelemtáblái vagy egyéb kényes alkatrészei megsérülhetnek, de a műholdak zöme egyben – és működőképes állapotban – maradna az ütközések után. Részleges műhold-kiesések viszont minden bizonnyal történnének, így a navigációban és a kommunikációban lennének fennakadások egészen addig, amíg a műhold-konstellációk üzemeltetői elhárítják a károkat.

A Nemzetközi Űrállomásra leselkedő veszélyek mérlegelésével már nem bajlódnak a tudósok, mert a szerkezetet a tervek szerint 2030, vagyis legalább két évvel az Y4R érkezése előtt leszerelik: fokozatosan a légkörbe süllyesztve elégetik.

Hogyan védenénk ki egy veszélyes aszteroidát?

Vannak vészforgatókönyvek, és a NASA bolygóvédelmi irodái, valamint a világ tudósai minden nap lázasan kutatják a lehetséges megoldásokat egy földi, vagy akár holdi becsapódás elhárítására. Ha a 2024 YR4 a Föld felé tartana, a cselekvési terv viszonylag egyértelmű lenne, csak kérdés, hogy időben végre tudnánk-e hajtani.

A NASA 2022 szeptemberében tesztelt egy lehetséges módszert: a Double Asteroid Redirection Test (DART) küldetés keretében egy űreszközt szándékosan nekivezettek a Dimorphos kisbolygónak, hogy letérítsék a pályájáról. Ez a kisebb, holdszerű aszteroida, amely egy nagyobb égitest (a Földtől biztonságos távolságra haladó Didymos) körül kering, ideális jelölt volt a kísérletre, hogy egy ember alkotta, napjainkban is rendelkezésre álló eszközzel képesek vagyunk-e módosítani egy aszteroida útját.

A DART űrszonda kb. 21 960 km/órás sebességgel vágódott a kisbolygóba, és látványos sikert aratott: a földi teleszkópok adatai szerint 32–33 perccel rövidítette a Dimorphos keringési periódusát, sőt, megváltoztatta az alakját is. Szóval a válasz igen, tudunk úgy ütköztetni egy űreszközt, hogy az befolyásolja egy égitest mozgását.

„Ami a bolygóvédelem szempontjából fontos tanulság, hogy a laza törmelékhalom jellegű kisbolygók, mint a Dimorphos, nagyon könnyen eltéríthetők – tehát a kinetikus becsapódásos módszer hatékony lehet” – összegezi a Space.com a NASA vonatkozó tanulmányára hivatkozva.

Felmerül viszont a kérdés, hogy érdemes-e egy DART-hoz hasonló misszióval próbálkozni, ha a 2024 YR4 tényleg a Hold, és nem a Föld felé tart. A válasz nem egyértelmű. Julien de Wit, az MIT bolygótudományokkal foglalkozó docense (aki a James Webb űrteleszkóppal személyesen is mérte a 2024 Y4R mozgását) úgy véli, ez attól függ, milyen kockázatot jeleznek a pályaszámítások akkor, amikor az aszteroida három év múlva újra feltűnik a szemünk előtt. Addig – a jelenlegi eszközökkel – sajnos nem lehet megfigyelni a Föld irányából, mert a Nap túloldalán jár.

2028-ban viszont pontosan látni fogjuk, valóban ütközik-e a Holddal 2032-ben, vagy sem.

Andrew Rivkin, a Johns Hopkins Egyetem bolygókutatója szerint az aszteroidák megfigyelése számos okból nehéz feladat: rendkívül halványak (hiszen nem bocsátanak ki saját fényt, csak a napfényt verik vissza) és viszonylag aprók. „Az aszteroidákat fénypontnak látjuk, így a fényességükből és a hőmérsékletükből lehet következtetni a méretükre.”

A csillagászok évtizedeken át csak éjszaka tudták kutatni ezeket a halvány objektumokat, emiatt az égbolt azon része, ahonnan a Nap irányából érkezhet fenyegetés, gyakorlatilag láthatatlan maradt számunkra. Ez a világ legnagyobb „vakfoltja” a földi távcsöves hálózat számára, de hamarosan új eszközök állnak szolgálatba.

A NASA NEO Surveyor űrtávcsöve a tervek szerint 2027 végén indul, az Európai Űrügynökség NEOMIR műholdja pedig a 2030-as évek elején.

Az ABC 7 úgy tudja, ezek infravörös megfigyelésre alkalmas eszközök jelentősen csökkenteni fogják a vakfoltot, mivel a Nap közelében is észlelni tudják a közeli objektumokat. „A NEOMIR például kb. egy hónappal korábban észlelte volna a 2024 YR4-et, mint a földi távcsövek. Ez több időt adott volna a csillagászoknak az aszteroida pályájának elemzésére, és sokkal hamarabb kizárhatták volna a Földdel való ütközés lehetőségét” – magyarázta Richard Moissl, az Európai Űrügynökség bolygóvédelmi irodájának vezetője.

„Ezt az egyedülálló helyzetű aszteroidát próbatételként is felfoghatjuk” – fűzte hozzá de Wit. „Extra felkészülési időt kapnak a döntéshozók, vagy inkább néhány évnyi megnyugvást, hiszen nagyjából 80 százalék az esélye annak, hogy végül kizárhatjuk az ütközést” – jelentette ki a tudós.

Cseljabinszk miatt okkal félünk az aszteroidáktól

A 2024 YR4 azért keltett aggodalmat, mert lényegében „észrevétlenül” lopózott a Föld közelébe: az ATLAS teleszkóp csak két nappal azután vette észre, hogy elhúzott a bolygónk mellett, hiszen a Nap fénye addig eltakarta. És jól emlékszik a világ, hogy ugyanez történt 2013. február 15-én Cseljabinszknál: egy kb. 20 méteres aszteroida a Nap irányából érkezett, és váratlanul robbant fel a légkörben Oroszország felett.

A lökéshullám kb. 1500 embert sebesített meg – többnyire a nyomástól berobbanó ablaküvegek miatt –, és több ezer épületben okozott kárt. Az viszont, hogy senki sem halt meg, szó szerint a vakszerencsén múlt, hiszen az égitestet nem láttuk jönni, így azt sem tudtuk, veszélyes méretű-e és hova fog esni, kvázi a lakosságot sem lehetett előre figyelmeztetni.

Ha a cseljabinszki aszteroida akkora, mint a „városölő” Y4R – amit éppen csak kiszúrtunk, de akkor is későn –, óriási katasztrófa történhetett volna.

Az űrügynökségek a hasonló veszélyek miatt folyamatosan figyelik a Földhöz közeli pályán keringő kisbolygókat. Ezek közé a definíció szerint akkor sorolható egy égitest, ha kellően közel kerülhet a Földhöz, és elég nagy ahhoz, hogy akár jelentős kárt okozzon. A NASA meghatározása alapján nem tekintendők veszélyesnek azok az objektumok, amelyek soha nem jönnek a Nap–Föld távolság huszad részénél közelebb.

Nemrég még azt hittük, ilyen égitestből elenyészően kevés van, de a modern megfigyelőrendszerek okoznak meglepetéseket. 2025 júniusában például az új, chilei Andokban beüzemelt Vera C. Rubin Obszervatórium már a felkapcsolása első hetében több mint 2100, addig ismeretlen aszteroidát fedezett fel, és ezek közül hét bizonyult Föld-közelinek – viszont szerencsére veszélytelennek.

Fontos kiemelni, hogy sok ezer olyan objektum kering a Nap körül, amelyek keresztezhetik bolygónk pályáját.

A NASA a potenciálisan veszélyes kisbolygók kockázatelemzését a Sentry nevű automatikus rendszerrel végzi, amely hosszú távra előre képes kikalkulálni a friss felfedezések útját. Ezek alapján a ma ismert legveszélyesebb aszteroida már nem az Y4R, hanem a 490 méter átmérőjű Bennu. A törmelékhalom jellegű kisbolygó becsapódását egyikünk sem éri meg (ha egyáltalán bekövetkezik), hiszen várhatóan 2182. szeptember 24-én lesz a legközelebb a Földhöz, viszont a becsapódás esélye akkor is csak 1:2700-hoz.

Az elenyésző esélyek miatt miért kell mégis árgus szemekkel figyelni az égboltot? Például azért, mert az utóbbi években észlelt fenyegetések – különösen a cseljabinszki „meglepetés”, vagy az Apophis riasztó közelsége, a Bennu pályája és most a 2024 YR4 különös esete – ráirányították a figyelmet a bolygóvédelmi kutatások fontosságára.

A döntéshozók és űrhivatalok világszerte felismerték, hogy komoly erőforrásokat kell fordítani az égbolt módszeres vizsgálatára, a lehetséges ütközések előrejelzésére és az eltérítési módszerek fejlesztésére.

Még jó, hogy a rendelkezésünkre álló technológia egyre jobb: szinte napról napra több új objektumot fedezünk fel, és a nyomkövető rendszerek is sokkal pontosabbak, mint akár pár évvel ezelőtt. Ennek egy hátulütője azért lehet: ahogy telik az idő és mind kifinomultabbak az eszközeink, nőni fog az észlelések, valamint az Y4R-hez hasonló riasztások száma, és erre egy idő után ráunhat a közvélemény. Ettől függetlenül jó lenne, ha a kormányzatok és az űrügynökségek folytatnák a megkezdett munkát, hogy nagyobb eséllyel és időben vegyük észre a valóban fenyegető égitesteket. És az YR4 rámutatott még egy, eddig háttérbe szorult szempont fontosságára is: a jövő űrkorszakára készülve, illetve a földi kommunikáció védelme érdekében nemcsak a Földet, de a Holdat is meg kell óvnunk az aszteroidáktól. Fel van adva a lecke.


Link másolása
KÖVESS MINKET:


JÖVŐ
A Rovatból
Egy csapásra felnőtt a ChatGPT – Az új nyelvi modell korszakváltást hoz, de vajon ki irányít kit?
Az OpenAI új GPT-5 modellje minden eddiginél fejlettebb: gyorsabban és pontosabban dolgozik, és az eddigi gyakorlattal ellentétben mindenki számára hozzáférhető. A szakértők szerint forradalmi előrelépés történt, de a technológiát övező aggályok csak nem akarnak csökkenni.


A Cinikus, a Robot, a Hallgató és a Kocka - akár egy Guy Ritchie-film címe is lehetne, de ezek a ChatGPT új személyiségei, amelyek a GPT-5-tel egy ütemben jelentek meg. Az új nyelvi modell (LLM) talán legnagyobb erénye ugyanakkor messze nem az, hogy többféle stílusban kommunikál, hanem az, hogy például megbízhatóbb válaszokat ad, miközben a fejlesztők szerint sokkal jobban ír és kódol, mint a korábbi verziók.

Az OpenAI nemrég kiadta a GPT-5-öt, amely a cég szerint sokkal gyorsabb és kompetensebb, mint az eddigi nyelvi modellek. A hatalmas frissítés megjelenése feltehetőleg annak köszönhető, hogy az úttörő vállalatot egyre jobban szorongatja a konkurencia. A verseny fűti a fejlesztést, sürgeti az újabb és újabb képességek beemelését, de közben nem csitulnak a kritikák a mentális egészség romlásával és a munkahelyek potenciális megszűnésével kapcsolatban. Sam Altmanék az utóbbi két aggodalomnak legalább az egyikére igyekeznek megnyugtató választ adni a GPT-5-tel.

Az OpenAI vezetői már 2024-ben utalgattak rá, hogy a cég dolgozik az új nyelvi modellen. A vezérigazgató akkor „tudományos bizonyossággal” állította, hogy a GPT-5 okosabb lesz a GPT-4-nél, amelyről egy korábbi beszélgetésben egyébként nyersen azt mondta, „elég vacak”. A Windows Central emlékeztet: Altman azt is előrevetítette, hogy a GPT-5 már „virtuális agyként” fog működni, mélyebb gondolkodási képességekkel ruházzák fel, és még nála is okosabb lehet bizonyos területeken. Az OpenAI kutatási vezetője, Jerry Tworek később úgy fogalmazott, hogy „a GPT-5 alapmodell célja az, hogy mindent jobban csináljon, amire a jelenlegi modelljeink képesek”. Rendben, de vajon összejött?

A bejelentés nyomán a nagy techcégek azonnal integrálni kezdték a GPT-5-öt a termékeikbe – a Microsoft például a Copilot asszisztensszolgáltatásába –, ami elég beszédes lépés: azt jelzi, hogy az új modell várhatóan az egész iparágra kihat.

Az OpenAI szintén elég magabiztosnak tűnik az innovációjával kapcsolatban, hiszen az ingyenes felhasználók számára rögtön elérhetővé tette az LLM-et. Az előfizetők jelentős része ehhez képest várni kényszerül: a bemutató napján csak húsz százalékuk kapta meg azonnal a GPT-5-öt, míg a többieknél fokozatosan, néhány nap leforgása alatt kapcsolják be. Ezzel a lépéssel először kerül sor arra, hogy egy csúcsmodellhez nem csak a díjcsomaggal rendelkezők férnek hozzá, hanem globálisan akár 700 millió ember – többségében olyanok, akik nem fizetnek a ChatGPT használatáért.

All-in-one nyelvi modell született

A GPT-5-tel alapvetően az volt az OpenAI szándéka, hogy egységesítse és felturbózza az eddigi GPT-modellek képességeit. A cég az új, „sok az egyben” nyelvi modellt és a nehezebb feladatokra szánt „gondolkodó” modellt szorította bele egyetlen rendszerbe. Ez a gyakorlatban azt jelenti, hogy a ChatGPT felületén a GPT-5 egyetlen modellként jelenik meg a felhasználók számára, magyarán nincs külön GPT-4 és külön érvelő verzió, amelyek között a felhasználók kapcsolgatnak, hanem a háttérben egy ún. „router” döntést hoz róla: az adott kérdésre az a jobb megoldás, ha kisebb modell ad egy gyors, felületes választ, vagy az, ha mélyebb elemzésbe kezd a nagyobb, alaposabb modellel.

Ezen a ponton érdemes megjegyezni, hogy ezzel nem csak a felhasználók nyerhetnek (már ha), hanem a cég is, hiszen a saját rendszerük hoz döntést róla, hogy a gyorsabb és olcsóbb, vagy a nagyobb energiaigényű, kvázi drágább válasz előállításával feleljenek a kérdésekre.

A The Verge példája szerint mindenesetre meg lehet trükközni: ha a felhasználó azt kéri a GPT-5-től, hogy „alaposan gondold át” a választ, akkor a rendszer automatikusan hosszabb futtatást indít, ezzel a válaszok egyszerre lehetnek gyorsabbak és okosabbak.

Az OpenAI azt állítja, jelentős előrelépéseket ért el a GPT-5-tel az eddigi problémák kiküszöbölésében és a gyakori feladatok továbbfejlesztésében. A fejlesztők a vállalat blogjában arról írnak, hogy sikerült drámaian csökkenteni a „hallucinációkat”, vagyis a válaszokban elő-előforduló kitalált, téves információkat, de javult az utasítások pontos követése és mérsékelték a modell hajlamát a túlzott egyetértésre.

Mégis, miben jobb a GPT-5?

Sam Altman egy sajtótájékoztatón azt mondta, hogy a GPT-5 az első nyelvi modell, amitől tényleg bármit kérdezhetünk, mert „legitim, PhD-szintű szakértőként” viselkedik. A vezérigazgató szerint „az egyik legmenőbb dolog, hogy azonnal jó szoftvert ír”, hiszen az igény szerinti szoftverek alkotása „a GPT-5 korszak egyik meghatározó jellemzője lesz”.

Ennek megfelelően a GPT-5-öt az eddigi legerősebb kódíró modellnek tartják a fejlesztői: az összetett programozási feladatokban és hibakeresésben is magabiztosabb, illetve már egyetlen szöveges prompt alapján működő weboldalakat, alkalmazásokat vagy akár játékokat kreál, méghozzá ízléses dizájnmegoldásokkal.

A cég azt állítja, hogy a modell kiválóan működik szövegíró partnerként is, mivel képes akár irodalmi igényű, gördülékeny szövegek alkotására, és a nehéz nyelvi feladatokkal szintén jobban elboldogul, mint az elődei, sőt, olyan kreatív kihívások sem okoznak gondot neki, mint a bonyolult narratívák szerkesztése. Ide tartozik még az, bár napjainkban erre már inkább elvárható minimumként tekintünk, hogy a ChatGPT mostantól hatékonyabban segíthet a mindennapi írásos teendőkben (például e-mailek és jelentések megfogalmazásában), és teszi mindezt koherensebb, választékosabb stílusban.

Az OpenAI hozzáteszi: az új nyelvi modell további előnye az, hogy „messze a legjobb egészségügyi válaszadó”. A cég saját HealthBench tesztjén (amely valósághű orvosi szcenáriókat tartalmaz) a GPT-5 jelentősen magasabb pontszámot ért el a korábbi változatoknál. Ha minden igaz, ezzel kipipálhatják, hogy a GPT-5 már aktív gondolkodó partner az egészségügyi témákban: proaktívan felhívja a figyelmet potenciális problémákra, pontosabb és megbízhatóbb válaszokat ad, és jobban alkalmazkodik a felhasználó egyedi kontextusához, például az előzetes ismereteihez vagy a lakóhelye földrajzi adottságaihoz.

Összességében az OpenAI úgy jellemzi a GPT-5-öt, mint egy „minden tekintetben okosabb” modellt, amely a valós kérdésekre is hasznosabb válaszokat ad, és nem csak a teszteken ér el jobb pontszámokat.

A vállalat egyértelművé tette, hogy a GPT-5 fejlesztése során a korábbi hiányosságok orvoslása és a biztonság javítása kulcsfontosságú szempont volt, mivel a korábbi modellek kapcsán rengeteg aggály merült fel, a visszaélésektől a félretájékoztatáson át a valóság torzításáig.

Előfordult, hogy a modell magabiztosan javasolt például nem létező orvosi ajánlásokat vagy álinformációkat, ami akár súlyos következményekkel is járhatott, ha egy-egy felhasználó túlságosan megbízott benne. Ugyanígy gondot okoztak politikai és vallási témájú beszélgetések: a ChatGPT-3.5 és GPT-4 modelleket sokan vádolták elfogultsággal, mondván egyes világnézeteket előnyben részesítenek, másokat cenzúráznak, és olykor sértő vagy bántó tartalmakat is közvetítenek.

A GPT-4-et különösen sok kritika érte, amiért túl készségesen megerősít akár hamis vagy problémás felvetéseket, ahelyett, hogy ellentmondana. Ez a „túlságosan engedelmes” viselkedés néhány esetben erősítette a felhasználók tévképzeteit. A The New York Times például nemrég arról számolt be, hogy a túl engedékeny ChatGPT egyes felhasználóknál támogathatta téveszmék kialakulását, sőt, súlyosbíthatott mentális kríziseket. Mondjuk ezzel ellentétes tapasztalatok is akadtak, amikor egy kutatás során bebizonyosodott: a nyelvi modellek alkalmasak lehetnek rá, hogy tartósan meggyőzzék az összeesküvés-hívőket a konteók ellenkezőjéről.

A tapasztalatok fényében mindenesetre az OpenAI elengedhetetlennek tartotta a szervilizmus visszaszorítását és azt, hogy nagyobb őszinteségre nevelje a modelljeit.

További fontos tanulság, hogy a korábbi GPT-k biztonsági okokra hivatkozva hajlamosak voltak kategorikusan megtagadni bizonyos kérdések megválaszolását, ami persze érthető törekvés, de a jó szándékú felhasználókat is frusztrálta. Ilyenek voltak egyes egészségügyi, vallási vagy politikai és bűnügyi témák, amelyekre a ChatGPT-4 és 4o gyakran sablonos elutasítással felelt, ha úgy ítélte meg, hogy a beszélgetés érzékeny terepre tévedt. Az OpenAI belátta, hogy ez hosszú távon rontja a felhasználói élményt és a modell hitelességét, ezért a GPT-5-ben már új megközelítést vezettek be, az ún. „biztonságos befejezést”.

Ennek lényege az, hogy a modell nem némul el teljesen egy-egy kényes kérdésnél, hanem a biztonságos keretek betartásával próbálja létrehozni a lehető leghasznosabb választ. A felhasználó így kap valamennyi információt, de a modell ügyel rá, hogy ne szolgáltasson konkrét receptet valamilyen károkozáshoz, például félrevezetéshez vagy bűncselekmény elkövetéséhez.

Mekkora lépés előre a GPT-5?

A Reuters a rend kedvéért felhozza, hogy a GPT-5 bevezetését nem pusztán a felhasználók kegyeiért indult ádáz verseny és az innováció iránti igény indokolta, hanem néhány technikai nehézség is. Az OpenAI a GPT-4 után szembesült azzal, hogy a korábbi recept – azaz a modellek duzzasztása még több adattal és számítási kapacitással – már nem elégséges. Ennek egyrészt az az oka, hogy fogytán van az online elérhető és érdemben felhasználható tréningadat, másrészt pedig az, hogy a hatalmas modellek betanítása egyre nehézkesebb, hiszen a több hónapig tartó betanítás során bármikor felléphet hiba, ráadásul csak a folyamat végére derül ki, hogy mennyire hatékony az a modell, aminek a létrehozásába rengeteg időt, pénzt és energiát öltek. Az OpenAI ezért vezette be a GPT-5 „gondolkodó” módját, vagyis azt, hogy a modell a futtatás során képes extra erőforrást igénybe venni a bonyolult feladatokhoz.

A működése ebben a formában tényleg biztonságosabbnak és hatékonyabbnak tűnik: az OpenAI közölte, hogy a GPT-5 válaszainak valószínűsége a ténybeli tévedésre kb. 45 százalékkal alacsonyabb, mint a GPT-4o esetében, és 80 százalékkal kisebb, mint a régebbi GPT-3.5 alapú modelleknél.

Az OpenAI vezetői egyértelművé tették, hogy rendkívül jelentős evolúciós ugrásként tekintenek a GPT-5-re. Sam Altman szemléletes hasonlattal úgy írta le a fejlődést, hogy a GPT-3 még egy gimnazista volt, akivel jót lehet dumálni, viszonylag jó válaszokat ad, de akár teljes sületlenségeket is állíthat, míg a GPT-4 már inkább egy értelmesen érvelő egyetemistához hasonlított. Hozzájuk képest a GPT-5 az első olyan modell, amivel beszélgetve az az érzésünk támad, hogy tapasztalt szakértővel van dolgunk, és közel jár ahhoz, amit általános mesterséges intelligenciának (AGI) nevezünk.

Nem mind arany…

Természetesen nem mindenki látja olyan rózsásan a helyzetet, mint Altman és az OpenAI többi fejese. Már a GPT-5 első bemutatója után akadtak külső szakértők, akik szerint a GPT-5 fejlődése nem feltétlenül nagyobb ugrás a GPT-4-hez képest, mint amekkora a GPT-4 volt a GPT-3.5-höz viszonyítva. Két korai tesztelő a Reutersnek nyilatkozva elmondta, hogy bár lenyűgözte őket a GPT-5 kódíró és komplex feladatmegoldó képessége, úgy érezték, a GPT-4-ről GPT-5-re történt előrelépés nem volt annyira óriási, mint a korábbi generációváltások. Ezt a véleményt erősíti, hogy a nyelvi modellek standard tesztjein (mint amilyen például egyes matematikai vagy tudásfelmérő versenyek szimulációja) a GPT-5 gyakran csak néhány százalékpontos javulást ért el a GPT-4-hez képest – hívja fel a figyelmet a The Register.

Ezek alapján egyes szakértők úgy vélik, a GPT-5 inkább továbbfejlesztés, semmint forradalmi újítás – még ha a felhasználók számára összességében így is jelentős előnyt nyújt majd, mint a korábbi modellek.

Azt mondjuk maga Altman is hangsúlyozta, hogy a GPT-5 nem váltja ki az emberi tudást és ítélőképességet, annak ellenére sem, hogy sok tekintetben már-már emberi szintű kompetenciát mutat. „Ez még nem az a modell, ami önállóan tanul és teljesen kiváltja az embert” – szögezte le, egyértelművé téve, hogy bár az OpenAI forradalmi lépcsőfoknak tartja a GPT-5-öt, egyáltalán nem állítja, hogy célba értek volna az AGI felé vezető úton.

A GPT-5 tehát pontosabb és biztonságosabb az elődeinél, de nem tévedhetetlen.

Az OpenAI igyekszik megtalálni az egyensúlyt aközött, hogy a modell a lehető leghasznosabb legyen, de közben felelősen működjön. Azt a cég szakemberei is tudják, hogy magasra került a léc. „Az eddigi tudásunk alapján igyekeztünk a lehető legbiztonságosabb modellt alkotni… Nem vagyunk benne biztosak, hogy mindenben igazunk van, de tudjuk, hogy az AI át fogja alakítani a világunkat, ezért már korán át kell gondolnunk a hasznát, illetve az általa előidézett változásokat és kockázatokat” – fogalmazott közleményben az OpenAI.

A Cinikus, a Robot, a Hallgató és a Kocka

A GPT-5 bevezetésével az OpenAI egy izgalmas új funkciót is bemutatott: négy előre beállított ChatGPT „személyiséget”, amelyekkel a felhasználó testre szabhatja a chatbot hangnemét és stílusát. A használatuk teljesen opcionális: a felhasználó a beállításokban bármikor kiválaszthatja vagy kikapcsolhatja őket – és bármelyik üzenetváltást új stílussal kezdheti. Fontos kiemelni ugyanakkor, hogy a személyiség nem változtat a modell tudásán vagy képességein, csak a válaszok tálalásának módja lesz más és más.

A Cinikus például szarkasztikus és száraz humorú stílus, és bár nyersen, viszont szellemesen válaszol. Nem bunkó, de „tiszteletlenül őszinte” – jellemzi az OpenAI, hozzátéve, hogy a személyiség görbe tükröt tart a kérdezőnek, és olykor csípős megjegyzésekkel illeti. A hangnem ellenére lényegre törő, praktikus tanácsadóról van szó. Ezt a stílust azoknak találták ki, akik szeretik a karcos humorral fűszerezett, de használható válaszokat.

A Robot egy precíz, gépszerűen tárgyilagos hangnem, érzelmek és humor, illetve felesleges szószaporítás nélkül válaszol. Előbb kimondja a lényegi választ tömören, utána maximum rövid magyarázatot fűz hozzá. Hajlamos listázni a tényeket, miközben hivatkozásokat vagy számadatokat is megad, ha szükséges. Ideális, ha a felhasználó gyors, egyenes és félreérthetetlen utasításokat vagy információt kér, érzelemmentes, formális stílusban.

A Hallgató a fentiekhez képest melegszívű, laza és empatikus hangvételben kommunikál. Nyugodtan és együttérzően reflektál a felhasználó gondolataira. Ez a stílus segít átrágni a döntési helyzeteket: rámutat a különböző lehetőségek előnyeire-hátrányaira, és nyitott kérdésekkel ösztönöz, hogy az ember maga jöjjön rá a megoldásra.

A Kocka játékos és tudásközpontú stílus: lelkesen magyaráz el mindent, miközben ünnepli a tudást és a felfedezést. Ez a személyiség mély, de közérthető magyarázatokat ad, imád belevágni a részletekbe, de figyel arra, hogy a válasz érthető maradjon. Gyakran bátorít további kérdésekre vagy kísérletekre, mert az a célja, hogy a felhasználó is lelkesen tanuljon új dolgokat. Akkor a legjobb választás, ha a felhasználó tanárszerű, részletes válaszokra vágyik, esetleg egy tudományos témát akar megérteni.

Az új személyiségek célja elsősorban a felhasználói élmény testreszabása és a fentebb írt szervilizmus csökkentése. Az OpenAI szerint ezek a profilok segítenek, hogy a ChatGPT ne mindig ugyanabban a „semleges, udvarias asszisztens” hangnemben szólaljon meg, hanem igazodjon a felhasználó preferenciáihoz

Milyen új veszélyforrásokat hordozhat a GPT-5?

Miközben a GPT-5 óriási lehetőségeket rejt, a szakértők azt is hangsúlyozzák, hogy egy ilyen képességű modell esetében új típusú kockázatokkal szintén számolni kell. Paradox módon épp az teszi veszélyessé, ami az erőssége: hogy még okosabb, meggyőzőbb és szélesebb körben hozzáférhető.

Sam Altman elismerte, hogy a fejlett generatív AI-technológia visszaélésekre adhat lehetőséget. A The National a vezérigazgató egyik interjújából idézve azt írja, Altman rémálmaiban rendszeresen feltűnik, hogy a ChatGPT egy nap akár biológiai fegyverek kifejlesztéséhez is támpontokat ad.

És valóban: egy mindenki számára elérhető „virtuális PhD szakértő” rossz kezekben akár olyan tudást adhat, ami alkalmas károkozásra, például mérgező anyagok előállítására vagy hackertámadások kivitelezésére. A másik probléma, hogy a GPT-5 által generált emberi hang vagy szöveg a megtévesztés új dimenzióit nyithatja meg: a modellel élethű álhíreket, adathalász üzeneteket vagy hamis audiofelvételeket lehet készíteni, ezáltal pedig gyanútlan embereket manipulálni.

Noha a GPT-5 biztonsági mechanizmusai erősebbek, mint valaha, egyik AI-modell sem teljesen biztonságos. Továbbra is fennáll a veszélye, hogy a rosszindulatú felhasználók kijátsszák a védelmet, és ráveszik a modellt, hogy segítsen nekik tiltott dolgok végrehajtásában. A GPT-5 esetén különösen érdemes odafigyelni, hiszen a fent tárgyalt „biztonságos befejezés” módszer miatt a modell készségesebben ad valamennyi információt akár veszélyes témákban is.

Elképzelhető például, hogy valaki több részletkérdéssel körbejárva a témát kicsalogat belőle hasznos tudást egy robbanószer elkészítésére, amire egy kevésbé okos modell nem lett volna képes.

Egy másik veszélyforrás a kulturális torzítások kérdése lehet. Bár a GPT-5 betanításánál sokkal több figyelmet fordítottak az adatok kiegyensúlyozására és a modell finomhangolására, nincs rá garancia, hogy ne lennének benne rejtett előítéletek. A vallási, etnikai, nemi vagy politikai érzékenységek terén egy ilyen erős modell apró hiba esetén is kárt okozhat, például azzal, ha sértő kijelentést tesz egy népcsoporttal kapcsolatban.

Végül a GPT-5 bevezetése új jogi és etikai kérdéseket is felvet, ami bizonyos szempontból veszélyforrásnak tekinthető a társadalomra. Ott van például a szerzői jogok védelme: mivel a modell hatalmas adatbázisból tanult, továbbra is előfordulhat, hogy szerzői joggal védett szövegeket vagy azok parafrázisát adja ki.

Az AI-val foglalkozó etika szakértők arra figyelmeztetnek, hogy a GPT-5 olyan gyors és nagy ugrás, hogy a társadalmi felügyelet, a törvényhozás és az oktatás nehezen tartja vele a lépést. Ez önmagában új típusú kockázat, hiszen egy újabb és még korszerűbb, szupererős eszköz került az emberiség kezébe, aminek a használatára még nem alakultak ki semmilyen normarendszer.


Link másolása
KÖVESS MINKET: