JÖVŐ
A Rovatból

Pohly Ferenc: A robot kérdezőbiztos teljesen objektív, és egy csomó ember szívesebben és őszintébben beszél vele

A Minerva Intézet forradalmi AI-megoldással faggatta az embereket a politikai közhangulatról. Pohly Ferenc ügyvezető szerint az AI-alapú kérdezőbiztosok nem fáradnak el és semmilyen módon nem befolyásolják a válaszadókat.


Az idén nyáron alapított Minerva Intézet egy mesterséges intelligencia-alapú robotasszisztenssel végzi felméréseit. Július közepén például azt vizsgálták, milyen közhangulat, milyen témák foglalkoztatják az embereket, és hogy áll a Tisza és a Fidesz versenye.

Pohly Ferencet, a Minerva Intézet Nonprofit Kft. ügyvezetőjét arról faggattuk, hogy milyenek az első tapasztalataik az AI-asszisztenssel végzett telefonos közvélemény-kutatások kapcsán, és mennyire vált be a válaszadóknak, hogy nem élő ember van a vonal túloldalán? Arra is kíváncsiak voltunk, hogy ez a megoldás mennyiben jobb vagy hatékonyabb, mint a hagyományos, kérdezőbiztosokkal bonyolított kutatások, illetve milyen előnyöket rejt a technológia, ha az eredmények elkészítésére és elemzésére kerül sor.

- Miért döntöttetek az AI asszisztens használata mellett, milyen előnyt vártatok tőle, és mit kaptatok?

- Egyrészt azért döntöttünk mellette, mert mi, a Minerva Intézet alapítói nagyon régóta foglalkozunk ezzel a technológiával, tehát szöveggenerálással, szövegfelismeréssel és ezeknek mindenféle kommunikációs alkalmazásával. Hogy csak egy dolgot mondjak: ennek a Minerva robotnak a közeli rokona a MÁV-nál szolgálatot teljesítő Elvira nevű hangasszisztens. Ez a technológia a kezünkben volt, és úgy gondoltuk, hogy közvélemény-kutatási célra is rendkívül jó lehet. Ami pedig az előnyöket illeti: adja magát az automatizációtól várható előny, hiszen nem emberek végzik a kérdezést, hanem egy gép, ami nem fárad el, 0-24-ben tud telefonálni. Meg egyébként – és ez már egy olyan előny, ami nem feltétlenül magától értetődő – teljesen objektív.

A telefonos felmérések egyik problémájaként szokták felróni maguk a közvélemény-kutatók is, hogy a kérdezőbiztosok, akár a legjobb indulattal, de segítenek eldönteni egy-egy kérdést a felhívott személynek.

Vagyis valamennyire megmondják, hogy mit kell gondolni. Nem feltétlenül arra gondolok, hogy tudatosan befolyásolják a résztvevőt, hanem ha az visszakérdez, hogy „jaj, melyik is az a párt, most nem jut eszembe”, akkor megmondják, hogy melyik párt, és ezzel a kérdés nem tölti be a funkcióját, hiszen önmagától kellett volna megneveznie egy pártot. Ilyen értelemben a robot kérdezőbiztos teljesen objektív. Mindenkit pontosan ugyanazzal a lendülettel és ugyanazzal az intencióval kérdez – nincs befolyásolás semmilyen irányba. Ebből adódik egy másik dolog is, ami szintén nagy előny.

Azt tapasztaltuk a felmérések során, hogy egy csomó ember szívesebben és őszintébben beszél a robottal, mert érezhetően nem kell attól tartania, hogy megítélik, pláne úgy, hogy a bevezetőben elhangzik: a felvételeket sem fogja meghallgatni egyetlen ember sem.

Egyszóval könnyebben nyílnak meg és ezt el is mondják. A hívás végén az asszisztens közli, „ön most egy mesterséges intelligencia alapú robottal beszélgetett”, és megkérdezi, hogy milyen érzés volt. Erre elég sokan elárulták, hogy igazából tök jó, mert végre elmondhatták a véleményüket, végre kimondhatták, ami a szívüket nyomja. Az adatfelvétel szempontjából nagyon előnyös, ha könnyen megnyílnak, ezáltal a válaszadási hajlandóság nálunk – mondjuk így – az iparági átlagnál picivel magasabb, és azt gondoljuk, hogy még tovább tudjuk emelni. Összességében az a helyzet, hogy az emberek bizonyos érzékeny témákban valamivel szívesebben beszélnek egy robottal, mint egy másik emberrel.

- Ez valahol meglepő. Óhatatlanul eszünkbe juthat a robotaxi, amitől sokan tartanak. Igaz, ott a fizikai biztonságunk múlik az AI-n, míg egy közvélemény-kutatásban erről nincs szó, de akkor is: a bizalmunkba kell fogadni egy robotot.

- Nem egy barátom van, aki az AI-iparban dolgozik, és azt mondja, ő bizony be nem ülne egy robotaxiba, amit soha nem értek, hiszen tudjuk, hogy az önvezető autók összességében sokkal biztonságosabban vezetnek, mint az átlagos emberek. Ha a statisztikát nézzük, akkor az önvezető autók nagyságrendekkel kevesebb baleset részesei, mint az emberi sofőrök. De ettől még igaz az, hogy az emberek a gépekben, vagy az AI-ban nem feltétlenül bíznak. A közvélemény-kutatás viszont egy sokkal lazább, sokkal súlytalanabb szituáció: az AI kérdéseket tesz föl, én pedig válaszolok. Ha nem leszek ideges attól, hogy nem érti, amit mondok, vagy hogy rendre visszakérdez, akkor majdhogynem mindegy, hogy ember, vagy robot a kérdező. Ráadásul egy jó, az emberitől nem nagyon elütő beszédhang ezen csak segíteni tud.

- Azt állítjátok, hogy pontos és torzításmentes eredmény várható ezektől a kutatásoktól, de ezt hogyan tudjátok garantálni? Van egy forgatókönyv, amit az AI-nak szóról szóra követnie kell, vagy ennél megengedőbb a rendszeretek, és az AI eltérhet a megadott szövegtől?

- A kérdéseket szó szerint olvassa fel a rendszer, nem improvizál. Magyarul azon az oldalon, hogy a felmérés során mit mond, egyáltalán nincs nagy nyelvi modell, vagy arra bármilyen módon hasonlító generatív AI megoldás. És ez nem véletlenül van így: nem megengedhető az, hogy akár csak szavak szintjén eltérés legyen két embernek feltett kérdéssor között.

Akkor fogunk ugyanis releváns eredményt kapni, ha mindenkitől pontosan, szó szerint ugyanazt kérdezzük, ráadásul pontosan ugyanazzal a hangsúllyal.

A kérdésed értelmében: az egész rendszer mentes a „hallucinációtól”, de ami a mi oldalunkon, az értékeléskor egy picivel bonyolultabbá teszi a dolgot, az az, hogy ott már van nagy nyelvi modell, pontosabban generatív AI használat, hiszen nem meghallgatjuk a válaszokat, hanem leiratozó modellel szöveget készítünk belőlük. Ez még mindig nem okoz hallucinációt, de lehet, hogy rosszul ért valamit, és esetleg mást ír le, mint amit a résztvevőnk mondott. Ez elő is fordul, de körülbelül csak akkora arányban, mint az emberi kérdezőbiztosoknál. Ezt viszont érdemes megérteni. Ilyenkor van az, hogy a választ – miután leiratoztuk – egy nagy nyelvi modell segítségével úgymond megértjük, értelmezzük, kvázi lefordítjuk. Ha valaki azt mondta az eldöntendő kérdésre, hogy „inkább igen, mint nem”, akkor ebből csinálunk egy igent, és ez alapján megyünk tovább. Itt lép be a nagy nyelvi modell, de ugye a nagy nyelvi modellek rendkívül jók abban, hogy összefoglaljanak szövegeket, szóval nagyon-nagyon alacsony a hiba valószínűsége.

- Milyen új típusú adatokat vagy összefüggéseket lehet feltárni az általatok alkalmazott AI-alapú módszerrel, amit a hagyományos kutatások esetleg nem mutatnak ki? Ebből a szempontból vannak-e markáns különbségek?

- Nem hiszem, hogy vannak ilyenek, de azért árnyaljuk egy kicsit ezt a kérdést. Azt gondolom, hogy amit egy emberi kérdezőbiztos meg tud kérdezni, és aztán egy emberi elemző ki tud elemezni, azt meg tudja csinálni az AI is. Az viszont más kérdés, hogy a már kódolt, tehát bizonyos szintig értelmezett, vagy inkább formalizált adatbázisból milyen következtetéseket tudunk levonni. Az AI ebben tud segíteni, de nem csak nekünk, hanem az elemzőknek is. Tehát ebben nincs különbség. Ami egy kicsit más, az az, hogy nyílt kérdést is fel tudunk tenni, magyarul nem csak előre megadott válaszokat tudunk fogadni, mint az, hogy „igen/nem”, vagy „teljesen egyetértek”, „inkább egyetértek” stb. Van olyan kérdés is, hogy „jellemezze az adott politikust néhány szóval”, vagy „mit gondol arról, hogy Magyarországnak ismét járt űrhajósa a világűrben”. Erre szabadon válaszol a kérdezett személy, és a szöveget, a szabadon elmondott választ AI-val tudjuk értelmezni. Ez a nagy nyelvi modell másik belépőpontja: jelentés alapján kategóriákba soroljuk a válaszokat. Megmutatjuk az összes szabad szöveget a nagy nyelvi modellnek, ami kielemzi, hogy milyen jellemző kategóriák voltak a válaszok között, és a válaszokat be is sorolja valamelyik kategóriába. Ezt ugyancsak el tudja végezni egy emberi elemzőkkel dolgozó kutatócég, de csak hosszú idő alatt.

Ha egy ezres reprezentatív mintát nézünk, tehát ezer válaszban kell végignézni tíz olyan kérdést, amire szabad szöveges válasz érkezett, akkor több ember több napi munkájába kerül a kategorizálás. Esetünkben ez megvan akár pár perc alatt.

Tehát az idő az, amiből sokat tudunk spórolni az AI alkalmazásával. Hogy aztán az ily módon bekódolt, tehát mondjuk formálisan jobban kezelhető vagy jobban elemezhető adatokban mit találunk, abban az AI szintén nagyon sokat tud segíteni, de pontosan annyira, amennyire bármilyen adattudománnyal foglalkozó, adatelemzéssel foglalkozó szakember.

- A júliusban végzett, magyar politikai közhangulatot mérő kutatásotokról azt nyilatkoztátok, hogy nem tekinthető reprezentatívnak, és az eredmények különböző súlyozásokkal jött ki. Miért volt szükség ezekre a súlyozásokra, mennyire lehetett vele korrigálni a mintavételi torzulásokat?

- Ezzel belemegyünk a telefonos közvélemény-kutatások legzűrösebb és legfejvakarósabb részébe, amivel az egész szakma küzd, úgyhogy nagyon óvatos leszek, mert nem akarok senkit megbántani. Az van, hogy a reprezentativitás első körben azt jelenti: minden ember teljesen egyforma eséllyel kerülhet bele a mintába. Ez a reprezentativitás feltétele, és egyébként a reprezentativitástól azt várjuk, hogy a minta tükrözze az alapvető demográfiai megoszlások szerinti arányokat. Tehát ami a népességben igaz mondjuk a kormegoszlásra, az a kormegoszlás legyen igaz a mintára is. A hazai közmegegyezés szerint nálunk körülbelül 1000 fős minta már elegendő ahhoz, hogy reprezentáljunk 9-10 millió embert. Akkor viszont, ha összeállítunk egy ilyen mintát, akkor azok lesznek benne, akik hajlandóak válaszolni, és ez bizonyos értelemben már nem az átlagot képviseli, hiszen az átlag egyébként nem hajlandó válaszolni.

Nagyon sokan utasítják vissza az ilyenfajta megkereséseket, szóval arról, aki egyáltalán hajlandó válaszolni, feltételezhetjük, hogy közéleti kérdésekben az átlagnál aktívabb, vagy az átlagnál érdeklődőbb. És a reprezentativitás itt már kicsit sérül is.

Aztán: a közvélemény-kutatók különféle módszerekkel igyekeznek korrigálni, hogy a végső minta mégiscsak jobban reprezentálja a lakosságot. Ez a korrekció sokféle lehet, például ott a kvótázás, ami azt jelenti, hogy hívogatjuk az embereket, és amikor már beszéltünk a kormegoszlás szerinti aránynak megfelelő számú 60 évessel, akkor többet nem veszünk fel a mintába. Ez lehet egy irány, de lehet az is, hogy túlkérdezzük a mintanagyságot, és abból már kijönnek a megfelelő arányok. És olyat is szoktak csinálni a profi közvélemény-kutatók, hogy mindenféle kérdést tesznek fel, amelyek konkrét rákérdezés nélkül sorolják be az embereket bizonyos klaszterekbe, és ezeknek a kérdéseknek a használatával készítik el a súlyozást.

- Mondanál erre egy magyar példát?

- Például az, hogy az ember kormánypárti vagy ellenzéki szavazó, meglehetősen nagy korrelációt szokott mutatni azzal a kérdéssel, hogy „támogatja-e az egyneműek házasságát vagy sem”. Tehát, ha valaki nem mondja meg, hogy kire fog szavazni, de elárulja, hogy nem támogatja az egyneműek házasságát, akkor be lehet tippelni, hogy kormánypárti szavazó. Ilyesmire kell gondolni. De súlyozás az is, ha a 60+-os válaszadók aránya nem éri el a kívánt 40 százalékot, csak 37-et, akkor a 60+-osok válaszait megfelelő aránnyal felszorozzák. Pár százalékos differenciát még lehet így korrigálni, és nem fog sérülni a reprezentativitás. Megjegyzem: az a tapasztalat, hogy az idősebbek sokkal inkább hajlandóak felvenni egy ismeretlen számot, és aztán sokkal inkább hajlandóak beszélni a kérdezővel, szóval az idős korosztály rendre felülreprezentált ezekben a mintákban.

- Laikusként is azt feltételeznénk, hogy az idősekhez képest az aktív korú emberek kevésbé hajlandóak időt szánni a nem szorosan a magánéletükhöz vagy a munkájukhoz szükséges telefonhívásokra. Az ő válaszadási hajlandóságukat növelheti, ha AI-val beszélgethetnek a kutatás során?

- Kicsit növeli, de azért nem számottevően. Éppen ezért a kormegoszlás eléggé más volt a mi mintánkban, sőt, túlságosan is: több volt az idős válaszadó annál, hogy ezt egy sima súlyozással korrigálni lehetett volna. Pontosabban: lehetett volna korrigálni, de arra már egy rendes statisztikus azt mondja, hogy ez így nem reprezentatív. Ezért választottunk olyan módszert, amivel ezen javítani lehet: havonta feltesszük ezer embernek ugyanezeket a kérdéseket. Eddig két kutatásunk volt, de jön a következő szeptemberben. Amikor már megvan három hónap, és ott ugyanazokat a trendeket tapasztaljuk, akkor már lehet azt mondani, hogy egy minta a hagyományos statisztikai értelemben ugyan nem reprezentatív, de a három minta együtt már igen.

- Milyen más adatfelvételi csatornák jelenhetnek meg a jövőben a telefonoson kívül? Online vagy valamilyen hibrid kutatási formába bevonható-e az az AI megoldás, amit alkalmaztok?

- Bevonható, és gondolkodunk is rajta, de hangsúlyozzuk, hogy mi alapvetően nem akarunk kutatóintézet lenni. Amikor kutatásokat csinálunk a saját szakállunkra, és egyelőre ez a helyzet, akkor az eredményeket közzétesszük a weboldalunkon, ahonnan bárki le tudja tölteni a válaszok adatbázisát, az elemzést és a módszertani leírást is.

Az is a célunk, hogy adjunk egy nonprofit hozzáférést olyan adatokhoz, amelyekről tudni lehet, hogy nincs mögöttük megrendelő, nincs mögöttük semmilyen másodlagos szándék. Mindenki úgy elemzi és azt lát bele az adatbázisba, amit szeretne.

A lényeg, hogy szuper jó, reprezentatív közvélemény-kutatásokat közöljünk a nyilvánossággal, és infrastruktúrát biztosítsunk olyanoknak, akik hatékonyabban akarják elvégezni a telefonos közvélemény-kutatásukat. És ehhez az infrastruktúrához nagyon izgalmas lenne hozzáadni – és ebben gondolkodunk csak igazán – az online felületet. Akár úgy, hogy Viber vagy Messenger hívásban történjen egy ilyen beszélgetés, akár úgy, hogy egy újságcikk alján induljon el, egy linkre kattintva. De ott van az a lehetőség is, hogy ha valakinek egyébként volna kedve beszélgetni, de csak később, amikor például egy órán keresztül kocsiban lesz, akkor online helyzetben tudjon visszahívást kérni egy neki megfelelő időpontra. Ezek izgalmasabb dolgok, és ilyenekkel tervezünk is előállni, de a Minerva Intézetet csak idén nyáron alapítottuk, úgyhogy sok mindent ki kell még próbálnunk. Sok mindent el fogunk vetni, míg más dolgokat megtartunk.

- Azok alapján, amit eddig tapasztaltatok, milyen jövőt jósolsz az AI-nak a közvélemény-kutatások jövőjében Magyarországon?

- Általában is látszik, hogy a beszédalapú kommunikációnak van egyfajta újjászületése az AI-nak köszönhetően.  A Sirivel vagy a Google Asszisztenssel is tudunk beszélgetni, a 18 éves gyerekeimen pedig azt látom, hogy inkább beszélgetnek a ChatGPT-vel, mintsem hogy gépeljenek. Szóval az élő beszédnek van egyfajta új felívelése, és egészen biztos, hogy ez a közvélemény-kutatásokban is opció lesz. Ráadásul fontos opció, mert ugyan ki szeretne húsz mondatot leírni egy kérdésre arról, hogy mit gondol egy világpolitikai helyzetről, miközben egy beszélgetésben lehet, hogy szívesen elmondja?

Azt gondolom, hogy az élőbeszédes kérdés-válasz alapú közvélemény-kutatás pont attól fog felívelni, hogy ezzel a megoldással, az AI használatával igazán hatékonnyá lehet tenni.

Mert megszervezni egy kutatást: kérdezőbiztosok tucatjait munkára, telefonálásra, visszahívásra, többszöri visszahívásra bírni, az sokkal nehezebb, mint egy szoftvernek megmondani, hogy hívd fel ezt az ezer számot és kérek belőle ezer eredményt. Az élő beszéd egyébként nem kis részben az AI-nak köszönhetően jön vissza, hiszen egy sokkal természetesebb kommunikációs felület, mint az írás, a gépelés, sokkal naturálisabb forma, így sokat fog segíteni az AI a közvélemény-kutatóknak is.


Link másolása
KÖVESS MINKET:

Népszerű
Ajánljuk
Címlapról ajánljuk


JÖVŐ
A Rovatból
230 millió dollárt spóroltak az MI-vel: 20 nap alatt forgatták le Gal Gadot új filmjét a színészekkel, a többi munkát már a számítógép végzi
A Bitcoin: Killing Satoshi című filmet egy londoni stúdióban vették fel, helyszíni forgatás nélkül. A háttereket és a világítást teljes egészében mesterséges intelligencia hozza létre az utómunka során.


Mindössze 20 nap alatt, egy teljesen üres, „szürke doboz” stúdióban forgatták le Doug Liman új filmjét, a Bitcoin: Killing Satoshi-t, amelynek főszereplői Casey Affleck, Gal Gadot, Pete Davidson és Isla Fisher.

A produkció teljes egészében mesterséges intelligencia által generált hátterekkel készül, amivel a producerek szerint így egy normál esetben 300 millió dolláros költségvetést sikerült 70 millióra lefaragni.

A film egy összeesküvés-thriller, amely a Bitcoin rejtélyes alkotója, Satoshi Nakamoto kilétét kutatja. A cselekmény középpontjában egy újságíró áll, aki azt a vitatott állítást vizsgálja, hogy a valódi Satoshi egy Craig Wright nevű ausztrál üzletember, akit emiatt befolyásos szervezetek akarnak elhallgattatni.

A februári bejelentés - miszerint a filmben nemcsak a háttereket és a világítást hozzák létre mesterséges intelligenciával, de szükség esetén a színészek játékába is belenyúlhatnak - komoly vitát váltott ki a szakmában. A producerek ezért nemrég meghívták a TheWrap stábját a londoni forgatásra, hogy bemutassák a technológiát. Azt állítják, a színészi alakításokhoz nem nyúlnak hozzá, az MI csupán egy utómunka-eszköz, ami a környezetet teremti meg.

Casey Affleck szerint a módszerrel a hangsúly teljes egészében a színészi játékra helyeződött.

„Az egész forgatáson a mi alakításunk volt a fókuszban”

– nyilatkozta a színész.

Az alkotók szerint az eljárás a színházi munkához hasonlít, és jelentősen csökkenti a gyártás ökológiai lábnyomát, mivel nincs utazás és helyszíni építkezés.

Ryan Kavanaugh producer elmondta, a hagyományos forgatás több mint 200 különálló helyszínt igényelt volna. „Rájöttünk, hogy bizonyos MI-eszközökkel le tudjuk törni a költségeket” - közölte. A forgatás egy volt londoni autószalonból átalakított „gray box” stúdióban zajlott, a világítás és a díszlet MI‑vel készült, a színészek valódi jelmezeket viseltek, és az utómunka kb. 30 hét, 55 MI‑művész részvételével - derült ki a The Wrap cikkéből.

Az iparági vita azonban továbbra is éles. Míg a támogatók a költséghatékonyságot és az új kreatív lehetőségeket emelik ki, az ellenzők a filmes szakmák – díszlettervezők, helyszíni világosítók, logisztikai szakemberek – tömeges megszűnésétől tartanak.

A projektet még 2025 augusztusában jelentették be, a forgatás idén márciusban zárult. A rendező, Doug Liman olyan filmeket jegyez, mint A Bourne-rejtély vagy A holnap határa, a forgatókönyvet pedig Nick Schenk írta, aki Clint Eastwood Gran Torinóját és A csempészt is.

A film forgalmazási jogait a május 12. és 20. között zajló cannes-i filmpiacon, a Marché du Film-en értékesítik.

A film történetének pikantériáját adja, hogy a brit Legfelsőbb Bíróság 2024 márciusában kimondta: Dr. Craig Wright bizonyíthatóan nem Satoshi Nakamoto, és nem ő írta a Bitcoin alapító dokumentumát sem.

Via worldofreel.com


Link másolása
KÖVESS MINKET:

Ajánljuk
JÖVŐ
A Rovatból
ENSZ: Súlyosabb a baj, mint valaha, a Föld éghajlata kibillent az egyensúlyából, és jön az El Niño
Az óceánok soha nem látott mértékben melegszenek, a jégsapkák pedig olvadnak. Az ENSZ-főtitkár szerint azonnal le kell állni a fosszilis tüzelőanyagok használatával, miközben a politika más átmenetet gondol.


A Föld éghajlata minden eddiginél jobban kibillent az egyensúlyából, bolygónk ugyanis sokkal több hőenergiát nyel el, mint amennyit ki tud sugározni

– erre figyelmeztetett a Meteorológiai Világnapon (március 22.) az ENSZ meteorológiai szervezete, a Meteorológiai Világszervezet – írta a BBC. A káros folyamatot például az olyan melegítő gázok kibocsátása gyorsítja, mint a szén-dioxid.

A jelentésre reagálva António Guterres ENSZ-főtitkár egy videóüzenetben figyelmeztetett :

"A Föld bolygót a végsőkig feszítik. Minden kulcsfontosságú éghajlati mutató vörösen villog"

– mondta Guterres, aki szerint az országoknak át kellene térniük a fosszilis tüzelőanyagokról a megújuló energiára, hogy „klímabiztonságot, energiabiztonságot és nemzetbiztonságot” teremtsenek.

A rekordmértékű „energia-egyensúlytalanság” 2025-ben új csúcsra melegítette az óceánokat, és tovább olvasztotta bolygónk jégsapkáját. A légköri szén-dioxid-szint legalább kétmillió éve nem volt ilyen magas.

Celeste Saulo, a WMO főtitkára szerint a folyamatoknak beláthatatlan következményei lesznek:

"Az emberi tevékenységek egyre inkább felborítják a természetes egyensúlyt, és ezekkel a következményekkel évszázadokig, sőt évezredekig együtt kell élnünk"

– mondta a professzor.

A globális jelenségeknek már ma is kézzelfogható hatásai vannak. Az Egyesült Államok délnyugati részén jelenleg rekorddöntő, korai hőhullám tombol, az elmúlt napokban helyenként 40 Celsius-fok fölé emelkedett a hőmérséklet. A World Weather Attribution csoport tudósai pénteken végzett gyors elemzésükben arra jutottak, hogy mindez „gyakorlatilag lehetetlen” lett volna az ember okozta éghajlatváltozás nélkül.

A kutatók kiemelten figyelik a Csendes-óceánt is. A hosszú távú előrejelzések szerint ugyanis igen valószínű, hogy 2026 második felében kialakulhat egy melegedő El Niño-fázis. Ez a természetes melegedési jelenség a meglévő, az ember okozta hatásra ráerősítve újabb hőmérsékleti rekordokat hozhat.

Ha El Niño-ba váltunk, ismét növekedni fog a globális hőmérséklet, és akár új rekordokat is dönthet

– mondta Dr. John Kennedy a WMO-tól.

A tudományos vélemények mellett élénk politikai vita zajlik arról, milyen ütemben és módon kellene reagálni a helyzetre. Míg az ENSZ és a WMO a fosszilis energiahordozókról a megújulókra történő gyors átállást sürgeti, több nemzetközi szervezet és energiaszektor-szereplő az ellátásbiztonság és a megfizethetőség miatt a fokozatosabb átmenetet tartaná indokoltnak.

Az elmúlt 11 év volt a Föld 11 legmelegebb éve az 1850-ig visszanyúló adatok szerint. Tavaly a globális átlagos léghőmérséklet mintegy 1,43 Celsius-fokkal haladta meg az „iparosodás előtti” idők szintjét. A La Niña nevű természetes időjárási hatás átmeneti lehűtő hatása miatt 2025 nem volt olyan forró, mint 2024, amelyet az ellentétes fázis, az El Niño felerősített, de így is a három legmelegebb év egyike volt a feljegyzések kezdete óta. A Föld gleccserei - a rendelkezésre álló előzetes adatok szerint - 2024/25-ben az öt legrosszabb év egyikét élték meg, miközben a tengeri jég mindkét sarkvidéken tavaly nagy részében rekordközeli vagy rekordszinten alacsony volt. A Föld többletenergiájának több mint 90 százaléka az óceánokat melegíti, ami árt a tengeri élővilágnak, erősebb viharokat okoz és hozzájárul a tengerszint emelkedéséhez is.


Link másolása
KÖVESS MINKET:

Ajánljuk

JÖVŐ
A Rovatból
Hatalmas lépés a Balaton jövőjéért: 6300 hektáron mentik meg az egykori mocsárvilágot
A bővítés többek között Buzsák, Kéthely és Lengyeltóti külterületeit is érinti a Balaton-felvidéki Nemzeti Parkban. A beavatkozásoktól egy, a klímaváltozásnak jobban ellenálló táj kialakulását várják.


Friss miniszteri rendelet alapján több mint 6300 hektárnyi területet helyeznek országos védelem alá a Balaton déli partján, hogy újraéledhessen a Nagyberek egykori vizes élővilága.

A döntés célja, hogy a térségben megmaradt természeti értékeket hosszú távon megőrizzék, és lehetőség szerint visszaállítsák a táj eredeti vízháztartását.

A rendelet előkészítésének újabb lépéseként ma nyilvánosságra hozták a bővítés természetvédelmi kezelési tervének hivatalos tervezetét is.

A bővítés két fő részből áll: egyrészt mintegy 770 hektárnyi, részben már eddig is érintett terület kerül teljes egészében a Balaton-felvidéki Nemzeti Park kezelésébe, másrészt több mint 5500 hektár olyan földrészlet is védett státuszt kap, amely eddig nem állt országos oltalom alatt.

Az intézkedés többek között Balatonfenyves, Fonyód, Buzsák, Ordacsehi, Kéthely, Lengyeltóti és Táska külterületeit érinti.

A kijelölt területeken belül különböző természetvédelmi kategóriákat határoztak meg. Egy kisebb, mintegy 16 hektáros rész fokozottan védett besorolást kapott, ahol a legszigorúbb előírások érvényesek. A terület egy része emellett a Natura 2000 hálózathoz is kapcsolódik, ami európai szintű jelentőséget ad a térségnek.

A Balaton déli partján húzódó Nagyberek egykor nádasok, mocsarak, láprétek és nyílt vízfelületek mozaikja volt, de a vízrendezések és a mezőgazdasági hasznosítás miatt mára csak töredékei maradtak fenn.

A most védetté nyilvánított, alacsonyan fekvő, időszakosan vízjárta vidék kiválóan alkalmas a víz visszatartására, ami kulcsfontosságú a táj természetes működésének helyreállításában. A szakemberek szerint a Nagyberek jövője azon múlik, sikerül-e újra közelebb hozni az egykori természetes állapotokat. Ha a tervek megvalósulnak, nemcsak a biológiai sokféleség erősödhet, hanem egy, a klímaváltozás hatásainak jobban ellenálló táj is kialakulhat.

A természetvédelem 2025-ben új lendületet kapott, amikor 42 milliárdos fejlesztés kezdődött a nemzeti parkokban.

Via Sokszínűvidék


Link másolása
KÖVESS MINKET:

Ajánljuk

JÖVŐ
A Rovatból
Krasznay Csaba: az AI-vonaton most látszólag nincs fék, kérdőjelezzünk meg nagyjából mindent, amit a képernyőn látunk
A kiberbiztonsági szakértő az AIToday-nek elmagyarázta, hogy az AI hogyan gyorsítja a dezinformációt, aminek ugyanúgy van politikai, mint katonai szerepe. A választás idején a független sajtó adta az ellendózist, de szerinte a magyarok immunrendszere is jól működött.


Krasznay Csaba szerint az AI nem egyszerűen új dezinformációs eszköz, hanem olyan technológia is, amely a kognitív dimenzióban képes felülírni korábbi működési logikákat. Az AIToday.hu-nak adott interjúban felvázolta az orosz módszereket - amelyek száz éve ugyanolyanok, csak az eszköztár változik -, és felvázolta, hogy a NATO hogyan kutatja a jelenséget.

A kiberbiztonsági szakértő hangsúlyozta: az AI azért kiszámíthatatlan, mert nem emberi motivációk szerint működik, így a kimenetei sokszor nehezen érthetők, ami különösen veszélyes a közgondolkodásra is hatással lévő kognitív térben. Az AI-ügynökök sebessége miatt ráadásul nem lehet időben reagálni a terjedő tartalmakra.

A magyar választási kampány környékén látott jelenségekről szintén beszélt, és szóba került a társadalmi immunitás, az edukáció, a platformok felelőssége, valamint az Európai Unió szabályozási kísérlete és a technológia katonai szerepe. Utóbbi nagyon is valós, hiszen az AI már ma megjelenik a célmegjelölésben és az információk gyors feldolgozásában.

— Egy nemrég megosztott bejegyzése szerint a NATO egyik kutatása a kognitív hadviselés fogalmának újradefiniálására tesz kísérletet. Kikre bízta a NATO az információs műveletek kutatását, és pontosan milyen tevékenységeket vizsgáltak?

— Két különböző kutatást is olvastam arról, hogy mennyire különböző szakterületek foglalkoznak az AI-jal, illetve általában a kibertér kihívásaival. Az egyik kutatás a NATO kiberbiztonsággal foglalkozó kiválósági központjától érkezett. Azt kell tudni a NATO kiválósági központokról, hogy ezek ugyan a NATO fenntartásában és finanszírozásban működnek, de kutatóközpontok, tehát nem a NATO mint katonai szervezet véleményét tükrözik. Sokkal inkább egyfajta tudományos bázist szolgáltatnak ahhoz, hogy a tagországok ezek alapján olyan jogi aktusokat, lépéseket, stratégiákat dolgozzanak ki, amelyekből később építkezni tudnak. Ami pedig a konkrét tanulmányt illeti: ukrán tudományos kutatók publikációjáról van szó, akiket masszívan érint a kognitív hadviselés, hiszen az orosz doktrínában régóta benne van, hogy a háborúkat nem feltétlenül és nem kizárólag a csatatéren kell megnyerni, hanem a fejekben is. A kutatás érdekessége, hogy nemcsak az orosz technológiákat és narratívákat tárgyalja, hanem említést tesz a kínai, illetve általában a NATO-s, nyugati megközelítésekről is. Ahhoz pedig, hogy érthetőbb legyen a kognitív hadviselés lényege, érdemes megjegyezni: az információs térben – jelentsen ez bármit is – három dimenzióban szoktak hadat viselni.

Van a fizikai tér: ezek a klasszikus információs rendszerek, hálózatok, minden, ami kézzelfogható. Van a logikai dimenzió, vagyis az adatokból létrejövő információ. És van a kognitív dimenzió, vagyis a gondolatok, amelyek ezekből az információkból erednek.

A tanulmány ennek a harmadik dimenziónak a kiemelésével – nem meglepő módon – azt állítja, hogy van egy régi, klasszikus iránya a kognitív műveleteknek, ami a tömegmédián, tévén, újságokon keresztül történik, és amióta ezek a formátumok léteznek, jelen is van. Emellett jelentek meg az elektronikus átviteli megoldások, mint például a közösségi média, amelyeket masszívan befolyásolnak az emergens kulcstechnológiák.

— Hol húzódik a határ a klasszikus információs műveletek és az AI által felerősített befolyásolási technikák között? Miért súlyosabb az egyik, mint a másik?

— A mesterséges intelligencia tényleg egy olyan jellegű, emergens technológia, ami miatt nagyon sok mindent újra kell gondolni – a kognitív, a fizikai és a logikai dimenzióban egyaránt. Hogy ezt jobban kifejtsem: a mesterséges intelligenciával rengeteg lehetőség és rengeteg probléma is keletkezett. Miért felforgató technológia? Talán a legfontosabb az, hogy kiszámíthatatlan. Ezt úgy értem, hogy egy emberi tevékenységnek van egy jól ismert pszichológiája és motivációja. A mesterséges intelligencia ezzel szemben valószínűségi sorozatokon alapuló döntések halmaza.

Tehát fogalmunk sincs igazán, hogy a sok lehetséges lépés közül a végén miért pont az az eredmény jön ki.

Ez az alapvető problémánk a kognitív dimenzióban, tehát a befolyásolás területén is. Míg egy ember által generált tartalomnál általában tudjuk, miért pont az a végeredmény, egy AI-generált tartalomnál sokszor nem tudjuk, miért az jött ki. Itt szokás példaként említeni a hallucinációt, ami jól ismert jelenség. Nem tudjuk pontosan, hogy hallucináció során miért pont azt mondja a modell, amit mond. Nyilván tudjuk, hogy az eredeti modelleket úgy programozták, hogy megfeleljenek az emberi elvárásoknak, és ne hagyják információ nélkül a kérdezőt – még akkor sem, ha ennek az az ára, hogy az információ téves.

De a hallucinációk egyre kevésbé észrevehetők, és ez szépen, finoman tolja el az emberi gondolkodást. Befolyásolja azt – és nem tudjuk, ennek mi lesz a vége.

Míg mondjuk egy oltásellenes mozgalomnál nagyjából pontosan tudjuk, mi mozgatja őket, milyen érvekkel élnek, és milyen hatásai vannak mindennek; tudjuk azt is, hogyan kell egy ilyen mozgalmat társadalmi szinten elszigetelni a többségtől. Egy mesterséges intelligencia esetében viszont fogalmunk sincs, hogy a neki feltett kérdésekre adott válaszok hogyan fogják alakítani és eltolni a közgondolkodást. Lehet, hogy két ember nem ugyanazt a választ kapja ugyanarra a kérdésre – sőt, akár ugyanaz az ember sem, ha kétszer egymás után teszi fel.

A másik probléma a hihetetlen gyorsaság.

Itt az AI-ügynökök kérdését hoznám fel. Az ügynökök segítségével olyan bámulatos sebességgel lehet elterjeszteni bármit, amire egyszerűen nem tudunk időben reagálni, aminek nem tudunk érdemben gátat szabni. Példának a gerjedés folyamatát hoznám. Mindannyian ismerjük: kell hozzá mikrofon és hangfal. Ha közel visszük őket egymáshoz, gerjedés keletkezik, ami nagyon kellemetlen. Úgy oldjuk meg, hogy lehalkítjuk, vagy eltávolítjuk egymástól az eszközöket. Az AI-ügynökök is így tudnak működni: ha nincsenek kellően kontrollált környezetben, könnyen létrejöhet egy olyan állapot, amit nem tudunk időben „elvágni”, letekerni. Kognitív műveleteknél gondoljunk csak arra, mi történik, ha álhíreket gyártanak – a választások alatt is szóba került, hogy Magyarországon  voltak álprofilokból érkező tartalmak. Mi történik, ha egy sok profillal rendelkező, kifejezetten információs műveletekre kihegyezett informatikai környezetben elszabadul egy AI-ügynök? Milyen bődületes sebességgel tud elterjeszteni igaznak tűnő információkat, amelyeknek tömeges hatásuk lesz?

— Hisz a laikus tömeg nehezen is tudja tetten érni. A magyar választás kampányidőszakában hogyan találkozhattunk ezzel a jelenséggel?

— Én az újságcikkeket olvasom, illetve azokat a kutatókat követem, akik kifejezetten dezinformációval foglalkoznak. Nekem csak benyomásaim vannak, és az a benyomásom, hogy közel sem volt ez annyira profin megszervezve, mint amennyire a technológia lehetővé tette volna. Ilyenkor még működik a társadalom immunrendszere is a dezinformációval szemben. Ez a valóságra vonatkozó megélésünk: elhiszünk dolgokat, vagy nem hiszünk el dolgokat.

A jelenlegi választásnál, úgy gondolom, működött a magyar állampolgárok immunrendszere. Illetve volt egy ellendózis, amit független sajtónak nevezünk, és amely kiemelte ezeket a dolgokat.

Egyébként ez az állam feladata lett volna, de ezt most engedjük el. A lényeg, hogy ez működik. Az AI sebességével, AI által terjesztett tartalmaknál – ahol az ügynök képes reagálni a történésekre, adott esetben gyorsabban és „hitelesebben”, mint valaki, aki a billentyűzet mögött ül – a hírek és információk terjedése nehezebben lesz követhető. Nem mondom, hogy ez megtörtént Magyarországon. Azt sem mondom feltétlenül, hogy ez történni fog. Azt mondom, hogy a technológia – különösen az AI-ügynökök elterjedésével – nagyon hamar olyan helyzetet teremthet körülöttünk, amit akkor és ott nem fogunk tudni érdemben befolyásolni, és ennek súlyos következményei lesznek.

— Milyen szerepe lehet az embernek egy olyan környezetben, ahol a dezinformációs rendszerek már képesek automatizáltan tanulni és finomhangolni az üzeneteiket? Mi itt az indító és mi a fogadó oldal szerepe?

— A legfontosabb talán az, hogy az emberiségnek tanulnia kell. Képben kell lenni azzal, hogy létezik a mesterséges intelligencia mint technológia, és legalább felületesen tudni kell, hogy mire képes. A társadalom széles rétege mostanában találkozott olyan szakkifejezésekkel, mint a deepfake. Ez egy olyan technológia, amire nincs társadalmi immunitásunk, és ezt az immunitást úgy tudjuk megszerezni, ha olyan környezetben találkozunk vele, ami még nem fáj annyira. Ez nem jelenti azt, hogy képesek leszünk biztosan felismerni ezeket a tartalmakat. Mindenféle kutatás – itt Magyarországon is – azt mutatja, hogy minél idősebb valaki, annál nehezebben ismeri fel őket. Ez persze nem jelenti azt, hogy a fiatalok 100%-osan képesek detektálni – csak arányaiban jobban, mint az idősebb generáció. De már az, hogy tudjuk: van ilyen, lehetővé teszi, hogy feltegyük a kérdést: vajon ez valós lehet-e? Ez az egyik oldala. A másik, hogy

az AI-vonaton most látszólag nincsen fék, ami roppant fájdalmas.

Az Európai Unió próbál valamiféle fékeket beépíteni a rendszerbe, de úgy tűnik, hogy ebben több nagyhatalom nem érdekelt. A szabályozás – ez a fajta előrelátás – mindenképpen fontos lenne. Őszintén szólva nem látom jelét annak, hogy az államok kellő gondossággal állnának hozzá a mesterséges intelligencia korlátozásához. A harmadik dolog – és ez az OpenAI-val kapcsolatban is felmerül – a felelősség kérdése. Rögtön az volt az első gondolatom, hogy az OpenAI modelljeire nagyon sokan „rákaptak”, köztük olyanok is, akiknek fogalmuk sem volt arról, mit jelent a biztonságos üzemeltetés. És ahogy a szaksajtóban is olvashattuk, történtek olyan malőrök, amelyekre nem nagyon számítottak. Aztán erre jött rá az Anthropic a Mythos modelljével, amit ki sem engedtek hétköznapi használatra. Ha jól emlékszem, 11 szoftvercég kapta meg a modellt azzal a céllal, hogy sebezhetőségeket, hibákat keressenek benne. Vannak modellek, amelyek biztosan nem valók avatatlan kezek közé. Ha mégis odakerülnek, akkor nagyon komoly felelőssége van azoknak, akiknek a kezében ott vannak ezek a modellek, ezek az ügynökök. A szakma sem 100%-ig biztos abban, hogy mindenki képes lesz kellő gondossággal használni őket.

— Beszéltünk arról, hogy a dezinformáció ellen a megcélzott tömeg edukációjával lehet harcolni, és vannak jogi lehetőségek is. De technológiai oldalról milyen hibáik vannak ezeknek a dezinformációs műveleteknek, amelyeket ki lehetne használni? Ezt találta meg az Anthropic a Mythos-szal?

Krasznay Csaba a teljes egészében az AIToday.hu-n olvasható interjú folytatásában arról beszél, hogy

- miért kulcskérdés a társadalom „immunizálása”, például az oktatási rendszeren keresztül,

- bár az uniós DSA kiváló, a nagy technológiai cégek felett hatékonyabb kontrollra lehet szükség,

- harctéri katonai műveletekben konkrétan mire használják a mesterséges intelligenciát,

- milyen jelentősége van és lehet az AI-nak a geopolitika színpadán,

- mennyire gyorsan terjednek az AI-tartalmak – például deepfake videók –, és hogyan képesek befolyásolni a közhangulatot vagy akár egy választást.

FOLYTATÁS ITT.


Link másolása
KÖVESS MINKET:

Ajánljuk