JÖVŐ
A Rovatból

VR-szemüvegek, drónok, mesterséges intelligencia – Amerika a hadiipar Apple-jével készül a hadviselés új korszakára

Az ukrajnai háború megmutatta, hogy a hadviselést teljesen megváltoztatták a drónok. Az amerikai Anduril nevű cég a semmiből nőtt naggyá néhány év alatt, és példája jól mutatja, hogy az új technológia még ennél is jobban átformálhatja a jövő háborúit.
Szerző: Gábor János - szmo.hu
2025. szeptember 16.



A Lengyelország területére berepülő 19 orosz drónból mindössze négyet lőttek a NATO gépei. Az orosz behatolás egyértelművé tette, hogy a NATO keleti szárnyának védelme erősítésre szorul, és válaszul el is indították a Keleti Őrszem hadműveletet, amivel ezt a sebezhetőséget próbálják csökkenteni. Európa most arra készül, hogy drónfalat építenek keletre, amely több rétegben próbálná megakadályozni egy hasonló támadást. Első körben elektronikai hadviselést, jelzavarást, jelhamisítás vetnének be, hogy eltérítsék a drónokat, majd elfogó drónok és gépágyúk lépnének akcióba, és csak ezután jönnének a légvédelmi rakéták, amelyeket a nagyvárosok és a kritikus infrastruktúra védelmére koncentrálnának.

Az új koncepció jól mutatja, mennyire drámaian megváltozott a hadviselés az elmúlt években.

Ahogy ezt lehetett látni a kínai katonai parádén felvonultatott harci eszközökön is. Kína néhány hete drónok, illetve mesterséges intelligencia által irányított, távvezérlésű vagy autonóm fegyverek sorát mutatta be. Például például a GJ–11 lopakodó drónt, amelyet kifejezetten vadászgépek támogatására terveztek, vagy az AJX–002 nevű óriási drón-tengeralattjárót, amely személyzet nélkül közlekedik a víz alatt, és felderítésre, illetve megfigyelésre szánják. De különleges „robotfarkasokat” is bemutattak, amelyeket aknakeresésre, felderítésre vagy akár ellenséges katonák üldözésére lehet használni. És felvonult az LY–1 lézerfegyver is, ami elektronikai rendszerek kiégetésére vagy pilóták elvakítására lehet alkalmas.

A változásokra az Egyesült Államok is megpróbál reagálni. Egy sor cég dolgozik hasonló fegyvereken, de ezek közül is kiemelkedi az Andurl, amely autonóm drónokat, virtuális valóság szemüvegeket és egyéb mesterséges intelligenciával működő technológiákat fejleszt az amerikai hadseregnek.

Amerika beveti a hadiipar Apple-jét

A hagyományos fegyver- és repülőgépgyártással ismertté vált, de mára komoly harcászati innovátornak számító Northrop Grumman, illetve a többek között harckocsigyártásban jeleskedő General Dynamics az amerikai védelmi minisztérium két legősibb beszállítójának számít. Előbbit 1939-ben, utóbbit 1952-ben alapították, de az Anduril máris eléri az értékük felét, holott csak 2017 óta létezik.

Az Andurilt szilícium-völgyi veteránok hívták életre, köztük az Oculus-alapító Palmer Luckeyval és a Founders Fundtól érkező Trae Stephens-szel. Az alapítók célja az volt, hogy megreformálják a hagyományos védelmi modellt: saját forrásból fejlesszenek új katonai technológiákat, amelyeket aztán eladnak az Egyesült Államoknak (később pedig más országoknak). Ebben az az újdonság, hogy más amerikai gyártók leginkább az állami kutatás-fejlesztési támogatásokra, így például a védelmi minisztérium alá tartozó DARPA ügynökségtől érkező innovációkra és finanszírozásokra támaszkodnak.

Ahogy egyre több a fegyveres konfliktus, világszerte új lendületet kap a hadsereg felszereléseinek vagy járműparkjának korszerűsítése. Ennek megfelelően az Anduril is számos kiemelt szerződést kötött. Tíz évig például drónelhárító rendszereket telepítenek az amerikai haditengerészet számára, illetve több milliárd dollár értékben fejlesztenek pilóta nélküli, autonóm repülőgépeket a légierőnek. Mindezek mellett idén átvették a Microsoft 22 milliárd dollár értékű kiterjesztett valóság szemüvegprojektjét is, amelynek keretében

120 ezer VR-headsetet szállítanak az USA hadseregének.

Utóbbi megbízást nem egyedül teljesítik: bevonnak más technológiai cégeket, például a Facebookot kiadó Metát is, amely a májusi bejelentés szerint az Anduril sisak és headset ágazatát fogja erősíteni.

A kizárólag magántőkéből finanszírozott projektben olyan integrált kevert valóság termékeket építenek, amelyek fejlettebb érzékelést biztosítanak a katonáknak, és lehetővé teszik, egyrészt autonóm eszközök, például felszereléseket vagy fegyvereket szállító drónok intuitív harctéri irányítását, másrészt olyan, akár döntéshozatalt támogató technológiák bevezetését, amelyekkel a sereg nem csak taktikai előnyhöz juthat, hanem dollármilliárdokat is spórolhat.

A vállalat szintén nemrég jelentette be, hogy partneri szerződést köt Európa ötödik legnagyobb fegyvergyárával, a hazánkban, Zalaegerszegen is telephellyel rendelkező, német Rheinmetall-lal.

A megállapodás értelmében szoftveralapú autonóm légi rendszereket, illetve fejlett hajtómű-technológiákat fejlesztenek, majd értékesítenek az öreg kontinens hadseregei számára. A két vállalat közösen fogja gyártani az olcsón előállítható, multifunkciós, cirkálórakéta-képességet biztosító Barracuda és a nagy teljesítményű, többcélú Fury légijármű európai változatait.

„A Rheinmetall-lal olyan rendszereket hozunk létre, amelyek gyorsan gyárthatók, széles körben bevethetők, és NATO-missziók igényeihez igazíthatók” – nyilatkozta Brian Schimpf, az Anduril Industries vezérigazgatója.

A nagytételben gyártható Barracuda és Barracuda-M beépítése a Rheinmetall rendszereibe megfizethető autonóm légi járművet kínál az európai hadseregek számára. A Rheinmetall állítása szerint a két rakétatípus moduláris kialakítása számos teherszállító és célzó módot támogat.

A Furyt mindeközben arra tervezték, hogy kötelékben működjön ember vezette és autonóm repülőgépekkel. Ez az eszköz fejlett vadászgép-teljesítményt kínál, miközben rugalmasan integrálható különböző érzékelőkkel és hasznos terhekkel (értsd: akár bombákkal) – ahogy a kedves vevő kívánja.

A titok az üzemanyag és az AI-vezérelt önvezetés

A váratlanul sikeres cég titka a saját boszorkánykonyháján kifőzött üzemanyagban és vezérlőrendszerben rejlik. A technológiákra okkal fáj a foga az amerikai mellett immár az európai vezérkaroknak is, hiszen az Anduril újítása, az ALITEC nevű, alumínium-lítium ötvözetet tartalmazó, szilárd üzemanyag jelentősen, akár 40 százalékkal növelheti a repülőgépek és rakéták hatótávolságát, sebességét, terhelhetőségét – arról nem is beszélve, hogy stabilan raktározható, illetve légvédelmi és hiperszonikus eszközökben egyaránt használható.

Az üzemanyag erősebb, könnyebb, gyorsabb és nagyobb hatótávolságú motorokat eredményez, amelyek remekül igazodnak a NATO-keretrendszer katonai igényeihez.

A nemrég az OpenAI-val is partneri szerződést kötő vállalat másik forradalmi innovációja a Lattice, ami egy nyílt, mesterséges intelligenciával támogatott operációs rendszer. Ez a gyártó leírása szerint drónok és radarok érzékelőiből, valamint hangalapú szenzorokból származó adatokat egyesít egy közös helyzetképben. A „Lattice for Mission Autonomy” modul lehetővé teszi az operátorok számára, hogy küldetésekkel bízzák meg az autonóm rendszereket, amelyek ettől kezdve maguk tervezik meg és hajtják végre a harci feladatot, miközben emberi felügyelet alatt maradnak. A fentebb írt Barracuda például tömeges bevetésre is használható a Lattice segítségével.

A rendszer lehetővé teszi, hogy a cirkálórakéta humán irányítás nélkül, önállóan repüljön vagy – ha nem talál célpontot – visszatérjen a termináljára és később újra bevethető legyen.

A modern hadseregek hőn vágyott eszköze, a Lattice operációs rendszer lényegében összeköti és autonóm együttműködésre ösztönzi a különböző katonai drónokat, érzékelőket és fegyvereket. Ez a katonai infrastruktúra döntési, kommunikációs és visszatérő képességekkel forradalmasítja a kis és közepes légi támadásokat.

Pusztítás, kattintásra – Új alapokra helyezik a hadviselést

Kalifornia keleti részén, egy San Clemente melletti tesztterületen az Anduril nemrég demonstrálta, hogy hogyan is kívánja átalakítani a modern hadviselést. Az MIT helyszíni beszámolója szerint itt mutatták be a nyilvánosság előtt a többféle kivitelben elérhető (standard, nagy és kiterjesztett hatótávolságú, tengerészeti, mobil, illetve sarkvidéki hidegre tervezett) Sentry őrtornyot, amelyet jelenleg is használnak az amerikai-mexikói határ megfigyelésére. Ezenkívül fejlett radarokat és különböző drónmodelleket villantottak, például a szinte hang nélkül repülő Ghostot. A bemutató fókuszát viszont nem ezekre helyezték, hanem a fentebb bemutatott Lattice rendszer képességeire.

A szimuláció során egy ismeretlen teherautó közelítette meg a katonai bázist. A mesterséges intelligenciával működő Sentry rögtön észrevette és potenciális fenyegetésként azonosította a járművet. A Lattice erre értesítést küldött a kezelőnek, hogy szeretné-e kiküldeni a Ghostot. A megfigyelő drón kattintásra útnak indult, majd a Sentry által gyűjtött információkra hagyatkozva önállóan repült.

A Ghost aztán eltűnt egy domb mögött, elveszítve a vizuális kapcsolatot a toronnyal, így az nem küldött neki további információkat a célpontról. Ettől függetlenül folytatta az autonóm repülést az észlelt teherautó felé, majd rögzítette, hogy valaki kiszáll belőle, és felbocsát egy drónt. A Lattice ezt ugyancsak fenyegetésként értelmezte, és újabb kérdést küldött a kezelőnek arról, hogy szeretne-e támadó drónt küldeni. Mivel San Clemente-ben nem engedélyezik a drónok lelövését, a szimulációt ezen a ponton megszakították, viszont egyértelművé tették, hogy a rendszer újabb gombnyomásra elpusztította volna a járművet.

A bemutató üzenete sokkoló: az ellenség azonosításától a célpont megsemmisítéséig csupán két egérkattintásra van szükség.

Brian Schimpf az esemény után nyilatkozva azt mondta, cége eszközei teljesen más gondolkodásmódot hoznak a harctérre ahhoz képest, amit ma alkalmaznak a hadseregben. Az információáramlás ugyanis elég nehézkes a katonák és a parancsnoki lánc magasabb szintjei között: manuálisan kell kezelni a kamerákat és felismerni a célpontokat, majd továbbítani az adatokat más katonáknak, akik a fegyvereket kezelik. Mindez sokszor egy egyszerű üzenetküldő alkalmazáson keresztül zajlik, ami lassítja a folyamatokat – ellentétben a döntéshozatalt gombnyomásnyi időtartamra zsugorító Lattice-szel.

A cég bejelentette, hogy a szoftvercsomag további fejlesztései lehetővé teszi más cégek számára, hogy hozzáférjenek a rendszerhez és megosszák rajta az adataikat, ezzel tovább pontosítva a rendszer képességeit. Több mint tíz, például autonóm tengeralattjárókat és önvezető járműveket fejlesztő vállalat már integrálta is a hardverét, miközben a katonák saját érzékelőik adatait publikálhatják a hálózaton, és feliratkozhatnak más szenzorok adatfolyamaira – mindezt persze biztonságos környezetben, állítja az Anduril.

A bemutató után az amerikai védelmi minisztérium hároméves szerződést kötött a vállalattal a Lattice alkalmazására, amelyet összehangolnak a Palantir által működtetett Maven nevű programmal. Ez különféle forrásokból – például műholdaktól és helymeghatározó adatokból – származó információkat egyesít, szóval elképesztő mértékben pontosíthatja az így is precíziósnak tűnő Lattice reagálási képességeit.

AI- és szoftvervezérelt gépek csatája

Az Anduril célja az, hogy a szoftvere nélkülözhetetlenné váljon a döntéshozók számára. Ha csak az amerikai védelmi minisztériumot vesszük alapul, akkor ezt nem lesz nehéz megugrani, mivel az MIT szerzője szerint a Pentagon az összekapcsolhatóság terén eléggé le van maradva a civil eszközök (telefonok, okostévék és laptopok) rendszereihez képest. A haditechnikában ez egyelőre nem általános, viszont elég gyorsan változik a helyzet, amit jól példáz a paradigmaváltó Anduril menetelése is.

A hadiipar Apple-je lehetővé teszi a hadseregeknek nem csak azt, hogy minden eddiginél több adat összehangolásával hajtsanak végre sokkal pontosabb katonai műveleteket, hanem azt is, hogy a hadviselésben kiterjesszék a mesterséges intelligencia alkalmazását.

„Régóta tudjuk, hogy a katonai rendszereink nem működnek együtt” – hangsúlyozta Chris Brose, az amerikai szenátus Fegyveres Erők Bizottságának korábbi munkatársa, aki jelenleg az Anduril stratégiai vezetője. Brose egyik feladata az, hogy meggyőzze a Kongresszust és a Pentagont: a szoftverek ugyanolyan fontosak, mint a vadászgépek vagy az anyahajók. Jegyezzük meg: a lobbizást valószínűleg gördülékenyebbé teszik a cégalapító kormányzati kapcsolatai. Palmer Luckey régóta támogatója Donald Trumpnak, és JD Vance alelnök is feltűnt az Anduril közelében, egy 2017-es befektetés kapcsán.

A vállalat felemelkedése ettől függetlenül nem érdemtelenül történik, hiszen forradalminak tűnő lehetőséget biztosít a honvédelemben keletkező adatok kihasználására. A cégvezetők azt mondják, „végtelen mennyiségű védelmi adat létezik, ami elengedhetetlen lenne az AI képzéséhez, de most egész egyszerűen elvész”. A Lattice rendszer által gyűjtött, köztük titkosított adatokat ugyanakkor felhasználnák a mesterséges intelligencia modellek tanítására, míg a különböző érzékelőkből származó adatok integrálása tovább erősítené ezt munkát, amit nem mellékesen a ChatGPT-t kiadó OpenAI-val közösen végeznek.

„Az újdonság az, hogy a védelmi minisztérium most már képes ezeket az adatokat új módon felhasználni. A több adat és az azok feldolgozására alkalmas rendszerek pontosabb döntéseket és gyorsabb információfeldolgozást tehetnek lehetővé” – írta közleményben Emelia Probasco, a Georgetown Egyetem Biztonságpolitikai és Feltörekvő Technológiák Központjának vezető elemzője.

„Úgy látom, jó úton vagyunk afelé, hogy az AI, beleértve a generatív AI-t is, belépjen a [katonai] döntéshozatal világába.”

Amióta Izrael halálos csapások automatizálására használja a mesterséges intelligenciát – AI segítségével készítettek célpontlistákat a Gázában bujkáló Hamász-vezérekről és az Irán elleni támadások során is alkalmaznak AI‐rendszereket célpontok azonosítására, illetve az iráni légvédelem réseinek feltárására –, fokozottabb figyelem irányul az Anduriléhoz hasonló fejlesztésekre.

A Human Rights Watch riportja szerint ugyanakkor ezek az eszközök „pontatlan adatokra és hozzávetőleges becslésekre épülnek, ráadásul átláthatatlan gépi tanulási folyamatokat használnak”. Ez azért hatalmas probléma a szervezet szerint, mert „az algoritmusok torzításokat örökölhetnek, az adatok pedig nem mindig reprezentálják a helyi viszonyokat”, és ez növeli a civil áldozatok számát egy-egy támadás során.

Az Anduril szóvivője az izraeli példára reagálva hangsúlyozta: a Lattice célja nem a döntéshozatal, hiszen „nem ír elő műveleteket, és nem tesz javaslatokat harctéri döntésekre”, viszont „időérzékeny információkat” tár fel, amelyeket az operátorok figyelembe vehetnek a döntéseikhez.


Link másolása
KÖVESS MINKET:

Népszerű
Ajánljuk
Címlapról ajánljuk


JÖVŐ
A Rovatból
230 millió dollárt spóroltak az MI-vel: 20 nap alatt forgatták le Gal Gadot új filmjét a színészekkel, a többi munkát már a számítógép végzi
A Bitcoin: Killing Satoshi című filmet egy londoni stúdióban vették fel, helyszíni forgatás nélkül. A háttereket és a világítást teljes egészében mesterséges intelligencia hozza létre az utómunka során.


Mindössze 20 nap alatt, egy teljesen üres, „szürke doboz” stúdióban forgatták le Doug Liman új filmjét, a Bitcoin: Killing Satoshi-t, amelynek főszereplői Casey Affleck, Gal Gadot, Pete Davidson és Isla Fisher.

A produkció teljes egészében mesterséges intelligencia által generált hátterekkel készül, amivel a producerek szerint így egy normál esetben 300 millió dolláros költségvetést sikerült 70 millióra lefaragni.

A film egy összeesküvés-thriller, amely a Bitcoin rejtélyes alkotója, Satoshi Nakamoto kilétét kutatja. A cselekmény középpontjában egy újságíró áll, aki azt a vitatott állítást vizsgálja, hogy a valódi Satoshi egy Craig Wright nevű ausztrál üzletember, akit emiatt befolyásos szervezetek akarnak elhallgattatni.

A februári bejelentés - miszerint a filmben nemcsak a háttereket és a világítást hozzák létre mesterséges intelligenciával, de szükség esetén a színészek játékába is belenyúlhatnak - komoly vitát váltott ki a szakmában. A producerek ezért nemrég meghívták a TheWrap stábját a londoni forgatásra, hogy bemutassák a technológiát. Azt állítják, a színészi alakításokhoz nem nyúlnak hozzá, az MI csupán egy utómunka-eszköz, ami a környezetet teremti meg.

Casey Affleck szerint a módszerrel a hangsúly teljes egészében a színészi játékra helyeződött.

„Az egész forgatáson a mi alakításunk volt a fókuszban”

– nyilatkozta a színész.

Az alkotók szerint az eljárás a színházi munkához hasonlít, és jelentősen csökkenti a gyártás ökológiai lábnyomát, mivel nincs utazás és helyszíni építkezés.

Ryan Kavanaugh producer elmondta, a hagyományos forgatás több mint 200 különálló helyszínt igényelt volna. „Rájöttünk, hogy bizonyos MI-eszközökkel le tudjuk törni a költségeket” - közölte. A forgatás egy volt londoni autószalonból átalakított „gray box” stúdióban zajlott, a világítás és a díszlet MI‑vel készült, a színészek valódi jelmezeket viseltek, és az utómunka kb. 30 hét, 55 MI‑művész részvételével - derült ki a The Wrap cikkéből.

Az iparági vita azonban továbbra is éles. Míg a támogatók a költséghatékonyságot és az új kreatív lehetőségeket emelik ki, az ellenzők a filmes szakmák – díszlettervezők, helyszíni világosítók, logisztikai szakemberek – tömeges megszűnésétől tartanak.

A projektet még 2025 augusztusában jelentették be, a forgatás idén márciusban zárult. A rendező, Doug Liman olyan filmeket jegyez, mint A Bourne-rejtély vagy A holnap határa, a forgatókönyvet pedig Nick Schenk írta, aki Clint Eastwood Gran Torinóját és A csempészt is.

A film forgalmazási jogait a május 12. és 20. között zajló cannes-i filmpiacon, a Marché du Film-en értékesítik.

A film történetének pikantériáját adja, hogy a brit Legfelsőbb Bíróság 2024 márciusában kimondta: Dr. Craig Wright bizonyíthatóan nem Satoshi Nakamoto, és nem ő írta a Bitcoin alapító dokumentumát sem.

Via worldofreel.com


Link másolása
KÖVESS MINKET:

Ajánljuk
JÖVŐ
A Rovatból
Baracsi Katalin: A kórházi kamerák ügye rámutat a biometrikus azonosítás szigorú szabályaira, de az AI Act tovább emeli a tétet
Az internetjogász az AIToday-nek elmondta: az arcfelismerés magas kockázatú terület, és hamarosan egyszerre szabályozza a GDPR, illetve az AI Act. A cégek gondban lehetnek a megfeleléssel, az állampolgárok viszont jobb védelemre számíthatnak.


Nem járt messze az igazságtól a leendő egészségügyi miniszter, amikor „rendőri típusú irányításra” jellemző metódushoz hasonlította a kórházi beléptetőrendszerekbe két éve beépített arcfelismerést. Hegedűs Zsolt egyik első intézkedése az lesz, hogy július 1-ig leszerelik a dolgozók munkaidejének ellenőrzésére kitalált AI-alapú (biometrikus) ellenőrzést, amelynek dr. Baracsai Katalin szerint már a puszta létezése példátlan az egész unióban, sőt, cégeket meg is bírságoltak hasonló intézkedésért. Az internetjogász az AIToday.hu-nak részletesen beszélt a magyar egészségügy kamerarendszerének ügyéről, valamint arról, hogy a nyáron életbe lépő AI Act hogyan szabályozza a megfigyelést és a biometrikus azonosítást.

Mint kiderült, pontos szabályok vonatkoznak arra, hogy mi számít egyszerű megfigyelésnek, és egy rendszer mikor éri el a biometrikus azonosítás szintjét, amikortól sokkal szigorúbb uniós szabályok vonatkoznak rá.

Baracsi Katalin közölte: az AI-alapú arcfelismerés az egészségügyben különösen magas kockázatú terület, a munkahelyi alkalmazása pedig csak nagyon-nagyon indokolt és kötött feltételekkel képzelhető el. Azt is világossá tette, hogy az AI Act nem váltja fel a GDPR-t, így az intézményeknek és a cégeknek egyszerre kell megfelelniük az adatvédelmi és az új AI-szabályoknak. Az interjúból kiderül továbbá, hogy milyen jogok illetik meg az állampolgárokat és a munkavállalókat a biometrikus adataik kezelése kapcsán.

— A magyar kórházakban bevezetett, majd leszerelt arcfelismerő rendszerek kapcsán felmerül a kérdés: mennyire tipikus vagy kivételes az ilyen rendszerek használata az uniós egészségügyi intézményekben?

— Az Európai Unióban szinte sehol nem próbált meg kormányzat ilyen típusú ellenőrzési rendszert bevezetni és kialakítani. A nyugat-európai országokban az adatvédelmi hatóságok már a kisebb, hasonló célú cégeket is megbírságolták. Tudok egy nagy horderejű hollandiai ügyről, ahol egy vállalat 725 ezer eurós bírságot kapott, mert ujjlenyomattal ellenőrizte a dolgozók munkaidejét. Itt párhuzamot vonhatunk: az ujjlenyomat és az arcfelismerés is olyan, hogy a munkavállalók lényegében nem tudnak szabadon dönteni arról, hogy hozzájárulnak-e. Sőt, a magyar adatvédelmi hatóság, a NAIH, is előzetesen alapjogsértőnek minősítette a tervet, a bevezetés mégis megtörtént. Egyértelmű tehát a tiltás, és az adatvédelmi hatóságok komolyan odafigyelnek, hogy a munkavállalók ne kerüljenek ilyen helyzetbe.

— Talán éppen ezért alakult úgy, hogy végül csak néhány kórházban üzemelték be. Az is lehet, hogy egyfajta tesztüzem volt.

— Attól tartok, nem tudjuk, hogy kísérleteztek-e előzetesen ezzel a technológiával. Az indok, ami a médiakommunikációban megjelent, az volt, hogy szükség van a rendszerre, mert nem lehet követni, hogy az orvosok és más egészségügyi alkalmazottak ténylegesen mennyi időt töltenek munkával.

— Mi a különbség hétköznapi nyelven az egyszerű megfigyelés és a biometrikus azonosítás között az uniós joggyakorlat szerint?

— Maga a GDPR, tehát az adatvédelmi rendelet fogalmazza meg, hogy mi is az a biometrikus adat. Minden olyan, fizikai jellemzőkből – például az arcunkból, ujjunkból, hangunkból – kinyert adat, amely lehetővé teszi egy személy egyedi azonosítását. Van egy egyszerű példám a megfigyelés és az azonosítás megkülönböztetésére. Tételezzük fel, hogy elmegyünk vásárolni egy plázába. A biztonsági kamera felveszi, ahogy besétálunk. Ez még nem minősül biometrikus azonosításnak. De abban az esetben, ha ez a kamera felveszi az arcunkat, leméri, és egy adatbázisban más mintákkal összehasonlítva megállapítja, hogy én Baracsi Katalin vagyok, akkor az már azonosítás. Ez már biometrikus azonosítás. Az azonosítás az, amikor konkrétan, név szerint beazonosítanak minket, ez az, ami nagyon szigorú szabályokba ütközik. Tehát ha csak azt nézik, hogy hány ember megy be a plázába, és ebből nem vonnak le személyre szabott következtetéseket, az egyszerű megfigyelés.

— A GDPR már jó ideje hatályban van, de készülődik az AI Act. Hogyan kategorizálja az AI alapú biometrikus rendszereket az Unió, és mely kategóriák érintik leginkább a hétköznapi embereket?

— Négy kategóriát állapít meg az AI Act, és a különlegesség az, hogy idén nyártól ezek teljesen hatályba lépnek, és minden jogszabályi és intézményi keretnek fel kell állnia az EU-ban, amely biztosítja a megfelelő működésüket. Az első kategória a tiltott rendszereké. Ezek olyan technológiák, amiket soha, senkinek nem szabad alkalmazni.

Például egy munkahelyen az alkalmazottak érzelmi állapotát elemző szoftver teljesen kizárt.

A második a magas kockázatú rendszereké. A jelenlegi joggyakorlat szerint ide tartozik az egészségügyi arcfelismerés is. Itt szabad bizonyos rendszereket kiépíteni, de nagyon komoly feltételekkel. Ide tartoznak a különböző biometrikus rendszerek és általában az érzelemfelismerő szoftverek is. Olyan szigorú feltételeknek kell megfelelniük, mint például egy gyógyszerengedélynek: tesztelés, dokumentáció. Újdonság, hogy augusztus elsejétől ezeknél kötelező lesz az emberi felügyelet, és mindenkit tájékoztatni kell arról, hogy a rendszert mesterséges intelligencia működteti, és a döntések már nem emberi, hanem gépi alapon születnek. A harmadik szint a korlátozott kockázatú rendszereké. Például, amikor egy weboldalon chatbottal kommunikálok. Itt a működtetőnek csak annyi a kötelezettsége, hogy feltüntesse, hogy chatbot alapú szolgáltatást használ. Végül vannak a minimális kockázatú esetek, mint egy spam szűrő használata, ahol semmilyen egyéb kötelezettséget nem ír elő a jogszabály.

Hétköznapi szinten olyan fogalmakkal érdemes barátkoznunk, mint a munkahelyi biometrikus kapu vagy az, hogy a bevásárlóközpontban lévő kamera csak a látogatók számát méri, vagy valami mást is csinál.

Ha mást is, az már a tiltott kategória lehet. Magas biztonsági kockázatú helyeken, például egy atomerőműnél vagy egy gyógyszercégnél, indokolt lehet a biometrikus beléptetés. Végül is, az útlevelünkben is van biometrikus azonosító, de ehhez önként, hivatalos eljárás keretében járultunk hozzá. Fontos látni, hogy az AI Act nem váltja fel a GDPR-t, a kettő együtt, egymást kiegészítve fog létezni.

— Ha egy cég vagy intézmény, például egy – ön által is említett – atomerőmű, biometrikus azonosítást akar bevezetni, milyen jogi feltételeknek kell megfelelnie az EU-ban?

— Egy ilyen rendszer kiépítését egy építési engedély beszerzéséhez hasonlítanám. Nem egyetlen papírról van szó, hanem egy összetett folyamatról. Először is, a GDPR alapján előzetes hatásvizsgálatot kell végezni. Ez egyfajta kockázatelemzés, ahol végig kell gondolni, mi sülhet el rosszul, még mielőtt a rendszert elindítanák. Meg kell találni a megfelelő jogalapot. Munkahely esetén ez vagy a munkavállalók szabad beleegyezése, vagy valamilyen törvényi kötelezettség. Egy atomerőműnél a biztonsági kockázat egyértelmű jogalap. A GDPR szerint egyértelmű hozzájárulás kell, ha nincs más jogalap. Ha ez hiányzik, a rendszer nem működhet.

Csak a legszükségesebb adatokat szabad gyűjteni, és nem tárolható több, mint ami a működéshez elengedhetetlen.

Újdonság, hogy 2026-tól az AI Act szerinti regisztráció és dokumentáció kötelező lesz az Európai Unió adatbázisában. Tehát ha egy cég végigment az előző lépéseken, utána az EU felé is jelentenie kell, hogy biometrikus azonosításon alapuló rendszert működtet. Ha bárhol hiba csúszik a folyamatba, a rendszer a magas kockázatú kategóriából könnyen átcsúszhat a tiltottba.

— Mit jelent ez a gyakorlatban a munkavállalók és ügyfelek számára? Milyen jogaik vannak, ha egy szervezet arcfelismerést használ velük szemben?

— A GDPR már eddig is teremtett jogokat. Az első a tájékoztatáshoz való jog: a munkavállalónak tudnia kell, hogy a munkahelyén arcfelismerő rendszer működik, és azt is, hogy milyen célból. Létezik a hozzáférési jog, ami azt jelenti, hogy kikérhetem a rólam tárolt biometrikus adatokat. Van törlési jogom is. Ha az adatkezelés már nem indokolt – például mert a munkavállaló munkahelyet váltott, vagy olyan munkakörbe került, ahol már nincs szükség a rendszerre –, kérheti az adatai törlését. A hozzájárulás bármikor visszavonható, és ha kiderül, hogy az adatkezelés jogellenes volt, szintén törölni kell az adatokat. Megilleti a munkavállalót a tiltakozáshoz való jog is, ha a bevezetés feltételei nem teljesültek.

Végül pedig ott van a megtagadás joga: ha nem egyezek bele a biometrikus adataim kezelésébe, emiatt nem érhet semmilyen szankció.

— Bele lehet írni egy munkaszerződésbe, hogy a munkavállaló automatikusan hozzájárul az AI alapú azonosításhoz?

A teljes egészében az AIToday-en olvasható interjúban Baracsi Katalin arról is beszél, hogy

az AI-alapú azonosítás bevezetése miért igényel hosszabb, többlépcsős engedélyezési folyamatot,

bár szinte senki sem kérheti egy munkavállalótól, vannak üzemek, ahol a biometrikus azonosítás a munkaszerződés része lehet,

az AI Act milyen módon írja elő a kamerás megfigyelés vagy más biometrikus azonosítás jelölését,

az AI Act milyen módon szolgálja a felhasználók védelmét,

mely nemzeti hatóságok segítik az állampolgárok jogérvényesítést.

FOLYTATÁS ITT.


Link másolása
KÖVESS MINKET:

Ajánljuk

JÖVŐ
A Rovatból
Hatalmas lépés a Balaton jövőjéért: 6300 hektáron mentik meg az egykori mocsárvilágot
A bővítés többek között Buzsák, Kéthely és Lengyeltóti külterületeit is érinti a Balaton-felvidéki Nemzeti Parkban. A beavatkozásoktól egy, a klímaváltozásnak jobban ellenálló táj kialakulását várják.


Friss miniszteri rendelet alapján több mint 6300 hektárnyi területet helyeznek országos védelem alá a Balaton déli partján, hogy újraéledhessen a Nagyberek egykori vizes élővilága.

A döntés célja, hogy a térségben megmaradt természeti értékeket hosszú távon megőrizzék, és lehetőség szerint visszaállítsák a táj eredeti vízháztartását.

A rendelet előkészítésének újabb lépéseként ma nyilvánosságra hozták a bővítés természetvédelmi kezelési tervének hivatalos tervezetét is.

A bővítés két fő részből áll: egyrészt mintegy 770 hektárnyi, részben már eddig is érintett terület kerül teljes egészében a Balaton-felvidéki Nemzeti Park kezelésébe, másrészt több mint 5500 hektár olyan földrészlet is védett státuszt kap, amely eddig nem állt országos oltalom alatt.

Az intézkedés többek között Balatonfenyves, Fonyód, Buzsák, Ordacsehi, Kéthely, Lengyeltóti és Táska külterületeit érinti.

A kijelölt területeken belül különböző természetvédelmi kategóriákat határoztak meg. Egy kisebb, mintegy 16 hektáros rész fokozottan védett besorolást kapott, ahol a legszigorúbb előírások érvényesek. A terület egy része emellett a Natura 2000 hálózathoz is kapcsolódik, ami európai szintű jelentőséget ad a térségnek.

A Balaton déli partján húzódó Nagyberek egykor nádasok, mocsarak, láprétek és nyílt vízfelületek mozaikja volt, de a vízrendezések és a mezőgazdasági hasznosítás miatt mára csak töredékei maradtak fenn.

A most védetté nyilvánított, alacsonyan fekvő, időszakosan vízjárta vidék kiválóan alkalmas a víz visszatartására, ami kulcsfontosságú a táj természetes működésének helyreállításában. A szakemberek szerint a Nagyberek jövője azon múlik, sikerül-e újra közelebb hozni az egykori természetes állapotokat. Ha a tervek megvalósulnak, nemcsak a biológiai sokféleség erősödhet, hanem egy, a klímaváltozás hatásainak jobban ellenálló táj is kialakulhat.

A természetvédelem 2025-ben új lendületet kapott, amikor 42 milliárdos fejlesztés kezdődött a nemzeti parkokban.

Via Sokszínűvidék


Link másolása
KÖVESS MINKET:

Ajánljuk

JÖVŐ
A Rovatból
Krasznay Csaba: az AI-vonaton most látszólag nincs fék, kérdőjelezzünk meg nagyjából mindent, amit a képernyőn látunk
A kiberbiztonsági szakértő az AIToday-nek elmagyarázta, hogy az AI hogyan gyorsítja a dezinformációt, aminek ugyanúgy van politikai, mint katonai szerepe. A választás idején a független sajtó adta az ellendózist, de szerinte a magyarok immunrendszere is jól működött.


Krasznay Csaba szerint az AI nem egyszerűen új dezinformációs eszköz, hanem olyan technológia is, amely a kognitív dimenzióban képes felülírni korábbi működési logikákat. Az AIToday.hu-nak adott interjúban felvázolta az orosz módszereket - amelyek száz éve ugyanolyanok, csak az eszköztár változik -, és felvázolta, hogy a NATO hogyan kutatja a jelenséget.

A kiberbiztonsági szakértő hangsúlyozta: az AI azért kiszámíthatatlan, mert nem emberi motivációk szerint működik, így a kimenetei sokszor nehezen érthetők, ami különösen veszélyes a közgondolkodásra is hatással lévő kognitív térben. Az AI-ügynökök sebessége miatt ráadásul nem lehet időben reagálni a terjedő tartalmakra.

A magyar választási kampány környékén látott jelenségekről szintén beszélt, és szóba került a társadalmi immunitás, az edukáció, a platformok felelőssége, valamint az Európai Unió szabályozási kísérlete és a technológia katonai szerepe. Utóbbi nagyon is valós, hiszen az AI már ma megjelenik a célmegjelölésben és az információk gyors feldolgozásában.

— Egy nemrég megosztott bejegyzése szerint a NATO egyik kutatása a kognitív hadviselés fogalmának újradefiniálására tesz kísérletet. Kikre bízta a NATO az információs műveletek kutatását, és pontosan milyen tevékenységeket vizsgáltak?

— Két különböző kutatást is olvastam arról, hogy mennyire különböző szakterületek foglalkoznak az AI-jal, illetve általában a kibertér kihívásaival. Az egyik kutatás a NATO kiberbiztonsággal foglalkozó kiválósági központjától érkezett. Azt kell tudni a NATO kiválósági központokról, hogy ezek ugyan a NATO fenntartásában és finanszírozásban működnek, de kutatóközpontok, tehát nem a NATO mint katonai szervezet véleményét tükrözik. Sokkal inkább egyfajta tudományos bázist szolgáltatnak ahhoz, hogy a tagországok ezek alapján olyan jogi aktusokat, lépéseket, stratégiákat dolgozzanak ki, amelyekből később építkezni tudnak. Ami pedig a konkrét tanulmányt illeti: ukrán tudományos kutatók publikációjáról van szó, akiket masszívan érint a kognitív hadviselés, hiszen az orosz doktrínában régóta benne van, hogy a háborúkat nem feltétlenül és nem kizárólag a csatatéren kell megnyerni, hanem a fejekben is. A kutatás érdekessége, hogy nemcsak az orosz technológiákat és narratívákat tárgyalja, hanem említést tesz a kínai, illetve általában a NATO-s, nyugati megközelítésekről is. Ahhoz pedig, hogy érthetőbb legyen a kognitív hadviselés lényege, érdemes megjegyezni: az információs térben – jelentsen ez bármit is – három dimenzióban szoktak hadat viselni.

Van a fizikai tér: ezek a klasszikus információs rendszerek, hálózatok, minden, ami kézzelfogható. Van a logikai dimenzió, vagyis az adatokból létrejövő információ. És van a kognitív dimenzió, vagyis a gondolatok, amelyek ezekből az információkból erednek.

A tanulmány ennek a harmadik dimenziónak a kiemelésével – nem meglepő módon – azt állítja, hogy van egy régi, klasszikus iránya a kognitív műveleteknek, ami a tömegmédián, tévén, újságokon keresztül történik, és amióta ezek a formátumok léteznek, jelen is van. Emellett jelentek meg az elektronikus átviteli megoldások, mint például a közösségi média, amelyeket masszívan befolyásolnak az emergens kulcstechnológiák.

— Hol húzódik a határ a klasszikus információs műveletek és az AI által felerősített befolyásolási technikák között? Miért súlyosabb az egyik, mint a másik?

— A mesterséges intelligencia tényleg egy olyan jellegű, emergens technológia, ami miatt nagyon sok mindent újra kell gondolni – a kognitív, a fizikai és a logikai dimenzióban egyaránt. Hogy ezt jobban kifejtsem: a mesterséges intelligenciával rengeteg lehetőség és rengeteg probléma is keletkezett. Miért felforgató technológia? Talán a legfontosabb az, hogy kiszámíthatatlan. Ezt úgy értem, hogy egy emberi tevékenységnek van egy jól ismert pszichológiája és motivációja. A mesterséges intelligencia ezzel szemben valószínűségi sorozatokon alapuló döntések halmaza.

Tehát fogalmunk sincs igazán, hogy a sok lehetséges lépés közül a végén miért pont az az eredmény jön ki.

Ez az alapvető problémánk a kognitív dimenzióban, tehát a befolyásolás területén is. Míg egy ember által generált tartalomnál általában tudjuk, miért pont az a végeredmény, egy AI-generált tartalomnál sokszor nem tudjuk, miért az jött ki. Itt szokás példaként említeni a hallucinációt, ami jól ismert jelenség. Nem tudjuk pontosan, hogy hallucináció során miért pont azt mondja a modell, amit mond. Nyilván tudjuk, hogy az eredeti modelleket úgy programozták, hogy megfeleljenek az emberi elvárásoknak, és ne hagyják információ nélkül a kérdezőt – még akkor sem, ha ennek az az ára, hogy az információ téves.

De a hallucinációk egyre kevésbé észrevehetők, és ez szépen, finoman tolja el az emberi gondolkodást. Befolyásolja azt – és nem tudjuk, ennek mi lesz a vége.

Míg mondjuk egy oltásellenes mozgalomnál nagyjából pontosan tudjuk, mi mozgatja őket, milyen érvekkel élnek, és milyen hatásai vannak mindennek; tudjuk azt is, hogyan kell egy ilyen mozgalmat társadalmi szinten elszigetelni a többségtől. Egy mesterséges intelligencia esetében viszont fogalmunk sincs, hogy a neki feltett kérdésekre adott válaszok hogyan fogják alakítani és eltolni a közgondolkodást. Lehet, hogy két ember nem ugyanazt a választ kapja ugyanarra a kérdésre – sőt, akár ugyanaz az ember sem, ha kétszer egymás után teszi fel.

A másik probléma a hihetetlen gyorsaság.

Itt az AI-ügynökök kérdését hoznám fel. Az ügynökök segítségével olyan bámulatos sebességgel lehet elterjeszteni bármit, amire egyszerűen nem tudunk időben reagálni, aminek nem tudunk érdemben gátat szabni. Példának a gerjedés folyamatát hoznám. Mindannyian ismerjük: kell hozzá mikrofon és hangfal. Ha közel visszük őket egymáshoz, gerjedés keletkezik, ami nagyon kellemetlen. Úgy oldjuk meg, hogy lehalkítjuk, vagy eltávolítjuk egymástól az eszközöket. Az AI-ügynökök is így tudnak működni: ha nincsenek kellően kontrollált környezetben, könnyen létrejöhet egy olyan állapot, amit nem tudunk időben „elvágni”, letekerni. Kognitív műveleteknél gondoljunk csak arra, mi történik, ha álhíreket gyártanak – a választások alatt is szóba került, hogy Magyarországon  voltak álprofilokból érkező tartalmak. Mi történik, ha egy sok profillal rendelkező, kifejezetten információs műveletekre kihegyezett informatikai környezetben elszabadul egy AI-ügynök? Milyen bődületes sebességgel tud elterjeszteni igaznak tűnő információkat, amelyeknek tömeges hatásuk lesz?

— Hisz a laikus tömeg nehezen is tudja tetten érni. A magyar választás kampányidőszakában hogyan találkozhattunk ezzel a jelenséggel?

— Én az újságcikkeket olvasom, illetve azokat a kutatókat követem, akik kifejezetten dezinformációval foglalkoznak. Nekem csak benyomásaim vannak, és az a benyomásom, hogy közel sem volt ez annyira profin megszervezve, mint amennyire a technológia lehetővé tette volna. Ilyenkor még működik a társadalom immunrendszere is a dezinformációval szemben. Ez a valóságra vonatkozó megélésünk: elhiszünk dolgokat, vagy nem hiszünk el dolgokat.

A jelenlegi választásnál, úgy gondolom, működött a magyar állampolgárok immunrendszere. Illetve volt egy ellendózis, amit független sajtónak nevezünk, és amely kiemelte ezeket a dolgokat.

Egyébként ez az állam feladata lett volna, de ezt most engedjük el. A lényeg, hogy ez működik. Az AI sebességével, AI által terjesztett tartalmaknál – ahol az ügynök képes reagálni a történésekre, adott esetben gyorsabban és „hitelesebben”, mint valaki, aki a billentyűzet mögött ül – a hírek és információk terjedése nehezebben lesz követhető. Nem mondom, hogy ez megtörtént Magyarországon. Azt sem mondom feltétlenül, hogy ez történni fog. Azt mondom, hogy a technológia – különösen az AI-ügynökök elterjedésével – nagyon hamar olyan helyzetet teremthet körülöttünk, amit akkor és ott nem fogunk tudni érdemben befolyásolni, és ennek súlyos következményei lesznek.

— Milyen szerepe lehet az embernek egy olyan környezetben, ahol a dezinformációs rendszerek már képesek automatizáltan tanulni és finomhangolni az üzeneteiket? Mi itt az indító és mi a fogadó oldal szerepe?

— A legfontosabb talán az, hogy az emberiségnek tanulnia kell. Képben kell lenni azzal, hogy létezik a mesterséges intelligencia mint technológia, és legalább felületesen tudni kell, hogy mire képes. A társadalom széles rétege mostanában találkozott olyan szakkifejezésekkel, mint a deepfake. Ez egy olyan technológia, amire nincs társadalmi immunitásunk, és ezt az immunitást úgy tudjuk megszerezni, ha olyan környezetben találkozunk vele, ami még nem fáj annyira. Ez nem jelenti azt, hogy képesek leszünk biztosan felismerni ezeket a tartalmakat. Mindenféle kutatás – itt Magyarországon is – azt mutatja, hogy minél idősebb valaki, annál nehezebben ismeri fel őket. Ez persze nem jelenti azt, hogy a fiatalok 100%-osan képesek detektálni – csak arányaiban jobban, mint az idősebb generáció. De már az, hogy tudjuk: van ilyen, lehetővé teszi, hogy feltegyük a kérdést: vajon ez valós lehet-e? Ez az egyik oldala. A másik, hogy

az AI-vonaton most látszólag nincsen fék, ami roppant fájdalmas.

Az Európai Unió próbál valamiféle fékeket beépíteni a rendszerbe, de úgy tűnik, hogy ebben több nagyhatalom nem érdekelt. A szabályozás – ez a fajta előrelátás – mindenképpen fontos lenne. Őszintén szólva nem látom jelét annak, hogy az államok kellő gondossággal állnának hozzá a mesterséges intelligencia korlátozásához. A harmadik dolog – és ez az OpenAI-val kapcsolatban is felmerül – a felelősség kérdése. Rögtön az volt az első gondolatom, hogy az OpenAI modelljeire nagyon sokan „rákaptak”, köztük olyanok is, akiknek fogalmuk sem volt arról, mit jelent a biztonságos üzemeltetés. És ahogy a szaksajtóban is olvashattuk, történtek olyan malőrök, amelyekre nem nagyon számítottak. Aztán erre jött rá az Anthropic a Mythos modelljével, amit ki sem engedtek hétköznapi használatra. Ha jól emlékszem, 11 szoftvercég kapta meg a modellt azzal a céllal, hogy sebezhetőségeket, hibákat keressenek benne. Vannak modellek, amelyek biztosan nem valók avatatlan kezek közé. Ha mégis odakerülnek, akkor nagyon komoly felelőssége van azoknak, akiknek a kezében ott vannak ezek a modellek, ezek az ügynökök. A szakma sem 100%-ig biztos abban, hogy mindenki képes lesz kellő gondossággal használni őket.

— Beszéltünk arról, hogy a dezinformáció ellen a megcélzott tömeg edukációjával lehet harcolni, és vannak jogi lehetőségek is. De technológiai oldalról milyen hibáik vannak ezeknek a dezinformációs műveleteknek, amelyeket ki lehetne használni? Ezt találta meg az Anthropic a Mythos-szal?

Krasznay Csaba a teljes egészében az AIToday.hu-n olvasható interjú folytatásában arról beszél, hogy

- miért kulcskérdés a társadalom „immunizálása”, például az oktatási rendszeren keresztül,

- bár az uniós DSA kiváló, a nagy technológiai cégek felett hatékonyabb kontrollra lehet szükség,

- harctéri katonai műveletekben konkrétan mire használják a mesterséges intelligenciát,

- milyen jelentősége van és lehet az AI-nak a geopolitika színpadán,

- mennyire gyorsan terjednek az AI-tartalmak – például deepfake videók –, és hogyan képesek befolyásolni a közhangulatot vagy akár egy választást.

FOLYTATÁS ITT.


Link másolása
KÖVESS MINKET:

Ajánljuk