TECH
A Rovatból

Így vívja az AI hidegháborút az USA és Kína – nő a feszültség a technológiai verseny és az okosfegyverek miatt

Miközben Hszi Csin-ping budapesti látogatásával hazánk szorosabbra fűzte kapcsolatát az ázsiai nagyhatalommal, a nyugati országokat aggasztják annak technológiai törekvései. A hidegháború új terepe az AI-fejlesztés, Kína legfőbb ellenfele pedig az USA.


A nyugati féltekét először akkor rázta ki a hideg Kína mesterséges intelligencia fejlesztései kapcsán, amikor a helyi kormányzat 2014-ben kihirdette a nemzeti szintű társadalmi kreditrendszer felépítését. Ennek célja elvileg az lenne, hogy javítsa a közerkölcsöt és ösztönözze a kívánatos viselkedést – csakhogy mindezt a Kínai Kommunista Párt értékrendje határozza meg.

A rendszer az AI-adatfeldolgozást arra használja, hogy folyamatosan megfigyelje és elemezze állampolgárai viselkedését. Azok, akik nem felelnek meg az állampárt normáinak, különböző hátrányokat szenvednek el a jól viselkedő társaikhoz képest. Nehezebben kapnak például hitelt vagy állást, korlátozzák az utazási lehetőségeiket és internet-hozzáférésüket, illetve fokozatosan kirekesztik őket a társadalomból.

Úgy tudni, a kínai kormány 2030-ra kötelezővé teheti, hogy minden állampolgár és vállalkozás részt vegyen a társadalmi kreditrendszerben, amelynek óriási mennyiségű adatát mesterséges intelligencia modellekkel gyűjtik és elemzik.

Kitört az AI hidegháború

A kínai kreditrendszer azonban csak egyetlen terület, ahol a mesterséges intelligenciát felhasználja Kína. Akárcsak az Egyesült Államok, ők is felismerték, mekkora szerepe lesz az AI-nak a jövőben, így azt tűzték ki célul, hogy 2030-ra globális vezető szerepet töltsenek be ezen a területen.

A verseny annyira éles, hogy a Wired újságírói 2018-ban már AI hidegháborúról írtak. Nicholas Thompson és Ian Bremmer szerint egyértelmű, hogy Kína a mesterséges intelligenciát az autoriter kormányzás megerősítésére használja, és figyelmeztették Amerikát, hogy veszélyes lehet felvenni a kesztyűt. Inkább a nemzetközi együttműködés mellett érveltek, mert szerintük csak így szavatolhatók a magánélet védelmére és a mesterséges intelligencia etikus használatára vonatkozó globális normák.

Azóta eltelt majdnem hat év és nagyon nem ebbe az irányba mentek a dolgok.

Thompson és Bremmer valószínűleg a fejét fogja, hiszen az általuk javasolt együttműködés helyett Kína és az USA távolabb talán nem is lehetne attól, hogy közösen dolgozzon az AI etikus felhasználásáért. Mégis, a technológiai előny mérlege az USA felé billen, és ennek elég banálisnak tűnő oka van: a kínai AI-fejlesztés amerikai technológiától függ – állapítja meg a The New York Times.

A lap a kínai 01.AI startup munkájával szemlélteti, mi folyik itt: a vállalat a saját fejlesztésű mesterséges intelligencia rendszerét az amerikai Meta generatív AI-jának, a LLaMA-nak az alternatívájaként mutatta be. És itt jön a csavar: a 01.AI modelljének néhány technológiája egyenesen a LLaMA-tól származik, vagyis

a kínai startup a Meta eredményeire épített, csak éppen új adatokkal is képezte a rendszert.

Ez a helyzet jól példázza a valóságot: miközben az ország versenyt fut a generatív AI fejlesztéséért, a kínai vállalatok szinte teljes mértékben az Egyesült Államokból származó alaprendszerekre támaszkodnak. Több technológiai iparági bennfentes szerint Kína évekkel le van maradva az Egyesült Államokhoz képest a generatív AI-fejlesztésben, és a közeljövőben még nagyobb hátrányba kerülhet, ami a két nemzet közötti, gyilkos technológiai verseny új szakaszát vetíti előre – írja a Times.

Jenny Xiao, az AI-vállalatokkal foglalkozó Leonis Capital befektetési cég partnere szerint a kínai vállalatok által a semmiből felépített modellek „nem túl jók”, ezért a cégek gyakran a nyugati AI-k „finomhangolt változatait” használják. Ő úgy becsülte, hogy

Kína 2-3 éves lemaradásban lehet az Egyesült Államokhoz képest a generatív mesterséges intelligencia fejlesztése terén.

Mivel a kínai cégek az Egyesült Államok nyílt forráskódú AI-modelljeihez fordulva igyekeznek felzárkózni, Washington nehéz helyzetben van. Még ha az Egyesült Államok a mikrochipek értékesítésének korlátozásával és a befektetések visszafogásával próbálta is lassítani Kína fejlődését, a szoftverek nyílt kiadásának gyakorlatát nem akadályozta meg, éppen azért, hogy ösztönözze azok elfogadottságát.

És Kína számára az Egyesült Államokból származó AI-rendszerekre (különösen a LLaMA-ra) való támaszkodás mélyebb kérdéseket vet fel az ország innovációs modelljével kapcsolatban, amely az elmúlt évtizedekben sokakat meglepett azzal, hogy Peking tekintélyelvű hatalmi berendezkedése ellenére olyan világelső cégek jöttek létre, mint az Alibaba és a TikTokot kiadó ByteDance.

A szocialista AI-fejlesztés hátrányai

Nem segíti Kínát az sem, hogy a politikai vezetés totális ellenőrzésre törekszik. A generatív mesterséges intelligencia tavalyi felfutásával egyidőben elkezdtek szigorúbb szabályokat kidolgozni a technológia szabályozására. A Kínai Kibertér Felügyelet olyan rendszert szeretne létrehozni, ami arra kényszeríti a vállalatokat, hogy engedélyt kérjenek az államtól, mielőtt generatív mesterséges intelligencia modelleket adnak ki - mondta a Financial Timesnak két, a kínai szabályozókhoz közel álló személy. Ez a lépés szerintük azt jelzi, hogy

Peking nehezen tudja összeegyeztetni a világelső technológiák fejlesztésére irányuló törekvését a régóta alkalmazott cenzúrával.

Matt Sheehan, a Carnegie Endowment for International Peace washingtoni agytröszt munkatársa azt mondta az FT-nek, „ez az első alkalom, hogy a kínai hatóságok kompromisszumra kényszerülnek a kommunista párt két célja, a mesterséges intelligencia vezető szerepének fenntartása és az információ ellenőrzése között”. Az ennek szellemében tavaly közzétett szabálytervezetek szerint az AI „meg kell, hogy szilárdítsa a szocialista alapértékeket”, és nem tartalmazhat olyasmit, ami „felforgatja az államhatalmat, szorgalmazza a szocialista rendszer megdöntését, elősegíti az ország megosztottságát vagy aláássa a nemzeti egységet”.

Angela Zhang, a Hongkongi Egyetem jogászprofesszora szerint ezek az elvárások egyértelművé teszik a helyzetet: „Kína szabályozási intézkedései elsősorban a tartalomellenőrzésre összpontosítanak”.

Saját szabályai miatt kerül hátrányba Kína az AI hidegháborúban

Ha van rákfenéje egy AI fejlesztésének, az biztosan a képzésére használt tartalmak szűkössége. Márpedig a rendelkezésre álló adatmennyiség szükségszerűen kisebb lesz, ha a kommunista párt kényszeresen ellenőrzi az állampolgárokhoz és a vállalatokhoz – ezáltal az AI-fejlesztőkhöz is – eljutó információkat. Az agyonszabályozás olyan nagyvállalatokat hátráltat, mint az Alibaba és a Baidu, amelyeknek a jóval szabadabban működő, amerikai OpenAI-val (ChatGPT) vagy Google-lal (Gemini) kellene versenyezni.

A kínai hatóságok a rendelettervezetükben arra is utaltak, hogy

az AI-modellt készítő technológiai csoportok szinte teljes mértékben felelősek lennének a létrehozott tartalmakért.

Ez demotiválja a cégeket: kisebb hajlandósággal teszik elérhetővé a generatív modelljeiket, hiszen félnek, hogyha hibáznak, akkor az állampárt ellenségként bánik majd velük. A vállalatok valószínűleg „óvatosabbak és konzervatívabbak lesznek azzal kapcsolatban, hogy milyen AI-t építenek”, mert a szabályok megsértésének súlyos következményei lehetnek – magyarázta az FT-nek Helen Toner, a Georgetowni Egyetem Biztonsági és Feltörekvő Technológiai Központjának egyik vezetője.

Növekszik a feszültség a gondolkodó AI-fegyverek miatt

Miközben fentebb azt írtuk, az AI hidegháború elsősorban technológiai és nem fegyverkezési versenyt jelent, kétségtelen, hogy a mesterséges intelligenciának egyre sötétebb vetületei vannak a világ harcmezőin is. Az ukrán hadsereg AI-vezérelt drónokkal támad vissza, hogy orosz gazdasági létesítményekben okozzon kárt, Izrael pedig a gázai hadműveletek kezdete óta alkalmaz intelligens rendszereket a Hamász terroristáinak keresésére. Az AI-technológia visszavonhatatlanul megjelent és terjed a hadiiparban is.

Az ENSZ leszerelési ügyekkel foglalkozó irodájának vezetője, Izumi Nakamitsu főtitkárhelyettes szerint a nemzetközi szervezet tudatosítani akarja a mesterséges intelligencia katonai alkalmazásának hatásait, azt remélve, hogy ezzel felgyorsítja a nemzetközi szabályozás szükségességéről szóló vitákat. Az NHK Worldnek nyilatkozó tisztviselő jelezte: bár jelenleg a gázai válság kapcsán hallunk az AI bevetéséről, messze nem Izrael az egyetlen ország, ami fejleszt ilyen fegyvereket. Nakamitsu elmondta: komolyan tart attól, hogy

az AI-fegyverek technológiája jelentősen megváltoztatja a háborúk lefolyását és a harcok módját.

Az ENSZ különösen aggódik a halált okozó autonóm fegyverrendszerek (LAWS) miatt, ugyanis ezek emberi utasítások nélkül választják ki és támadják meg a célpontokat. Antonio Guterres ENSZ-főtitkár tavaly szólította fel a tagállamokat, hogy 2026-ig fogadjanak el jogilag kötelező érvényű keretet a LAWS alkalmazásával kapcsolatban, mivel jelenleg nincsenek rájuk vonatkozó nemzetközi szabályok.

Ezzel kapcsolatban Nakamitsu a technológiát már fejlesztő és a technológiát nem fejlesztő országok között tátongó szakadékokról is beszélt. Mint mondta, a nagy katonai hatalmak (mint Kína és az Egyesült Államok) igyekeznek vezető szerepet szerezni a LAWS-fejlesztésekben, de közben terroristacsoportok és más szervezetek is felhasználhatják a mesterséges intelligenciát.

A Foreign Affairs arról ír: az amerikai Védelmi Minisztérium 2022 tavaszán hozta létre a Digitális és Mesterséges Intelligencia Hivatalt, 2023 novemberében pedig közzétette az AI-val kapcsolatos technológiák átvételére vonatkozó stratégiáját. Optimista módon arról számoltak be, hogy „az adatok, az analitika és az AI-technológiák legújabb fejlesztései lehetővé teszik a vezetők számára, hogy gyorsabban hozzanak jobb döntéseket, a tanácstermekben vagy akár a harctéren”. Ennek megfelelően

az AI-alapú technológiákat már alkalmazzák is: az amerikai csapatok például AI-képes rendszerekkel választottak ki húti célpontokat a Közel-Keleten.

A Foreign Affairs szerint ugyanakkor a hadseregeknek fel kell ismerniük, hogy a mesterséges intelligencia viselkedése teljesen soha nem garantálható, különösen akkor, amikor ritka és nehéz döntéseket kell meghozni egy háborúval kapcsolatban.


Link másolása
KÖVESS MINKET:

Népszerű
Ajánljuk
Címlapról ajánljuk


TECH
A Rovatból
Egy ártatlan AI-karikatúrának indult, de a zsarolók már az arcodra és a pénzedre utaznak
A közösségi médiában terjedő AI-trend során a felhasználók tömegesen töltenek fel fotókat. A kiberbűnözők ezekkel élnek vissza, ami ellen már az FBI is fellép.


„Készíts karikatúrát rólam, mindabból, amit tudsz!” – néhány nap alatt ez lett a közösségi médiák új varázsmondata. A hírfolyamokat elárasztották a mesterséges intelligencia által generált, vicces vagy éppen elgondolkodtató portrék, amelyeket a felhasználók magukról és a munkájukról kértek.

A játékos önkifejezésnek tűnő trend azonban egy sokkal sötétebb oldalt is rejt: miközben az emberek fotókat és részletes önleírást töltenek fel a szórakoztató képekért cserébe, az opportunista oldalak ugyanígy gyűjtik az arcunkat, a szokásainkat és néha a bankkártyánkat is. A kérdés ma már nem az, hogy menő-e az AI-karikatúra, hanem az, hogy mennyit ér meg egy mém a magánszféránkból.

A február elején elterjedt jelenség lényege, hogy a felhasználók arra kérik a ChatGPT-t, hogy a róluk elérhető vagy általuk megadott információk, illetve egy feltöltött szelfi alapján készítsen karikatúrát.

A folyamat azonban gyakran arra ösztönzi az embereket, hogy egyre több személyes részletet osszanak meg a pontosabb eredmény érdekében. Ezt a hullámot lovagolják meg a külső oldalak és alkalmazások, amelyek „ChatGPT-stílusú” karikatúrák ígéretével csalogatják magukhoz a gyanútlan érdeklődőket.

A legkomolyabb veszélyt a biometrikus adataink, vagyis az arcvonásaink kiadása jelenti.

A feltöltött fotók ugyanis nemcsak egy képet, hanem egyedi azonosító jegyeket is tartalmaznak, amelyeket a rendszerek megtanulhatnak és tárolhatnak. Ezekkel az adatokkal később visszaélhetnek, például nem beleegyezésen alapuló, manipulatív képek, úgynevezett deepfake-ek létrehozására.

Az amerikai Szövetségi Nyomozó Iroda már 2023-ban külön figyelmeztetést adott ki a szintetikus képekkel elkövetett zsarolásokról, amelyek különösen a fiatalkorúakat érintik, és tartós pszichés károkat okozhatnak.

„A szexuális tartalmú zsarolás (sextortion) következményei országszerte érezhetők” – fogalmazott Christopher Wray, az FBI igazgatója.

Nemcsak a zsarolók, hanem a hétköznapi csalók is felfedezték az AI-arcokban rejlő lehetőséget. A Meta fenyegetéselhárítási vezetője, Ben Nimmo már 2022-ben arról beszélt, hogy a közösségi oldalakon felszámolt csaló hálózatok több mint kétharmada mesterségesen generált profilképeket használt a hitelesség látszatának megteremtésére. „Ezek lényegében olyan emberek fotói, akik nem is léteznek” – mondta.

A folyamat pszichológiai csapdája, hogy ha a felhasználók a kapott karikatúrát „nem elég pontosnak” érzik, hajlamosak még több kontextust és személyes adatot megadni. „Ha az eredmény nem pontos, a felhasználók egyszerűen több kontextust adnak hozzá, gyakran rendkívül személyes adatokkal” – mondta a Forbes-ban Matt Conlon, a Cytidel kiberbiztonsági cég társalapító-vezérigazgatója.

A reputációnkat is kockáztatjuk, hiszen a nők képeiből a rendszer aránytalanul gyakran készített túlszexualizált kimeneteket, sőt, kiskorúakról készült fotókat is elfogadhatatlan módon alakított át. Az Egyesült Királyságban február 7-én lépett életbe az a törvény, amely bűncselekménynek minősíti a beleegyezés nélküli szexuális deepfake képek létrehozását.

„A mai nap egy igazán emlékezetes nap” – nyilatkozta az egyik áldozat. Az Európai Unió AI-rendelete pedig 2026 augusztusától teszi kötelezővé a deepfake-tartalmak egyértelmű megjelölését.

A legfontosabb tanács, hogy ne töltsünk fel valós fotót, ha nem muszáj. Helyette adjunk részletes leírást az arcformánkról, hajszínünkről és öltözékünkről. Az OpenAI hivatalos felületén lehetőség van kikapcsolni a tréningcélú adatmegosztást a beállításokban, illetve használhatunk ideiglenes csevegést is, amelynek tartalmát 30 nap után törlik.

Kerüljük az ismeretlen domaineken futó, „ingyenes karikatúra” hirdetéseket, és soha ne töltsünk fel kiskorúakról készült képet ilyen szolgáltatásba. Egyes klónoldalak, mint a Caricature Bot, már 9 dollárért, azaz nagyjából 3300 forintért kínálnak csomagokat, miközben adatvédelmi tájékoztatójuk homályos vagy hiányos.

via Forbes


Link másolása
KÖVESS MINKET:

Ajánljuk
TECH
A Rovatból
Halálos támadások után lépett Elon Musk: egy egyszerű korlátozással kapcsolja le az orosz kamikaze drónokat a Starlinkről
A SpaceX 75 km/órás sebességkorlátot vezetett be a Starlink-terminálokra, így azok használhatatlanná válnak a gyors orosz drónokon. Kijev szerint a lépés „kézzelfogható eredményeket” hozott az oroszok ellen.


Egy ukrán tisztviselő szerint „kézzelfogható eredményeket hoztak” Elon Musk erőfeszítései, amelyekkel igyekszik megakadályozni, hogy Oroszország a Starlink műholdakat dróntámadásokhoz használja.

A Starlink-technológiát korábban több halálos támadással is összefüggésbe hozták, köztük egy mozgó személyvonat elleni csapással, amelyben hatan haltak meg

– írta a BBC News.

Mihajlo Fedorov védelmi miniszter szerint a SpaceX alapítója gyorsan reagált, amikor értesítették arról, hogy Starlink-kapcsolattal rendelkező orosz drónok működnek az országban.

Musk maga is megerősítette a lépéseket az X-en. „Úgy tűnik, hogy az oroszok Starlink jogosulatlan használatának megállítására tett lépéseink működtek. Szóljanak, ha még többre van szükség” – írta.

Bár a felek nem részletezték a válaszlépéseket, a védelmi minisztérium hivatalos oldala, az ArmiyaInform szerint a SpaceX 75 km/órás sebességkorlátot vezetett be az Ukrajna felett mozgó Starlink-terminálokra.

„Az orosz drónok ennél sokkal gyorsabban haladnak, így az ellenséges operátorok nem lesznek képesek valós időben irányítani őket” – közölte a weboldal.

Emellett az ukrán kormány egy fehérlista bevezetését is tervezi, amelyen csak a jóváhagyott Starlink-terminálok szerepelhetnek. A nem regisztrált eszközöket lekapcsolják. „Ezt a SpaceX-szel együttműködésben valósítjuk meg” – mondta Fedorov.

A Háború Tanulmányozásának Intézete január közepén arra figyelmeztetett:

mióta Oroszország elkezdte Starlinkkel felszerelni az olcsó Molniya-2 kamikaze drónokat, azok harctéri hatékonysága „drámaian” megnőtt.

Ezeket a drónokat Fedorov miniszter szerint nehéz lelőni, mivel alacsonyan repülnek, elektronikus hadviseléssel nem lehet elhárítani őket, és az operátorok távolról, valós időben irányítják őket. Orosz háborús bloggerek arra figyelmeztettek, hogy a következmények túlmutathatnak a drónokon, mivel az orosz hadsereg a Starlinket a frontvonal internetellátására is használja.

Egyébként Fedorov – akkor még miniszterelnök-helyettesként – volt az, aki 2022 februárjában, nem sokkal Moszkva teljes körű inváziója után segítséget kért Musktól, aki még aznap engedélyezte a Starlinket Ukrajnában. A kapcsolatuk azonban hamar viharossá vált.

Musk 2022-ben megtagadta az ukrán hadseregtől a Starlink-hozzáférést a Krímben, azzal indokolva a döntést, hogy Ukrajna a szolgáltatást arra használta volna, hogy „elsüllyessze az orosz flotta nagy részét”, amivel a SpaceX „egy súlyos hadicselekmény bűnrészese” lett volna.

Musk azóta többször bírálta a nyugati országokat, amiért finanszírozást és fegyvereket nyújtanak Ukrajnának. „Őrültség továbbra is ennyi pénzt küldeni Ukrajnának elszámoltathatóság és végcél nélkül” – mondta. Ugyanakkor azt is kijelentette, hogy „bármennyire is nem értek egyet az Ukrajnával kapcsolatos politikával, a Starlink soha nem fogja kikapcsolni a termináljait”. Márciusban pedig úgy fogalmazott: „A Starlink-rendszerem az ukrán hadsereg gerince. Az egész frontvonaluk összeomlana, ha kikapcsolnám.” A feszültségek ellenére Fedorov a múlt héten ismét méltatta Musk időben meghozott döntését, mondván, a Starlink „kritikusan fontos volt államunk stabilitása szempontjából”.


Link másolása
KÖVESS MINKET:

Ajánljuk

TECH
A Rovatból
Veszélyes anyagok oldódhatnak ki a fejhallgatódból, a legdrágább márkák is megbuktak a teszten
A kutatás mind a 81 vizsgált modellben talált káros vegyületeket, köztük Magyarországon is. A legtöbb termékben kimutatott biszfenol A (BPA) rákkeltő és idegrendszeri károsodást okozhat.


Riasztó eredményre jutott egy friss, Európai Unió által támogatott kutatás:

minden egyes vizsgált fejhallgatóban találtak az egészségre veszélyes vegyi anyagokat.

A ToxFree Life for All projekt keretében 81 különböző, Európában – köztük Magyarországon is – forgalmazott fejhallgatót elemeztek, és kivétel nélkül mindegyik bőrrel érintkező részében kimutatták a káros anyagok jelenlétét.

A kutatók a termékekben többek között biszfenolokat, ftalátokat és égésgátlókat azonosítottak. Különösen a biszfenol A (BPA) jelenléte aggasztó, amelyet a legtöbb fejhallgatóban megtaláltak – írja a Blikk. A kutatás szerint ez az anyag számos egészségi problémával, például rákkal és idegrendszeri zavarokkal hozható összefüggésbe, emellett megzavarhatja a hormonrendszer működését is.

„Ez az egész iparág kudarca. Úgy tűnik, sem a jól ismert márkák, sem az olcsó fejhallgatók gyártói nem képesek méreganyagmentes termékeket előállítani” – mondta Jitka Straková, a tanulmány vezető szerzője és a cseh Arnika környezetvédelmi szervezet kutatója. A probléma tehát nemcsak az olcsó, hanem a drága, prémium kategóriás termékeket is érinti.

A kutatók hangsúlyozzák, hogy

bár az anyagok általában megkötött formában vannak jelen, izzadás vagy hő hatására a bőrön keresztül a szervezetbe juthatnak.

Ez különösen azokat érintheti, akik sportolás közben használják a fejhallgatókat. Az igazi veszélyt a hosszú távú, gyakori használatból eredő kitettség jelenti, főként azért, mert a hormonrendszert befolyásoló anyagok esetében nincs biztonságos minimummennyiség.

A kutatók ezért a jelenlegi szabályozási gyakorlat felülvizsgálatát sürgetik. „Felszólítjuk az EU intézményeit, hogy tiltsák be az összes biszfenolt és az összes mérgező égésgátlót minden termékben, mert a fogyasztóknak joguk van tudni, hogy az uniós piacon lévő termékek biztonságosak, függetlenül attól, hogy mit és hol vásárolnak” – tette hozzá Straková. A javaslat szerint a hatóságoknak nem egyesével kellene korlátozniuk a veszélyes anyagokat, hanem teljes anyagosztályokra kellene átfogó szabályozást bevezetniük.

A ToxFree projekt korábban már más termékek esetében is jelzett hasonló problémákat. Egy tavalyi vizsgálatuk során ismert márkák cumijaiban, egy korábbi elemzésben pedig a Magyarországon is kapható fehérneműk egyharmadában találtak biszfenolokat.


Link másolása
KÖVESS MINKET:

Ajánljuk

TECH
A Rovatból
„Képesek zavarni, vakítani, manipulálni vagy akár fizikailag kiiktatni a műholdakat”– Orosz kémműholdak követik és hallgatják le az európaiakat
A Lucs-program orosz eszközei a Földről érkező, titkosítatlan parancsjeleket rögzíthetik a célműholdak közelében. Ez a jövőben lehetővé teheti a műholdak pályájának manipulálását és a szolgáltatások megbénítását.


36 ezer kilométerrel a fejünk felett hallgatózhatnak az oroszok. A Financial Times szerdai oknyomozása szerint két orosz kémműhold az elmúlt három évben szisztematikusan követett és veszélyesen megközelített több tucat európai kommunikációs szatellitet.

Európai hírszerzési források attól tartanak, hogy a Lucs–1 és Lucs–2 néven azonosított eszközök célja a műholdak parancskapcsolatainak lehallgatása lehet, ami a jövőben akár az irányításuk átvételére is lehetőséget adhat.

A gyanú szerint az orosz műholdak hetekig vagy akár hónapokig is „leparkolnak” egy-egy kiszemelt európai szatellit közvetlen közelében, hogy rögzítsék a Földről érkező, a működésüket irányító parancsjeleket.

A kockázat különösen a régebbi, még titkosítatlan kommunikációs protokollokat használó eszközöknél magas, mivel az elfogott adatokkal később a támadó utánozhatja a földi irányítást, és a műholdat akár a pályájának elhagyására vagy üzemanyag-pazarló manőverekre is kényszerítheti. Az aggodalmakat nemcsak hírszerzési jelentések, hanem nyílt forrású megfigyelések is alátámasztják. Az Aldoria nevű francia űrmegfigyelő cég tavaly áprilisban egy „hirtelen közeli megközelítést” észlelt, amikor a Lucs–2 mindössze 10–50 kilométerre repült el egy geostacionárius műhold mellett.

A jelenség nem teljesen új, de a mostani tevékenység minden korábbinál kiterjedtebb.

Franciaország már 2018-ban kémkedéssel vádolta Oroszországot, miután a Lucs-program egy korábbi műholdja túlságosan megközelítette az Athena-Fidus nevű francia–olasz katonai szatellitet. A helyzet súlyosságát jelzi, hogy az európai kormányok is egyre nyíltabban beszélnek a fenyegetésről. Boris Pistorius német védelmi miniszter tavaly szeptemberben drámai hangú beszédben figyelmeztetett. „Képesek zavarni, vakítani, manipulálni vagy akár fizikailag kiiktatni a műholdakat” – mondta az AP hírügynökség tudósítása szerint, majd bejelentette, hogy Németország a következő öt évben 35 milliárd eurót, vagyis átszámítva közel 13 300 milliárd forintot fordít űr- és űrvédelmi programokra.

A Kreml következetesen tagadja a vádakat, és visszautasítja, hogy militarizálná a világűrt.

„Nem sértünk meg semmit. Ismételten a fegyverek világűrbe telepítésének tilalmát szorgalmaztuk” – közölte a Reuters hírügynökséggel Dmitrij Peszkov szóvivő egy korábbi, hasonló témájú nyilatkozatában. Az orosz álláspont szerint a műveleteik a nemzetközi jognak megfelelően zajlanak.

Eközben a program egyik eredeti eszköze, a Lucs–1 január végén egy „temetőpályán” – ahová a kiöregedett műholdakat irányítják – eddig tisztázatlan okokból darabokra hullott, ami tovább növeli a pályán keringő űrszemét mennyiségét. A megfigyelési feladatokat ettől függetlenül a modernebb Lucs–2 továbbra is aktívan végzi.


Link másolása
KÖVESS MINKET:

Ajánljuk