Így automatizálták a halálos csapásokat Gázában - Izrael mesterséges intelligenciával vadászik a Hamász tagjaira
Az elmúlt hetekben rengeteg információ látott napvilágot arról, hogyan használják a mesterséges intelligenciát éles körülmények között a különböző csatatereken. A Bloomberg például arról írt, hogy az Egyesült Államok egy mesterséges intelligencia alapú rendszer, a Maven Smart System segítségével azonosította az orosz katonai felszerelések helyét Ukrajnában, majd az ukránok GPS-vezérelte eszközökkel vették célba ezeket.
A Mavent eredetileg a drónok által gyűjtött hatalmas mennyiségű videó- és képanyag gyors és pontos elemzésére tervezték. Azóta azonban jelentős fejlődésen ment keresztül, és immár rengeteg különböző adatforrásokból származó információt képes feldolgozni, például esőn, füstön és felhőkön is átlátni képes radarok és infravörös érzékelők képeit, vagy okostelefonokból és a közösségi médiából származó adatokat. A Maven Smart System ezek alapján egy olyan térképet állít össze, amin a parancsnokok egy pillantással átláthatják az egész csatateret. A rendszer kijelöli a potenciális célpontokat is, amikre ezután képesek csapást mérni.
Ennél jóval nagyobb visszhangot váltott ki a +972 Magazin és a Local Call oknyomozó cikke, amely szerint Izrael jelenleg is egy mesterséges intelligencia alapú célpontazonosító technológiát használ a Gázai övezetben a Hamasz és a Palesztin Iszlám Dzsihád tagjainak azonosítására és célbavételére. Nevük elhallgatását kérő hírszerzők a lapnak elmondták: a háború első heteiben a hadsereg szinte teljes mértékben a Lavenderre támaszkodott, és a rendszer rövid idő alatt 37 ezer palesztinról állapította meg, hogy feltehetőleg terrorista.
A cikk szerint az izraeliek meghatározták, mekkora "járulékos kárral" járhat egy-egy célpont megölése. Ez az alacsonyabb rangúaknál 15-20 civilt jelentett, a magasabb rangúaknál viszont akár százat is.
Hamas rocket launch posts were found embedded inside a humanitarian area in western Khan Yunis.
The IDF confirmed the evacuation of civilians before IAF fighter jets precisely struck the 3 rocket launch posts.
This is just another example of Hamas’ exploitation of the civilian… pic.twitter.com/NVkRL3UawK
— Israel Defense Forces (@IDF) April 8, 2024
Egy forrás, aki a Lavendert kiképző katonai adattudományos csapattal dolgozott, azt mondta, a Hamász vezette belbiztonsági minisztérium alkalmazottairól gyűjtött adatokat is betáplálták az AI tanítására használt rendszerbe, holott irodai munkát végző hivatalnokok, nem harcosok, akik bárkire is közvetlen veszélyt jelentenének.
A hírszerző hozzátette: még ha úgy is gondoljuk, hogy ezek az emberek megérdemlik a halált, a Lavender a kommunikációs profil alapján történő kiképzése miatt nagyobb valószínűséggel választhatott ki tévedésből civileket, amikor az algoritmusait a lakosság adatainak elemzésére alkalmazták.
„Csak azt ellenőriztük, hogy a célpont férfi-e”
Az izraeli hadsereg tagadta , hogy mesterséges intelligenciát használ az emberi célpontok kiválasztására. Szerintük a Lavender csak egy „adatbázis, amelynek célja a hírszerzési források kereszthivatkozása”.
Ezek „csupán segédeszközök, amelyek segítik a tiszteket a gyanúsítás folyamatában” - állították a +972-nek és a Local Callnak. Hozzátették, az sem igaz, hogy a bombázások részben vagy egészben AI-utasításra, további mérlegelés nélkül történnének.
„Minden esetben szükség van egy elemző személy független vizsgálatára, aki ellenőrzi, hogy az azonosított célpontok legitim célpontok-e, és a megtámadásuk összhangban áll-e az IDF irányelveiben, valamint a nemzetközi jogban meghatározott feltételekkel” - mondják.
Az IDF-ben korábban szolgáló források ehhez képest azt állították, hogy
A Hamász és az Iszlám Dzsihád harcosai között ugyanis nincsenek nők.
Donate to my friends to help #Gaza https://t.co/2Dnr6NsGG3
— Ruwaida Amer (@ruwaidaamer8) April 16, 2024
Bár a rendszert nem automatizálták teljesen, tehát a döntési láncban továbbra is van egy ember, a lap szerint egy-egy jóváhagyásra alig 20 másodperc jut.
„Egy ember csak néhány másodpercet kap az ellenőrzésre” - fogalmazott a Local Call egyik forrása, aki szerint azután vált ilyen gyorssá a gyakorlat, hogy arra jutottak, a Lavender az esetek többségében „jól teszi” a dolgát.
„Eleinte ellenőriztük, hogy a gép összezavarodott-e, de egy ponton túl már az automatikus rendszerre hagyatkoztunk, és csak azt ellenőriztük, hogy a célpont fiatalabb férfi-e. Ennyi elég volt, és nem tartott sokáig megállapítani, hogy valakinek férfi vagy női hangja van-e”.
A katona hozzátette: a legnagyobb probléma az, hogy nem állt rendelkezésére olyan felügyeleti mechanizmus, ami a hibát felismerte volna. Márpedig előfordult, hogy egy korábban Hamász tagként azonosított személy átadta a telefonját egy másik férfinek, mondjuk a fiának vagy testvérének, akit aztán a házában lebombáztak, a családjával együtt. „Ez gyakran megtörtént. Ebből származott a legtöbb hiba, amit a Lavender elkövetett.”
Miért az otthonokat támadják?
Az izraeli hadsereg kivégzési protokolljának célpontazonosítást követő lépése az, hogy meghatározzák: hol üssenek rajta a Lavender által generált célpontokon.
Az IDF szerint „a Hamász a lakott területek közelében helyezi el az operatív és katonai eszközeit, ezzel szisztematikusan emberi pajzsként használja a civileket, így a kórházakat, mecseteket, iskolákat és ENSZ-létesítményeket is”.
A +972 Magazinnak és a Local Callnak nyilatkozó izraeli hírszerzők megerősítették, hogy a Hamász kiterjedt alagútrendszere szándékosan halad át civil infrastruktúra alatt, a Hamász harcosai ráadásul a felszínen gyakran mentőautókkal közlekednek, így próbálva elkerülni a támadást.
Ugyanakkor Izrael is szisztematikusan támad célpontokat magánházakban, ahol családtagok, szomszédok is tartózkodhatnak.
Annak érdekében pedig, hogy valós időben tudják azonosítani: a célpontok mikor lépnek be a házukba, különböző szoftvereket fejlesztettek ki. Ezek a programok egyidejűleg több ezer személyt követnek nyomon, azonosítják, hogy mikor tartózkodnak otthon és riasztást küldenek a célpontot kijelölő tisztnek. A nyomkövető szoftver neve „Where's Daddy?”, vagyis „hol van apuci?”
A leghalálosabb támadás, amiben a +972 és a Local Call forrásai részt vettek, egyben az egyik legismertebb is. A Hamász Központi Gázai Brigádjának parancsnoka, Ayman Nofal 2023. október 17-én esett áldozatul egy izraeli légicsapásnak, miután a terroristát a Lavender megjelölte.
A támadást az IDF az Al-Bureij menekülttábor ellen indította Nofal miatt, és a vezér likvidálása érdekében mintegy 300 civil megölését is engedélyezték.
?قبل قليل...
قصف مخيم البريج وسط قطاع غزة وتدمير حي سكني بالكامل pic.twitter.com/3ggZceVFeW
— رؤى لدراسات الحرب (@Roaastudies) October 17, 2023
A Lavenderről szóló híreket Antonio Guterres, az ENSZ főtitkára „mélyen aggasztónak” nevezte a The Times of Israel cikke szerint.
– mondta.
Elke Schwarzot, a londoni Queen Mary Egyetem katonai mesterséges intelligenciák etikájával foglalkozó szakértőjét azonban egyáltalán nem lepték meg sem a Lavenderről, sem a Mavenről szóló hírek.
„Ezeknek az AI-rendszereknek az a vonzereje, hogy ilyen gyorsan és ilyen hatalmas léptékben működnek, ami sok-sok célpontot jelent rövid időn belül. Így az ember egyfajta automatává válik, amely megnyomja a gombot” - fogalmazott a Vox-nak.