Kiderült, az emberi kontroll rontja az autonóm fegyverrendszerek hatékonyságát
Az amerikai katonai stratégák szerint a robotkatonák teljesítményét ronthatja az emberi beavatkozás. Ugyanakkor az emberi felügyelet nélkül hagyott, hadászati célú mesterséges intelligencia súlyos etikai kérdéseket vethet fel, mindenekelőtt a felelősség terén – írja a New Scientist.
A SESU-projektben (System-of-Systems Enhanced Small Unit) például egy 2-300 főből álló egységet drónok és robotok rajával erősítenének meg. Olyan övezetekben vetnék be őket, ahol az ellenség tartja ellenőrzése alatt a légteret, de ennek ellenére képesek lennének legyőzni a túlerőt is.
A SESU működéséhez nagyszámú robotot kell egyszerre ellenőrizni és irányítani. A hatékonyság érdekében nem lenne külön emberi kontroll mindegyik drón és robot felett, hanem mesterséges intelligencia segítségével működnének és széles körű autonómiát kapnának. A kutatók októberben mutatták be az ezzel kapcsolatos virtuális szimulációkat Washingtonban az amerikai hadsereg jövőjéről szóló parancsnoki konferencián.
„Nagyon érdekes megfigyelni, hogy a mesterséges intelligencia hogyan fedez fel magától nagyon trükkös taktikákat”
– mondta a hadsereg egy névtelenséget kérő vezetője. Ugyanakkor a kísérletből az is kiderült, hogy az operátorok a szimulációk során többször is meg akarták állítani a drónokat és a robotokat, mert az adott pillanatban nem értették, mit miért csinálnak. Ha viszont ezt éles harci helyzetben megengedik, akkor az katasztrofális következményekkel járhat.
„Ha lelassítjuk a mesterséges intelligenciát emberi sebességre, veszítünk”
– mondta a program vezetője.
Ez az első alkalom, hogy a kutatók tanulmányozhatták a SESU működését, amelyért a DARPA 45 millió dolláros jutalmat adott még az év elején a vele szerződő Raytheonnak, Northrop Grummannek és a Collins Aerospace-nek.
Az amerikai védelmi minisztérium hivatalosan jelenleg az olyan katonai mesterséges intelligenciák kifejlesztését szorgalmazza, amelyeket ésszerű emberi ellenőrzés alatt tartanak. A SESU esete azonban rámutat arra, hogy a túlzott emberi kontroll kockáztathatja a hadműveletek hatékonyságát.
A gyors, taktikai döntéshozatal kulcsfontosságú előnye a mesterséges intelligenciának, mert ezáltal könnyű győzelmet lehet aratni a lassabban reagáló ellenség felett – mondta Robert Bunker, a C/O Futures tanácsadó cég munkatársa, aki az idén tanulmányt tett közé a fegyveres robotok hatékony ellenőrzéséről.
Stuart Russell, a kaliforniai egyetem professzora azonban attól tart, a részleges autonómiától és részleges emberi ellenőrzéstől egy éles háborús helyzetben gyorsan el lehet jutni a fegyverek teljes önállóságáig.
Az autonóm fegyverrendszerek ellen etikai okokból már régóta kampányoló tudós szerint éppen a mostani kutatások világítanak rá arra, hogy törvényi ellenőrzésre van szükség az ilyen technológiák felett. Nem azt akarja elérni, hogy teljesen tiltsák be ezeket, de bizonyos helyzetekben korlátozhatná az önállóságukat.
Russell csak a tenger alatti hadviselésben, vagy a nagyobb méretű harci eszközöknél – harckocsiknál, harci repülőgépeknél, hajóknál – engedné a teljes fegyverautonómiát, és betiltaná az ember ellen rajszerűen bevethető fegyvereket.
A nagy kérdés az, hogyan lehet egyensúlyban tartani a katonai hatékonyságot és az biztonsági/etikai szempontokat.