TECH
A Rovatból

Így vívja az AI hidegháborút az USA és Kína – nő a feszültség a technológiai verseny és az okosfegyverek miatt

Miközben Hszi Csin-ping budapesti látogatásával hazánk szorosabbra fűzte kapcsolatát az ázsiai nagyhatalommal, a nyugati országokat aggasztják annak technológiai törekvései. A hidegháború új terepe az AI-fejlesztés, Kína legfőbb ellenfele pedig az USA.


A nyugati féltekét először akkor rázta ki a hideg Kína mesterséges intelligencia fejlesztései kapcsán, amikor a helyi kormányzat 2014-ben kihirdette a nemzeti szintű társadalmi kreditrendszer felépítését. Ennek célja elvileg az lenne, hogy javítsa a közerkölcsöt és ösztönözze a kívánatos viselkedést – csakhogy mindezt a Kínai Kommunista Párt értékrendje határozza meg.

A rendszer az AI-adatfeldolgozást arra használja, hogy folyamatosan megfigyelje és elemezze állampolgárai viselkedését. Azok, akik nem felelnek meg az állampárt normáinak, különböző hátrányokat szenvednek el a jól viselkedő társaikhoz képest. Nehezebben kapnak például hitelt vagy állást, korlátozzák az utazási lehetőségeiket és internet-hozzáférésüket, illetve fokozatosan kirekesztik őket a társadalomból.

Úgy tudni, a kínai kormány 2030-ra kötelezővé teheti, hogy minden állampolgár és vállalkozás részt vegyen a társadalmi kreditrendszerben, amelynek óriási mennyiségű adatát mesterséges intelligencia modellekkel gyűjtik és elemzik.

Kitört az AI hidegháború

A kínai kreditrendszer azonban csak egyetlen terület, ahol a mesterséges intelligenciát felhasználja Kína. Akárcsak az Egyesült Államok, ők is felismerték, mekkora szerepe lesz az AI-nak a jövőben, így azt tűzték ki célul, hogy 2030-ra globális vezető szerepet töltsenek be ezen a területen.

A verseny annyira éles, hogy a Wired újságírói 2018-ban már AI hidegháborúról írtak. Nicholas Thompson és Ian Bremmer szerint egyértelmű, hogy Kína a mesterséges intelligenciát az autoriter kormányzás megerősítésére használja, és figyelmeztették Amerikát, hogy veszélyes lehet felvenni a kesztyűt. Inkább a nemzetközi együttműködés mellett érveltek, mert szerintük csak így szavatolhatók a magánélet védelmére és a mesterséges intelligencia etikus használatára vonatkozó globális normák.

Azóta eltelt majdnem hat év és nagyon nem ebbe az irányba mentek a dolgok.

Thompson és Bremmer valószínűleg a fejét fogja, hiszen az általuk javasolt együttműködés helyett Kína és az USA távolabb talán nem is lehetne attól, hogy közösen dolgozzon az AI etikus felhasználásáért. Mégis, a technológiai előny mérlege az USA felé billen, és ennek elég banálisnak tűnő oka van: a kínai AI-fejlesztés amerikai technológiától függ – állapítja meg a The New York Times.

A lap a kínai 01.AI startup munkájával szemlélteti, mi folyik itt: a vállalat a saját fejlesztésű mesterséges intelligencia rendszerét az amerikai Meta generatív AI-jának, a LLaMA-nak az alternatívájaként mutatta be. És itt jön a csavar: a 01.AI modelljének néhány technológiája egyenesen a LLaMA-tól származik, vagyis

a kínai startup a Meta eredményeire épített, csak éppen új adatokkal is képezte a rendszert.

Ez a helyzet jól példázza a valóságot: miközben az ország versenyt fut a generatív AI fejlesztéséért, a kínai vállalatok szinte teljes mértékben az Egyesült Államokból származó alaprendszerekre támaszkodnak. Több technológiai iparági bennfentes szerint Kína évekkel le van maradva az Egyesült Államokhoz képest a generatív AI-fejlesztésben, és a közeljövőben még nagyobb hátrányba kerülhet, ami a két nemzet közötti, gyilkos technológiai verseny új szakaszát vetíti előre – írja a Times.

Jenny Xiao, az AI-vállalatokkal foglalkozó Leonis Capital befektetési cég partnere szerint a kínai vállalatok által a semmiből felépített modellek „nem túl jók”, ezért a cégek gyakran a nyugati AI-k „finomhangolt változatait” használják. Ő úgy becsülte, hogy

Kína 2-3 éves lemaradásban lehet az Egyesült Államokhoz képest a generatív mesterséges intelligencia fejlesztése terén.

Mivel a kínai cégek az Egyesült Államok nyílt forráskódú AI-modelljeihez fordulva igyekeznek felzárkózni, Washington nehéz helyzetben van. Még ha az Egyesült Államok a mikrochipek értékesítésének korlátozásával és a befektetések visszafogásával próbálta is lassítani Kína fejlődését, a szoftverek nyílt kiadásának gyakorlatát nem akadályozta meg, éppen azért, hogy ösztönözze azok elfogadottságát.

És Kína számára az Egyesült Államokból származó AI-rendszerekre (különösen a LLaMA-ra) való támaszkodás mélyebb kérdéseket vet fel az ország innovációs modelljével kapcsolatban, amely az elmúlt évtizedekben sokakat meglepett azzal, hogy Peking tekintélyelvű hatalmi berendezkedése ellenére olyan világelső cégek jöttek létre, mint az Alibaba és a TikTokot kiadó ByteDance.

A szocialista AI-fejlesztés hátrányai

Nem segíti Kínát az sem, hogy a politikai vezetés totális ellenőrzésre törekszik. A generatív mesterséges intelligencia tavalyi felfutásával egyidőben elkezdtek szigorúbb szabályokat kidolgozni a technológia szabályozására. A Kínai Kibertér Felügyelet olyan rendszert szeretne létrehozni, ami arra kényszeríti a vállalatokat, hogy engedélyt kérjenek az államtól, mielőtt generatív mesterséges intelligencia modelleket adnak ki - mondta a Financial Timesnak két, a kínai szabályozókhoz közel álló személy. Ez a lépés szerintük azt jelzi, hogy

Peking nehezen tudja összeegyeztetni a világelső technológiák fejlesztésére irányuló törekvését a régóta alkalmazott cenzúrával.

Matt Sheehan, a Carnegie Endowment for International Peace washingtoni agytröszt munkatársa azt mondta az FT-nek, „ez az első alkalom, hogy a kínai hatóságok kompromisszumra kényszerülnek a kommunista párt két célja, a mesterséges intelligencia vezető szerepének fenntartása és az információ ellenőrzése között”. Az ennek szellemében tavaly közzétett szabálytervezetek szerint az AI „meg kell, hogy szilárdítsa a szocialista alapértékeket”, és nem tartalmazhat olyasmit, ami „felforgatja az államhatalmat, szorgalmazza a szocialista rendszer megdöntését, elősegíti az ország megosztottságát vagy aláássa a nemzeti egységet”.

Angela Zhang, a Hongkongi Egyetem jogászprofesszora szerint ezek az elvárások egyértelművé teszik a helyzetet: „Kína szabályozási intézkedései elsősorban a tartalomellenőrzésre összpontosítanak”.

Saját szabályai miatt kerül hátrányba Kína az AI hidegháborúban

Ha van rákfenéje egy AI fejlesztésének, az biztosan a képzésére használt tartalmak szűkössége. Márpedig a rendelkezésre álló adatmennyiség szükségszerűen kisebb lesz, ha a kommunista párt kényszeresen ellenőrzi az állampolgárokhoz és a vállalatokhoz – ezáltal az AI-fejlesztőkhöz is – eljutó információkat. Az agyonszabályozás olyan nagyvállalatokat hátráltat, mint az Alibaba és a Baidu, amelyeknek a jóval szabadabban működő, amerikai OpenAI-val (ChatGPT) vagy Google-lal (Gemini) kellene versenyezni.

A kínai hatóságok a rendelettervezetükben arra is utaltak, hogy

az AI-modellt készítő technológiai csoportok szinte teljes mértékben felelősek lennének a létrehozott tartalmakért.

Ez demotiválja a cégeket: kisebb hajlandósággal teszik elérhetővé a generatív modelljeiket, hiszen félnek, hogyha hibáznak, akkor az állampárt ellenségként bánik majd velük. A vállalatok valószínűleg „óvatosabbak és konzervatívabbak lesznek azzal kapcsolatban, hogy milyen AI-t építenek”, mert a szabályok megsértésének súlyos következményei lehetnek – magyarázta az FT-nek Helen Toner, a Georgetowni Egyetem Biztonsági és Feltörekvő Technológiai Központjának egyik vezetője.

Növekszik a feszültség a gondolkodó AI-fegyverek miatt

Miközben fentebb azt írtuk, az AI hidegháború elsősorban technológiai és nem fegyverkezési versenyt jelent, kétségtelen, hogy a mesterséges intelligenciának egyre sötétebb vetületei vannak a világ harcmezőin is. Az ukrán hadsereg AI-vezérelt drónokkal támad vissza, hogy orosz gazdasági létesítményekben okozzon kárt, Izrael pedig a gázai hadműveletek kezdete óta alkalmaz intelligens rendszereket a Hamász terroristáinak keresésére. Az AI-technológia visszavonhatatlanul megjelent és terjed a hadiiparban is.

Az ENSZ leszerelési ügyekkel foglalkozó irodájának vezetője, Izumi Nakamitsu főtitkárhelyettes szerint a nemzetközi szervezet tudatosítani akarja a mesterséges intelligencia katonai alkalmazásának hatásait, azt remélve, hogy ezzel felgyorsítja a nemzetközi szabályozás szükségességéről szóló vitákat. Az NHK Worldnek nyilatkozó tisztviselő jelezte: bár jelenleg a gázai válság kapcsán hallunk az AI bevetéséről, messze nem Izrael az egyetlen ország, ami fejleszt ilyen fegyvereket. Nakamitsu elmondta: komolyan tart attól, hogy

az AI-fegyverek technológiája jelentősen megváltoztatja a háborúk lefolyását és a harcok módját.

Az ENSZ különösen aggódik a halált okozó autonóm fegyverrendszerek (LAWS) miatt, ugyanis ezek emberi utasítások nélkül választják ki és támadják meg a célpontokat. Antonio Guterres ENSZ-főtitkár tavaly szólította fel a tagállamokat, hogy 2026-ig fogadjanak el jogilag kötelező érvényű keretet a LAWS alkalmazásával kapcsolatban, mivel jelenleg nincsenek rájuk vonatkozó nemzetközi szabályok.

Ezzel kapcsolatban Nakamitsu a technológiát már fejlesztő és a technológiát nem fejlesztő országok között tátongó szakadékokról is beszélt. Mint mondta, a nagy katonai hatalmak (mint Kína és az Egyesült Államok) igyekeznek vezető szerepet szerezni a LAWS-fejlesztésekben, de közben terroristacsoportok és más szervezetek is felhasználhatják a mesterséges intelligenciát.

A Foreign Affairs arról ír: az amerikai Védelmi Minisztérium 2022 tavaszán hozta létre a Digitális és Mesterséges Intelligencia Hivatalt, 2023 novemberében pedig közzétette az AI-val kapcsolatos technológiák átvételére vonatkozó stratégiáját. Optimista módon arról számoltak be, hogy „az adatok, az analitika és az AI-technológiák legújabb fejlesztései lehetővé teszik a vezetők számára, hogy gyorsabban hozzanak jobb döntéseket, a tanácstermekben vagy akár a harctéren”. Ennek megfelelően

az AI-alapú technológiákat már alkalmazzák is: az amerikai csapatok például AI-képes rendszerekkel választottak ki húti célpontokat a Közel-Keleten.

A Foreign Affairs szerint ugyanakkor a hadseregeknek fel kell ismerniük, hogy a mesterséges intelligencia viselkedése teljesen soha nem garantálható, különösen akkor, amikor ritka és nehéz döntéseket kell meghozni egy háborúval kapcsolatban.


Link másolása
KÖVESS MINKET:

Népszerű
Ajánljuk
Címlapról ajánljuk


TECH
A Rovatból
Egy ártatlan AI-karikatúrának indult, de a zsarolók már az arcodra és a pénzedre utaznak
A közösségi médiában terjedő AI-trend során a felhasználók tömegesen töltenek fel fotókat. A kiberbűnözők ezekkel élnek vissza, ami ellen már az FBI is fellép.


„Készíts karikatúrát rólam, mindabból, amit tudsz!” – néhány nap alatt ez lett a közösségi médiák új varázsmondata. A hírfolyamokat elárasztották a mesterséges intelligencia által generált, vicces vagy éppen elgondolkodtató portrék, amelyeket a felhasználók magukról és a munkájukról kértek.

A játékos önkifejezésnek tűnő trend azonban egy sokkal sötétebb oldalt is rejt: miközben az emberek fotókat és részletes önleírást töltenek fel a szórakoztató képekért cserébe, az opportunista oldalak ugyanígy gyűjtik az arcunkat, a szokásainkat és néha a bankkártyánkat is. A kérdés ma már nem az, hogy menő-e az AI-karikatúra, hanem az, hogy mennyit ér meg egy mém a magánszféránkból.

A február elején elterjedt jelenség lényege, hogy a felhasználók arra kérik a ChatGPT-t, hogy a róluk elérhető vagy általuk megadott információk, illetve egy feltöltött szelfi alapján készítsen karikatúrát.

A folyamat azonban gyakran arra ösztönzi az embereket, hogy egyre több személyes részletet osszanak meg a pontosabb eredmény érdekében. Ezt a hullámot lovagolják meg a külső oldalak és alkalmazások, amelyek „ChatGPT-stílusú” karikatúrák ígéretével csalogatják magukhoz a gyanútlan érdeklődőket.

A legkomolyabb veszélyt a biometrikus adataink, vagyis az arcvonásaink kiadása jelenti.

A feltöltött fotók ugyanis nemcsak egy képet, hanem egyedi azonosító jegyeket is tartalmaznak, amelyeket a rendszerek megtanulhatnak és tárolhatnak. Ezekkel az adatokkal később visszaélhetnek, például nem beleegyezésen alapuló, manipulatív képek, úgynevezett deepfake-ek létrehozására.

Az amerikai Szövetségi Nyomozó Iroda már 2023-ban külön figyelmeztetést adott ki a szintetikus képekkel elkövetett zsarolásokról, amelyek különösen a fiatalkorúakat érintik, és tartós pszichés károkat okozhatnak.

„A szexuális tartalmú zsarolás (sextortion) következményei országszerte érezhetők” – fogalmazott Christopher Wray, az FBI igazgatója.

Nemcsak a zsarolók, hanem a hétköznapi csalók is felfedezték az AI-arcokban rejlő lehetőséget. A Meta fenyegetéselhárítási vezetője, Ben Nimmo már 2022-ben arról beszélt, hogy a közösségi oldalakon felszámolt csaló hálózatok több mint kétharmada mesterségesen generált profilképeket használt a hitelesség látszatának megteremtésére. „Ezek lényegében olyan emberek fotói, akik nem is léteznek” – mondta.

A folyamat pszichológiai csapdája, hogy ha a felhasználók a kapott karikatúrát „nem elég pontosnak” érzik, hajlamosak még több kontextust és személyes adatot megadni. „Ha az eredmény nem pontos, a felhasználók egyszerűen több kontextust adnak hozzá, gyakran rendkívül személyes adatokkal” – mondta a Forbes-ban Matt Conlon, a Cytidel kiberbiztonsági cég társalapító-vezérigazgatója.

A reputációnkat is kockáztatjuk, hiszen a nők képeiből a rendszer aránytalanul gyakran készített túlszexualizált kimeneteket, sőt, kiskorúakról készült fotókat is elfogadhatatlan módon alakított át. Az Egyesült Királyságban február 7-én lépett életbe az a törvény, amely bűncselekménynek minősíti a beleegyezés nélküli szexuális deepfake képek létrehozását.

„A mai nap egy igazán emlékezetes nap” – nyilatkozta az egyik áldozat. Az Európai Unió AI-rendelete pedig 2026 augusztusától teszi kötelezővé a deepfake-tartalmak egyértelmű megjelölését.

A legfontosabb tanács, hogy ne töltsünk fel valós fotót, ha nem muszáj. Helyette adjunk részletes leírást az arcformánkról, hajszínünkről és öltözékünkről. Az OpenAI hivatalos felületén lehetőség van kikapcsolni a tréningcélú adatmegosztást a beállításokban, illetve használhatunk ideiglenes csevegést is, amelynek tartalmát 30 nap után törlik.

Kerüljük az ismeretlen domaineken futó, „ingyenes karikatúra” hirdetéseket, és soha ne töltsünk fel kiskorúakról készült képet ilyen szolgáltatásba. Egyes klónoldalak, mint a Caricature Bot, már 9 dollárért, azaz nagyjából 3300 forintért kínálnak csomagokat, miközben adatvédelmi tájékoztatójuk homályos vagy hiányos.

via Forbes


Link másolása
KÖVESS MINKET:

Ajánljuk
TECH
A Rovatból
Veszélyes anyagok oldódhatnak ki a fejhallgatódból, a legdrágább márkák is megbuktak a teszten
A kutatás mind a 81 vizsgált modellben talált káros vegyületeket, köztük Magyarországon is. A legtöbb termékben kimutatott biszfenol A (BPA) rákkeltő és idegrendszeri károsodást okozhat.


Riasztó eredményre jutott egy friss, Európai Unió által támogatott kutatás:

minden egyes vizsgált fejhallgatóban találtak az egészségre veszélyes vegyi anyagokat.

A ToxFree Life for All projekt keretében 81 különböző, Európában – köztük Magyarországon is – forgalmazott fejhallgatót elemeztek, és kivétel nélkül mindegyik bőrrel érintkező részében kimutatták a káros anyagok jelenlétét.

A kutatók a termékekben többek között biszfenolokat, ftalátokat és égésgátlókat azonosítottak. Különösen a biszfenol A (BPA) jelenléte aggasztó, amelyet a legtöbb fejhallgatóban megtaláltak – írja a Blikk. A kutatás szerint ez az anyag számos egészségi problémával, például rákkal és idegrendszeri zavarokkal hozható összefüggésbe, emellett megzavarhatja a hormonrendszer működését is.

„Ez az egész iparág kudarca. Úgy tűnik, sem a jól ismert márkák, sem az olcsó fejhallgatók gyártói nem képesek méreganyagmentes termékeket előállítani” – mondta Jitka Straková, a tanulmány vezető szerzője és a cseh Arnika környezetvédelmi szervezet kutatója. A probléma tehát nemcsak az olcsó, hanem a drága, prémium kategóriás termékeket is érinti.

A kutatók hangsúlyozzák, hogy

bár az anyagok általában megkötött formában vannak jelen, izzadás vagy hő hatására a bőrön keresztül a szervezetbe juthatnak.

Ez különösen azokat érintheti, akik sportolás közben használják a fejhallgatókat. Az igazi veszélyt a hosszú távú, gyakori használatból eredő kitettség jelenti, főként azért, mert a hormonrendszert befolyásoló anyagok esetében nincs biztonságos minimummennyiség.

A kutatók ezért a jelenlegi szabályozási gyakorlat felülvizsgálatát sürgetik. „Felszólítjuk az EU intézményeit, hogy tiltsák be az összes biszfenolt és az összes mérgező égésgátlót minden termékben, mert a fogyasztóknak joguk van tudni, hogy az uniós piacon lévő termékek biztonságosak, függetlenül attól, hogy mit és hol vásárolnak” – tette hozzá Straková. A javaslat szerint a hatóságoknak nem egyesével kellene korlátozniuk a veszélyes anyagokat, hanem teljes anyagosztályokra kellene átfogó szabályozást bevezetniük.

A ToxFree projekt korábban már más termékek esetében is jelzett hasonló problémákat. Egy tavalyi vizsgálatuk során ismert márkák cumijaiban, egy korábbi elemzésben pedig a Magyarországon is kapható fehérneműk egyharmadában találtak biszfenolokat.


Link másolása
KÖVESS MINKET:

Ajánljuk

TECH
A Rovatból
„Képesek zavarni, vakítani, manipulálni vagy akár fizikailag kiiktatni a műholdakat”– Orosz kémműholdak követik és hallgatják le az európaiakat
A Lucs-program orosz eszközei a Földről érkező, titkosítatlan parancsjeleket rögzíthetik a célműholdak közelében. Ez a jövőben lehetővé teheti a műholdak pályájának manipulálását és a szolgáltatások megbénítását.


36 ezer kilométerrel a fejünk felett hallgatózhatnak az oroszok. A Financial Times szerdai oknyomozása szerint két orosz kémműhold az elmúlt három évben szisztematikusan követett és veszélyesen megközelített több tucat európai kommunikációs szatellitet.

Európai hírszerzési források attól tartanak, hogy a Lucs–1 és Lucs–2 néven azonosított eszközök célja a műholdak parancskapcsolatainak lehallgatása lehet, ami a jövőben akár az irányításuk átvételére is lehetőséget adhat.

A gyanú szerint az orosz műholdak hetekig vagy akár hónapokig is „leparkolnak” egy-egy kiszemelt európai szatellit közvetlen közelében, hogy rögzítsék a Földről érkező, a működésüket irányító parancsjeleket.

A kockázat különösen a régebbi, még titkosítatlan kommunikációs protokollokat használó eszközöknél magas, mivel az elfogott adatokkal később a támadó utánozhatja a földi irányítást, és a műholdat akár a pályájának elhagyására vagy üzemanyag-pazarló manőverekre is kényszerítheti. Az aggodalmakat nemcsak hírszerzési jelentések, hanem nyílt forrású megfigyelések is alátámasztják. Az Aldoria nevű francia űrmegfigyelő cég tavaly áprilisban egy „hirtelen közeli megközelítést” észlelt, amikor a Lucs–2 mindössze 10–50 kilométerre repült el egy geostacionárius műhold mellett.

A jelenség nem teljesen új, de a mostani tevékenység minden korábbinál kiterjedtebb.

Franciaország már 2018-ban kémkedéssel vádolta Oroszországot, miután a Lucs-program egy korábbi műholdja túlságosan megközelítette az Athena-Fidus nevű francia–olasz katonai szatellitet. A helyzet súlyosságát jelzi, hogy az európai kormányok is egyre nyíltabban beszélnek a fenyegetésről. Boris Pistorius német védelmi miniszter tavaly szeptemberben drámai hangú beszédben figyelmeztetett. „Képesek zavarni, vakítani, manipulálni vagy akár fizikailag kiiktatni a műholdakat” – mondta az AP hírügynökség tudósítása szerint, majd bejelentette, hogy Németország a következő öt évben 35 milliárd eurót, vagyis átszámítva közel 13 300 milliárd forintot fordít űr- és űrvédelmi programokra.

A Kreml következetesen tagadja a vádakat, és visszautasítja, hogy militarizálná a világűrt.

„Nem sértünk meg semmit. Ismételten a fegyverek világűrbe telepítésének tilalmát szorgalmaztuk” – közölte a Reuters hírügynökséggel Dmitrij Peszkov szóvivő egy korábbi, hasonló témájú nyilatkozatában. Az orosz álláspont szerint a műveleteik a nemzetközi jognak megfelelően zajlanak.

Eközben a program egyik eredeti eszköze, a Lucs–1 január végén egy „temetőpályán” – ahová a kiöregedett műholdakat irányítják – eddig tisztázatlan okokból darabokra hullott, ami tovább növeli a pályán keringő űrszemét mennyiségét. A megfigyelési feladatokat ettől függetlenül a modernebb Lucs–2 továbbra is aktívan végzi.


Link másolása
KÖVESS MINKET:

Ajánljuk

TECH
A Rovatból
„Ugyanannyit vagy még többet dolgozol” – egy szoftvermérnök leplezte le, hogyan hajszol kiégésbe a mesterséges intelligencia
Rekordmennyiségű kódot szállítanak, mégis sosem látott fáradtságról számolnak be a szoftvermérnökök. Munkájuk az AI miatt a kreatív alkotás helyett folyamatos ellenőrzéssé és lektorálássá vált.


A mesterséges intelligencia nem levette a terhet a vállunkról, hanem láthatatlanul felgyorsítja a tempót, szétfeszíti a munkaköri határokat, és bekúszik az ebédszünetbe is - írja az AIToday.

Egy friss, nyolc hónapon át tartó terepkutatás szerint

a csodafegyvernek hitt eszközök, ha nem használjuk őket tudatosan, könnyen a kiégés katalizátorává válhatnak.

A Berkeley Egyetem Haas Üzleti Iskolájának kutatói, Aruna Ranganathan és Xingqi Maggie Ye egy kétszáz fős amerikai technológiai cégnél vizsgálták tavaly április és december között, hogyan hat a generatív AI a dolgozókra – írja a Harvard Business Review. Arra jutottak, hogy a technológia nem csökkenti, hanem rendszerszerűen felerősíti a munkát, ami intenzívebbé, sűrűbbé és megterhelőbbé vált.

A munka felerősödésének három fő csatornáját azonosították.

Az egyik a felgyorsult munkaritmus: amikor az AI pillanatok alatt elvégez egy korábban órákig tartó részfeladatot, az nem felszabaduló időt eredményez, hanem feljebb tolja az elvárásokat, és a gyorsabb teljesítés lesz az új norma.

A másik a feladatspektrum kitágulása, mivel az AI azonnali tudásforrásként arra ösztönzi a munkavállalókat, hogy átlépjék szakmai határaikat: a vizsgálat során a termékmenedzserek elkezdtek kódot írni, a kutatók pedig mérnöki feladatokat vettek át.

A harmadik a munkaidő bekúszó növekedése: a dolgozók a néhány perces mikromunkákat, például a promptírást vagy egy generált válasz átnézését, a szüneteikben vagy este végezték el. „Ezek a cselekedetek ritkán tűntek plusz munkának, mégis idővel egy olyan munkanapot eredményeztek, amelyben kevesebb a természetes szünet és folyamatosabb a munkával való elfoglaltság” – írták a kutatók.

A gyorsulás magasabb tempót diktál, ami még inkább az AI használatára készteti a dolgozókat, a megnövekedett függőség pedig egyre szélesebb feladatkörök elvállalására ösztönöz. A végeredmény az egyre „szünetmentesebbé” váló munkanap, ami kognitív fáradtsághoz és a kiégés kockázatának drámai növekedéséhez vezet. „Azt gondoltad, hogy mivel produktívabb lehetsz az AI-jal, megspórolsz némi időt, és kevesebbet kell dolgoznod. De a valóságban nem dolgozol kevesebbet. Ugyanannyit vagy még többet dolgozol” – mondta az egyik, a kutatásban részt vevő mérnök.

A terepbeszámolók szerint a dolgozók több párhuzamos szálat futtattak, egyszerre dolgoztak a saját kódjukon és ellenőrizték az AI által generált alternatívát, ami az állandó váltogatással és a kritikus felülvizsgálat kényszerével a nap végére mentálisan kimeríti őket. Ezt támasztja alá Siddhant Khare szoftvermérnök tapasztalata is. „Az elmúlt negyedévben több kódot szállítottam, mint a karrierem bármelyik negyedévében. Ugyanakkor fáradtabbnak is éreztem magam, mint a karrierem bármelyik negyedévében.” Khare szerint a munka természete is átalakulóban van: „Régen mérnöknek hívtuk, most már inkább olyan, mint egy lektor.”

A kép azonban nem mindenhol ennyire borús.

Az egészségügyben az adminisztrációs feladatokat átvevő AI-asszisztensek drámai mértékben csökkentették a kiégést.

A JAMA Network Open tudományos folyóiratban tavaly augusztusban megjelent, 1430 orvos bevonásával készült kutatás szerint az úgynevezett „ambient” AI-diktálási technológia, amely a háttérben hallgatva automatikusan elkészíti a betegdokumentációt, forradalmi változást hozott. A Mass General Brigham egészségügyi rendszerben 84 nap alatt 50,6 százalékról 30,7 százalékra esett vissza a kiégéssel küzdő orvosok aránya. „Orvosaink azt mondják, visszakapták az estéiket és a hétvégéiket, illetve újra felfedezték a gyógyítás örömét. Nincs még egy beavatkozás a szakterületünkön, ami ilyen mértékben hat a kiégésre” – mondta Rebecca Mishuris, az intézmény informatikai vezetője.

Mindeközben a globális munkaerőpiacon a munkavállalók több mint háromnegyede úgy érzi, a technológia bevezetése óta nőtt a terhelésük. Az Upwork Research Institute 2024-es, 2500 fős felmérése szerint a dolgozók 77 százaléka érzi úgy, hogy

az AI bevezetése óta nőtt a munkaterhelése, minden harmadik pedig a túlterheltség miatt fontolgatja a felmondást.

Az Institute for the Future of Work brit kutatóintézet szintén tavaly publikált tanulmánya szerint a legújabb technológiák gyakoribb használata kéz a kézben jár az alacsonyabb életminőséggel. A legszorosabb algoritmikus kontrollt gyakran a platformgazdaság dolgozói szenvedik el: egy 953 ételfutár körében tavaly áprilisban végzett vizsgálat kimutatta, hogy a kiégés közepes szintje széles körben elterjedt a szektorban.

A kutatók szerint a megoldás nem az AI elvetése, hanem egy tudatos keretrendszer, egyfajta „AI-praktika” intézményesítése lenne. Ez magában foglalja a használat tudatos indítási és leállítási pontjainak kijelölését, a hasonló jellegű AI-feladatok egy blokkban történő elvégzését, valamint az emberi kontroll számára dedikált idősávok beiktatását. A vezetésnek egyértelmű normákat kell felállítania arról, mikor és hogyan használják a dolgozók ezeket az eszközöket, és mikor nem. Jó stratégia lehet a napi AI-használati ablakok kijelölése, a „mélymunka-sávok” tudatos védelme, valamint a saját alapkompetenciák frissen tartása a feladatok AI nélküli elvégzésével.

Részletesebben ITT olvashatsz.


Link másolása
KÖVESS MINKET:

Ajánljuk