JÖVŐ
A Rovatból

Tényleg úgy néz ki, mint Elon Musk – így dőlnek be sokan az AI-val készült, hamis videóknak

„Deepfake Elon Musk” sokak egész nyugdíját elvitte. Ő az új nigériai herceg, csak ő sokkal hatásosabban foszt ki gyanútlan embereket, akik bedőlnek a mesterséges intelligenciával generált videókban kínált befektetési lehetőségeknek.


Az online világ mindig is tele volt veszélyekkel, a digitális bűnözés pedig egyidős a világhálóval. Bár mostanra nevetségesen átlátszónak tűnik a kamu nigériai herceg e-mailje, amiben sokszoros kamatra kért kölcsön random emberektől, az adott korszak technológiai lehetőségeihez képest igenis hatásos csalás volt.

A gyanútlan emberek kifosztási lehetőségeit aztán tovább bővítették a közösségi média platformok. Az ipari méretűvé dagadt dezinformálás miatt ma már szinte romantikusnak tűnik az amerikai katonatiszt története, aki a személyes találkozással kecsegtetve vallott szerelmet magányos nők százezreinek, csak fizessék ki végre a repülőjegy árát. Napjainkban ezeknél sokkal kifinomultabb módszerekkel kell szembenézni:

az elképesztő tempóban fejlődő generatív mesterséges intelligencia technológiák hiteles emberekre megszólalásig hasonlító digitális klónokat szülnek.

A csalás pedig automatizálható: már nem kellenek a fiktív karakterek mögé emberek, akik csevegve csalják lépre az áldozatokat. Elég egy meggyőző kamu videó, amire a benne szereplő ismert személy miatt az egész világon tömegek figyelnek fel, és egy online ügyintéző felület, a pénz utalására.

Az AI-alapú deepfake technológia lehetővé tette, hogy manipulált videók ezrei terjedjenek el. Sok gyanútlan befektető rajta is vesztett olyan hamis befektetési lehetőségeken, amilyeneket a világ leggazdagabb embereként ismert Elon Musk – pontosabban annak AI-val generált digitális mása ajánlott.

Érdekes iróniája ez a sorsnak, hiszen a Tesla és a SpaceX mellett a Twitter-utód X-et is birtokló milliárdos nemrég maga is megosztott egy AI-val generált videót, amelyben az általa támogatott Donald Trump ellenfele, Kamala Harris szájába adtak vállalhatatlan mondatokat.

Deepfake Elon Musk az egész nyugdíját elvitte

A New York Times különösen szemléletesnek tartotta, ezért a riportjában ki is emelte (a sok közül) a 82 éves Steve Beauchamp történetét.

A nyugdíjas mindössze a családját akarta támogatni egy jó befektetéssel, amikor „kapóra jött neki” Elon Musk forradalmi befektetési lehetőséget és gyors hozamokat ígérő videója. Az idős férfi elhitte, hogy az igazi dollármilliárdosról van szó, így számlát nyitott a videót megosztó kamu cégnél, először csak 248 dollárral (kb. 90 ezer forinttal). Néhány hét alatt aztán több tranzakciót is végrehajtott, míg végül csaknem 690.000 dollárt (közel 248 millió forintot) fektetett be – az egész nyugdíjszámlájának kiürítése árán. Végül a pénz persze eltűnt, nyoma sem maradt.

„Lehet, hogy mesterséges intelligenciával csinálták, hogy azt mondja, amit mondott, de a kinézete – ha azt kérték volna, hogy mutassak rá egy sorban, biztosan őt választom"

– nyilatkozta a lapnak Beauchamp, egyértelművé téve, hogy a videón látott személy az ő számára a megtévesztésig hasonlított Elon Muskra.

Az áldozat az ehhez hasonló tartalmakat magából egyenesen okádó Facebookon látta a videót, és nem esett le neki, hogy amit néz, az valójában deepfake, vagyis AI-val manipulált hamisítvány. A kiberbűnözők egyébként egy valódi Musk-interjút használtak fel, átszerkesztették annak hangját egy AI-eszközzel, és még a szájmozgásokat is tökéletesen szinkronizálták az új forgatókönyvvel.

Az efféle hamisítványok olyan tökéletesek, hogy egy átlagos néző számára szinte észrevehetetlenek. Hogy ez mennyire igaz, azt az alábbi videó remekül szemlélteti.

Deepfake Elon Musk példa

Ahogy az osztott kijelző jobb oldalán látható kamu Musk (pontosabban a demonstrációs célú videót készítő etikus alkotó) mondja, „ez egy deepfake példa arra, hogy mire képes egy jó számítógép és szerkesztőprogram”. Hozzáteszi: az elkészítése egy erős grafikus processzor használatával 72 órát vett igénybe, de „további számítási kapacitással még jobb eredményt lehetne elérni”, miközben az emberek 90 százalékban már ezt sem tudják megkülönböztetni az eredetitől.

Vadul terjed a deepfake-csalás

Az utóbbi hónapokban több ezer olyan AI-vezérelt deepfake videó került fel az internetre, amelyek hamis Elon Muskokat használtak potenciális befektetők megtévesztésére – meglehetősen sikeresen. A New York Times elemzésekre hivatkozva úgy becsüli, hogy az ilyen generált videók évente több milliárd dollárt húznak ki az emberek zsebéből. Mindeközben ezeket a tartalmakat fillérekből elő lehet állítani, és ha megfelelően erős hardver áll rendelkezésre, akár percek alatt elkészülhetnek.

A videókat jellemzően a hamisítványok kiszűrésében továbbra is dilettánsnak tűnő közösségi médiában, például a Facebookon terjesztik, ráadásul gyakran fizetett hirdetésként, ami azt jelenti, hogy

a platform többszöri szűrés után sem képes megállapítani, hogy kamuról van szó, vagy rosszabb: fizetés ellenében hidegen hagyja, hogy rosszindulatú tartalom terjesztéséhez járul hozzá.

Francesco Cavalli, a deepfake-eket figyelő és elemző Sensity társalapítója szerint az Elon Musk arcát és hangját felhasználó videó „valószínűleg a legnagyobb deepfake által vezérelt csalás”, amit valaha látott a világ. A technológia révén ezek a videók gyakran szinte hátborzongatóan élethűek, mint az, aminek a fent írt nyugdíjas is bedőlt, hiszen gyakorlatilag hibátlanul hozta Musk jellegzetes akcentusát és beszédstílusát. A világ leggazdagabb emberei közé tartozó milliárdos amúgy a leggyakrabban használt mintája a deepfake csalásoknak, különösen a kriptovalutákra összpontosító kampányokban.

Hogyan készül a deepfake?

Mivel a generatív AI fejlődése gyors és megállíthatatlan, muszáj felkészülni rá, hogy gyakorlatilag bárkivel bármit ki lehet mondatni, ha a cél emberek meggyőzése – vagy a pénzük átadásáról, vagy a politikai, vallási, társadalmi értékrendjük megváltoztatásáról. Óriási árnyoldala ez egy olyan technológiának, ami a civilizáció fejlődését pozitív irányba is lökdöshetné – ahelyett, hogy megfelelő fékek és kontrollok nélkül mindenki játékszerévé teszik, ahogy anno a közösségi médiát (és látjuk, mi lett belőle).

A deepfake-ek gyártása meglepően egyszerű és olcsó folyamat, következésképp tömegek számára hozzáférhető. Az AI hangmásoló eszközeivel bármilyen híresség hangját klónozni lehet. Ezzel addig nincs is gond, amíg az veszélytelen szórakozási céllal történik. Itt éppen Orbán Viktor énekli meg Gyurcsány Ferenc választási győzelmét:

Az AI-val manipulált hang birtokában szájmozgásokat manipulálni képes videógeneráló alkalmazásra van szükség, és ha a szoftver kellően kifinomult, a számítógép grafikus teljesítménye pedig kellően magas, akkor megtévesztően hitelesnek tetsző tartalmak születhetnek.

Még élethűbb hamis tartalmak, még kiszolgáltatottabb felhasználók

A generatív AI-val készült tartalmakkal elsősorban technológiai háttérismeretekkel kevésbé rendelkező, és a hírekkel kapcsolatban nem elég kritikus embereket lehet megtéveszteni. Jól példázza ezt a fent írt Kamala Harris videó, amiben az amerikai elnökjelölt az őt támogató Joe Bident szenilisnek, magát pedig az ország vezetésére alkalmatlannak nevezi, aki csak azért lett demokrata elnökjelölt, mert színesbőrű nőként diverzitási aduásznak számít.

A híreket hiteles forrásból követők számára egyértelmű, hogy Harris – nyilvánosan legalábbis – biztosan nem mondana ilyesmit, tehát kamu videóról van szó.

Musk megosztását követően viszont 150 millióan látták

írja az NBC News, és jócskán akadhattak köztük olyanok, akiknek a politikai véleményét befolyásolta a tartalom, főleg úgy, hogy egy sokak szemében hiteles közszereplő tette közzé, ráadásul olyan, aki politikailag szembe helyezi magát Harris-szel.

Amikor nem dezinformálás, hanem közvetlen lopás a cél, hasonló dolog történik: arra ugyan hiteles személyt nem lehet felkérni, hogy maga ossza meg az arca és hangja felhasználásával készült kamu tartalmat, ám a hitelesség látszatát elő lehet idézni – például úgy, hogy a befektetési tanácsot egy valódinak tűnő, online pénzügyi konferencia álcája alá rejtik. Az a tény, hogy a videón látszólag valós személy oszt meg igaznak tűnő állításokat, és mindez valóságosnak tűnő, nyilvános esemény keretei közé helyeződik, sokaknak már elég, hogy előkotorják a bankkártyát és fizessenek.

Beauchamp esetében viszont ennél is tovább mentek a csalók: nem elég, hogy az idős férfi elhitte azt, amit látott és fizetett, még újabb befektetési lehetőségekkel is kecsegtették – olyan hamis visszaigazolásokat küldve, amelyek a tőkéje növekedését mutatták. Akkor azonban, amikor ki akarta venni a pénzét, egy sor adminisztratív díjat és jutalékot kellett fizetnie, míg végül a teljes nyugdíjmegtakarítása odaveszett.

Fel kellene venni a kesztyűt a terjesztők ellen

Ahogy sok állam különbséget tesz a drogbirtoklás és a drogterjesztés között, érdemes lenne azokat fülön csípni, akik révén a kamu tartalmak eljutnak az emberekhez.

Ezzel próbálkozik mostanában egy ausztrál milliárdos, aki szintén deepfake videók áldozata lett – számolt be a The Guardian.

Andrew Forrest beperelte a Facebookot működtető Metát, amiért annak hirdetési rendszere „ártatlan felhasználókat vesz rá rossz befektetésekre”. A Meta erre azt nyilatkozta, hogy folyamatosan fejlesztik az AI-alapú automatikus észlelési rendszereiket, hogy kiszűrjék a csalókat, de szerintük véget nem érő harcról van szó:

a jól finanszírozott bűnözők folyamatosan változtatják a módszereiket, hogy elkerüljék a lebukást, de ennek az egésznek a levét valahogy mindig a felhasználók, a kisemberek isszák meg.

Ettől függetlenül valóban vannak próbálkozások: a YouTube például szintén igyekszik harcolni a manipulált videók és a csalások ellen. A NY Times szerint csak 2024 első negyedévében több mint 15,7 millió csatornát és 8,2 millió videót töröltek a közösségi irányelvek megsértése miatt. A YouTube emellett kötelezővé tette, hogy a tartalomkészítők jelöljék, ha AI-alapú technológiát használnak videóikban – kérdés, hogy ezt megteszik-e, és ha nem, azt a jövőben hogyan szándékoznak kiszűrni.

Van vége ennek az egésznek?

Lou Steinberg, a CTM Insights alapítója szerint „a szervezett bűnözés rájött, hogy pénzt tud csinálni az AI-ból, így egyre több és több kísérlet lesz”. Az AI-generált videók egyre jobbak, és a jövőben valószínűleg még hitelesebbé válnak. Az egyéni felhasználók számára a legfontosabb tanulság az, hogy mindig kritikusan, természetes kételkedéssel álljanak hozzá az online látott tartalmakhoz, különösen, ha pénzről vagy befektetésekről van szó! A valószínűtlenül magas hozamok például mindig gyanúsak, és ha egy ajánlat túl szép ahhoz, hogy igaz legyen, akkor valószínűleg nem is az.

Ami pedig a nem túl távoli jövő választási kampányait illeti, elég valószínű, hogy egymást érik majd a Kamala Harriséhez hasonló videók, amelyekkel az egyik politikai oldal igyekszik ellehetetleníteni a másikat – például az opponens vezéregyéniség hitelének rombolásával.

Egy szoros választási versenyben néhány száz szavazat eldöntheti választókörzetek sorsát, így a parlament összetételét is. Ami biztosan a demokrácia hanyatlásához vezet – csak az a kérdés, mikor? Nagy szükség lenne a deepfake tartalmak terjesztésének mihamarabbi szankcionálására, illetve arra, hogy a társadalom tudatosabb hírfogyasztóvá váljon. Mert ha minden úgy megy tovább, ahogy most, akkor óriási baj lesz.


Link másolása
KÖVESS MINKET:

Népszerű
Ajánljuk
Címlapról ajánljuk


JÖVŐ
A Rovatból
„A legsötétebb nap” – Trump környezetvédelmi ügynöksége eltörli a legfontosabb környezetvédelmi szabályokat
Több tucat szabályozást vonnak vissza. Az ügynökség új vezetője szerint véget ér a "zöld átverés" kora, és a jövőben azon dolgoznak majd, hogy megszűnjön a jogi felhatalmazásuk a szén-dioxid és más üvegházhatású gázok szabályozására.


A Trump-kormányzat bejelentette, hogy visszavonja az ország több tucat környezetvédelmi szabályozását, köztük a kipufogógázokra és gyárkéményekre vonatkozó szennyezési határértékeket, a vizes élőhelyek védelmét és az üvegházhatású gázok szabályozásának jogi alapját.

Lee Zeldin, a Környezetvédelmi Ügynökség (E.P.A.) vezetője egy online videóban azt mondta, hogy az ügynökség célja a jövőben az, hogy „csökkentse az autóvásárlás, az otthoni fűtés és a vállalkozások költségeit”. A videóban nem beszélt a környezet vagy a közegészség védelméről, amire az ügynökség létrejött.

Zeldin bejelentette, hogy visszavonnak több mint két tucat levegő- és vízszennyezés elleni szabályt.

Az E.P.A. a tervek szerint enyhítené az erőművek szén-dioxid-kibocsátási korlátozásait. A jelenlegi előírások szerint a széntüzelésű erőműveknek és az új gázerőműveknek 2039-ig 90 százalékkal kellene csökkenteniük a kibocsátásukat. A gépjárművekre vonatkozó kibocsátási normákat is átírnák, így nem lenne kötelező, hogy 2032-re az új autók és könnyű teherautók többsége elektromos vagy hibrid legyen. Eltörölnék a koromkibocsátási határértékeket, amelyeket légzőszervi betegségekkel és idő előtti halálozásokkal hoztak összefüggésbe.

A Biden-kormányzat egyik szabályozása előírta, hogy a széntüzelésű erőművek higanykibocsátását 70 százalékkal csökkentsék, mivel a higany káros a gyermekek fejlődésére. Az új tervek szerint ezt is eltörölnék. Nem működne többé a „jó szomszédság szabály”, amely arra kötelezte az államokat, hogy kezeljék az általuk kibocsátott, más államokba sodródó szennyezést. Emellett eltörölnék azokat az intézkedéseket, amelyek a szegényebb és kisebbségi közösségek védelmét helyezik előtérbe.

A klímaváltozás hatásainak számszerűsítésére használt „szén-dioxid társadalmi költségét” is jelentősen csökkentenék. Ezt az értéket a szabályozások gazdasági hatásainak mérlegelésekor használják.

Zeldin szerint az E.P.A. a jövőben nem venné figyelembe a környezeti politikák társadalmi költségeit, például azt, hogy az erdőtüzeket, aszályokat, viharokat és más katasztrófákat mennyire súlyosbíthatják a szennyezések.

Az egyik legfontosabb változás az lenne, hogy az E.P.A. eltörölné a 2009-es veszélyeztetettségi megállapítást, amely alapján az üvegházhatású gázok veszélyt jelentenek a közegészségre. Ha ezt visszavonnák, az ügynökség gyakorlatilag nem tudná szabályozni a klímaváltozást okozó kibocsátásokat. Zeldin erről a videóban úgy fogalmazott, hogy

az ügynökség azon dolgozik majd, hogy megszűnjön a jogi felhatalmazásuk a szén-dioxid és más üvegházhatású gázok szabályozására. A videóban ezt „a klímaváltozás vallásának szent gráljaként” emlegette.

Zeldin a bejelentést „az Egyesült Államok történetének legnagyobb deregulációs bejelentésének” nevezte, és azt mondta: „Ma véget ér a zöld átverés, és az E.P.A. hozzájárul az amerikai aranykor eljöveteléhez.”

Trump már korábban is kampányolt azzal, hogy lazítaná a fosszilis tüzelőanyag-ipart érintő szabályozásokat, és „fúrjunk, fúrjunk, fúrjunk” jelszóval hirdette energiapolitikáját. Visszatérése óta befagyasztotta a Kongresszus által jóváhagyott klímavédelmi programok finanszírozását, elbocsátotta az időjárási és klíma-előrejelzéseken dolgozó tudósokat, és csökkentette azokat az állami támogatásokat, amelyek a fosszilis tüzelőanyagokról való átállást segítették elő.

Az Egyesült Államok a világ történetének legnagyobb szén-dioxid-kibocsátója, és a tudósok szerint ez az üvegházhatású gáz a klímaváltozás fő mozgatórugója. A tavalyi év volt a legmelegebb a feljegyzések kezdete óta, és az országban 27 olyan természeti katasztrófa történt, amelyek egyenként legalább 1 milliárd dolláros kárt okoztak – míg 1980-ban ez a szám csupán három volt.

Sheldon Whitehouse, Rhode Island demokrata szenátora a New York Timesnak azt mondta „ma jött el az a nap, amiért Trump nagy olajipari támogatói fizettek”. Szerinte az E.P.A. lépései támadást jelentenek a tiszta levegő, a tiszta víz és a megfizethető energia ellen. „Zeldin igazgató nyilvánvalóan hazudott, amikor azt mondta, hogy tiszteletben tartja a tudományt és meghallgatja a szakértőket” – tette hozzá.

Gina McCarthy, aki az Obama-kormányzat idején vezette az E.P.A.-t, azt mondta, hogy ez „az E.P.A. történetének legsötétebb napja”.

Szerinte ezeknek a szabályoknak a visszavonása „nem csupán szégyen, hanem fenyegetés mindannyiunk számára”.


# Csináld másképp

Te mit csinálnál másképp? - Csatlakozz a klímaváltozás hatásairól, a műanyagmentességről és a zero waste-ről szóló facebook-csoportunkhoz, és oszd meg a véleményedet, tapasztalataidat!

Link másolása
KÖVESS MINKET:

JÖVŐ
A Rovatból
A ChatGPT a saját gyerekei megölésével vádolt meg egy ártatlan férfit
Stimmelt a férfi neve, a szülővárosa, a gyerekek száma, a nemük, csak az nem, hogy a háromból kettőt meggyilkolt. Ja, és a harmadikat is megpróbálta eltenni láb alól. Legalábbis a mesterséges intelligencia szerint.


Az osztrák Noyb nevű adatvédelmi jogvédő szervezet újabb panaszt nyújtott be az OpenAI ellen, mert a ChatGPT egy norvég férfit tévesen gyilkossággal vádolt meg, írja az Engadget. A mesterséges intelligencia azt állította róla, hogy

21 év börtönt kapott két gyermeke meggyilkolásáért és egy harmadik megölésének kísérletéért, miközben ez nem igaz.

A ChatGPT a valós adatokat is összekeverte a hamis állításokkal: helyesen adta meg a férfi szülővárosát, valamint gyermekei számát és nemét. A Noyb szerint ezzel egyértelműen megsértette az adatvédelmi szabályokat.

Nem ez az első eset, hogy a ChatGPT valótlan vádakkal illet ártatlan embereket. Korábban egy férfit csalással, egy bírósági tudósítót gyermekbántalmazással, egy jogászprofesszort pedig szexuális zaklatással hozott összefüggésbe – derül ki a magazin cikkéből.

Az OpenAI eddig azzal védekezett, hogy a ChatGPT figyelmezteti a felhasználókat a hibák lehetőségére, de a jogvédők szerint ez nem elég. A kérdés most az, hogyan reagál a cég az újabb panaszra – és hogy egy mesterséges intelligencia megúszhatja-e annyival, hogy „bocsánat, tévedtem”.

(via Telex)


Link másolása
KÖVESS MINKET:

Ajánljuk

JÖVŐ
A Rovatból
DeepSeek: elillant a nagy amerikai tech-cégek fölénye, de a semmiből felbukkant kínai cég körül is egyre több a kérdőjel
A DeepSeek megjelenése felforgatta a mesterséges intelligencia világát, ugyanakkor egyre többen sejtik mögötte a kínai államot, és az amerikaiak kétségbe vonják azt az állítását, mennyiből és hogyan jutott el idáig.


Úgy fest, a DeepSeek felrobbantotta az ipar eddig biztosnak hitt narratíváját az AI végtelen energia- és erőforrásigényéről, és akár véget is vethet az „AI-hasznosítással” operáló cégek varázsának a Wall Streeten. A befektetések dollármilliárdjait vonzó nagy nevekkel szemben (mint amilyen az OpenAI mellett az Nvidia, az Alphabet, a Microsoft stb.) most megjelent egy új kínai szereplő, és rámutat: egyáltalán nem biztos, hogy az USA meg tudja tartani vezető szerepét a technológia fejlesztésében.

A DeepSeek nagyméretű nyelvi modellje lényegében egy olcsóbb, hatékonyabb ChatGPT, amely a kínaiak állítása szerint az OpenAI költségvetésének töredékéből és sokkal kevesebb (ráadásul elavultabb, exportkorlátozások előtti) Nvidia chippel készült, mint bármelyik vezető chatbot.

„Ez hatalmas földrengés az AI szektorban. Mindenki csak néz, és azt mondja: 'nem gondoltuk volna, hogy ez lehetséges’. Most, hogy mégis az, át kell gondolnunk mindent, amit eddig terveztünk” – vallotta be a CNN-nek Gil Luria, a D.A. Davidson befektetési csoport technológiai kutatási vezetője.

Ugyancsak kellemetlen pillanat ez a Trump-adminisztráció számára, hiszen az új elnök gyakorlatilag napokkal a DeepSeek megjelenése előtt jelentett be félbillió dolláros magánszektorból származó amerikai befektetést olyan adatközpontok építésére, amelyekkel az Egyesült Államok megőrizhetné vezető szerepét az AI fejlesztésében. Talán még az USA kormányzatánál is rosszabbul érintheti a kínai nyelvi modell megjelenése az AI-chip szállító Nvidiát, hiszen történelmi veszteséget szenvedett el, miután a részvényeinek értéke a DeepSeek hatására egy nap alatt 17 százalékot, körülbelül 600 milliárd dollárt zuhant.

Forrás: Nvidia

Az Nvidia eddig az AI-forradalom legnagyobb nyertese volt: háromtrillió dolláros vállalattá vált, de ha a kínaiak valóban képesek voltak ChatGPT-szintű modellt alkotni tizedannyi (vagy kevesebb), korábbi generációs processzorral, akkor lehet, hogy az ügyfelei nem fognak a jövőben annyi chipet vásárolni, amennyit a cég remélt. Bár teljesen kizárt, hogy az Nvidia emiatt feltenné a kezét (nincs is rá oka, hiszen a nyelvi modelleken túl önvezető, robotikai és más AI technológiák egész sorához szállít hardvereket), azért elismerte: a DeepSeek modellje „kiváló AI-fejlesztés”, amely „jól illusztrálja, hogy hogyan lehet új modelleket létrehozni”.

A DeepSeek megjelenése tehát arra kényszerítette a befektetőket, hogy átgondolják az AI-ipar jelenlegi és jövőben várható helyzetét.

Az eddigi narratíva szerint az AI fejlesztéséhez folyamatosan növelni kell a számítási kapacitást, de a kínai AI megjelenése „egyértelművé teszi, hogy az adatközpontok nagy mértékű skálázása aligha lesz gazdaságilag kifizetődő” – mondta Luria.

Ugyanakkor a Szeretlek Magyarországnak nyilatkozó Balogh Petya szerint a DeepSeek létezése jó hír, mert demokratikusabb irányba viszi az AI-fejlesztést. Az AI fejlődéséről és várható üzleti hatásairól cégvezetői oktatást is szervező üzletember szerint a kínai nyelvi modellnek köszönhetően nem fog monopol helyzetbe kerülni maroknyi amerikai cég – ahogy az történt az online keresés (Google) vagy éppen a közösségi média esetében (Facebook).

Ha az USA nagytőkés technológiai vállalkozásainak nem is, az AI demokratizálódásának valóban jót tesz, hogy piacra lépett egy sokkal olcsóbban előállított, forráskódját ingyen megosztó alkalmazás. Azt azonban az amerikaiak vitatják, hogy a Deepseek tényleg csak egy kicsi kínai startup lenne, amely mindössze 5,6 millió dollárból létrehozta azt, amit nekik csak sok milliárd dollárból sikerült.

Több amerikai cég is bedobta: adatot lophatott a DeepSeek

A Microsoft és az OpenAI vizsgálatot indított annak kiderítésére, hogy egy, a kínai DeepSeek startuphoz köthető csoport jogosulatlanul szerzett-e adatokat az OpenAI technológiájából – értesült a Bloomberg. A Microsoft biztonsági szakértői azt állítják, már tavaly ősszel észlelték, hogy valakik nagy mennyiségű adathoz juthattak az OpenAI alkalmazásprogramozási felületén keresztül, ami az OpenAI szolgáltatásainak fő hozzáférési pontja a szoftverfejlesztők és ügyfelek számára.

A Microsoft – amely az OpenAI legnagyobb befektetője – állítólag azonnal jelezte a gyanús tevékenységet a cégnek, és az eset már akkor komoly aggodalmat keltett az amerikai technológiai szektorban.

David Sacks, a Fehér Ház mesterséges intelligenciáért és kriptovalutákért felelős szakértője a Fox Newsnak adott interjúban azt mondta, valóban „lehetséges”, hogy a DeepSeek amerikai szellemi tulajdont lopott. „Jelentős bizonyítékok utalnak arra, hogy a DeepSeek lényegében kinyerte az OpenAI modelljeiből a tudást” - fogalmazott.

A mesterséges intelligencia iparban elterjedt gyakorlat az ún. „desztillálás”, ami lehetővé teszi egy meglévő modellből származtatott, hatékonyabb rendszer kialakítását. Ez általában teljesen legális folyamat – egészen addig, amíg nem egy cég zárt, védett technológia adatait használják fel, mert az már komoly jogi problémákat vethet fel. A OpenAI felhasználási feltételei világosan kimondják, hogy az általuk generált adatokat tilos felhasználni versenytárs technológia létrehozására. Persze, hogy a Deepseek esetében mindez ténylegesen megtörtént-e, arra egyelőre nincs egyértelmű bizonyíték.

„Tudjuk, hogy a Kínai Népköztársaságban aktívan dolgoznak azon, hogy lemásolják a fejlett amerikai AI-modelleket” – nyilatkozta Liz Bourgeois, az OpenAI szóvivője a The New York Timesnak. „Jelenleg vizsgáljuk, hogy a DeepSeek jogosulatlanul használta-e fel a modelljeinket, és ha több információval rendelkezünk, megosztjuk azt.”

Nem is egy kicsi cég?

A Deepseek megjelenése azért robbant ekkorát, mert ha igaz, amit állítanak, akkor az eddig gondoltnál nagyságrendekkel kevesebből is elő lehet állítani mesterséges intelligenciát, nincs szükség óriási mennyiségű fejlett chipre, különleges videókártyákra, hatalmas adatközpontokra. Azt állítják, erre egy kicsi startup is képes lehet.

A 2019-ben alapított Deepseek mögött egy Liang Wenfeng nevű üzletember és a High-Flyer Quant nevű hedge fund áll. Liang Wenfeng szerint a DeepSeek működése radikálisan eltér a nagyobb tech-cégekétől: míg például az Alibaba több százezer alkalmazottat foglalkoztat, ők egy kutatóintézetre hasonlítanak, amelyet főként frissen végzett egyetemisták és doktorandusz hallgatók alkotnak. Liang szerint a hagyományos tech-mamutok „nem biztos, hogy alkalmasak a jövő AI-iparának formálására” a magas költségek és merev szervezeti struktúrák miatt.

Ugyanakkor a Forbes arról ír, hogy egyáltalán nem biztos, hogy a DeepSeek tényleg annyira kicsi, amekkorának láttatni próbálja magát. Egyes források szerint

egy hatalmas hardverfarmot építettek, amiben legalább 10 ezer, de akár 50 ezer Nvidia Tensor A-100 grafikus kártya is dolgozhat. Ez pedig több százmillió dollárba kerül.

Az is furcsa, hogy a cégnek nincsenek kereskedelmi tervei, látszólag nem érdeklik őket a bevételek. Az amerikaiak szerint mindez arra utal, hogy a vállalkozás mögött valójában a kínai állam állhat, amely így próbál globális pozíciókat elfoglalni a mesterséges intelligencia-elsőségért folyó versenyben.

Lopás nélkül nincs is AI?

Persze az is lehet, hogy mindez csak egy kommunikációs ellencsapás az amerikai techcégek részéről, ráadásul az ő esetükben sem egyértelmű, hogy jogilag tiszta megoldásokkal képezték ki saját modelljeiket.

Az OpenAI például több tucatnyi perrel néz szembe, amelyekben azzal vádolják, hogy szabálytalanul használt fel jogvédett internetes tartalmakat a modelljei kiképzéséhez.

A The New York Times is pert indított az OpenAI és partnere, a Microsoft ellen, mivel állításuk szerint cikkeik millióit használták fel a chatbot képzésére, ami a hírforrások konkurenciájává válhat.

Egy nemrég készült jelentés ráadásul arra is rámutatott, hogy az OpenAI YouTube-videók hanganyagaiból szintén leiratot készített, hogy aztán az AI-modelljei továbbfejlesztésére használja fel. Belső levelezések szerint a vezetők tudták, hogy ez szembe mehet a YouTube irányelveivel, ennek ellenére, egy belső csapat – amelynek tagja volt Greg Brockman, az OpenAI elnöke is – több mint egymillió órányi YouTube-videót dolgozhatott fel, hogy aztán a szöveges adatokat a GPT-4 modellbe töltse és ezzel alaposan felhúzza annak tudásbázisát.

Az OpenAI vezérei: Greg Brockman (balra) és Sam Altman. Fotók: Wikipedia

A OpenAI vezérigazgatója, Sam Altman korábban elismerte, hogy a fejlett mesterséges intelligencia modellek betanításához szerzői jogvédelem alatt álló anyagokra van szükség, és kijelentette, hogy enélkül lehetetlen lenne ilyen rendszereket fejleszteni. A kijelentés azonnal felháborodást váltott ki a közösségi médiában, és most vissza is hullik a vállalat fejére:

miközben ők azt kommunikálják, hogy a DeepSeek akár el is lophatta az adataikat, egyre többen vádolják őket képmutatással.

Egy Bluesky-felhasználó így fogalmazott: „nevetséges, hogy az OpenAI, amely minden kérdés nélkül falta fel az adatainkat, most ujjal mutogat a DeepSeekre, amiért pontosan ugyanezt csinálja”. Ed Zitron AI-kritikus pedig így kommentálta az ügyet: „elnézést, de nem bírom abbahagyni a röhögést. Az OpenAI, a vállalat, amely gyakorlatilag az egész internet ellopására épült, most azért panaszkodik, mert a DeepSeek esetleg a ChatGPT válaszaiból tanult.”

Újabb AI-modellek jönnek, a cél az AGI

Miközben mindenki a DeepSeek sikerére és az amerikai AI-cégek befeszülésére figyelt, az Alibaba is bejelentett egy új mesterséges intelligencia modellt, a Qwen 2.5-Max-ot. A kínai tech-óriás szerint az új modell „szinte minden területen felülmúlja a GPT-4o-t, a DeepSeek-V3-at és a Llama-3.1-405B-t [a Meta AI-modelljét]” – idézi az Alibaba Cloud hivatalos WeChat-oldalát a Reuters.

A bejelentés időzítése azt mutatja, hogy az Alibaba komoly nyomást érez a hazai versenytársak részéről, és valószínűleg így volt ezzel a TikTok anyavállalata, a ByteDance is, amikor két nappal a DeepSeek-R1 január 20-i megjelenése után közölte: frissítette saját AI-modelljét, amely szerintük szintén felülmúlja az OpenAI által kifejlesztett terméket. Ezt az állítást igazolták is egy AIME benchmark teszttel, ami azt méri, hogy egy mesterséges intelligencia modell mennyire érti az összetett utasításokat és hogyan reagál rájuk.

Mindez arra utal, hogy bármi is az igazság a DeepSeekről, Amerika komoly versenytársakkal nézhet szembe.


Link másolása
KÖVESS MINKET:


JÖVŐ
A Rovatból
Feltámasztották Albert Einsteint - elárasztották az Instát és a TikTokot az életre kelt régi fotók, és ez nemcsak egy játék
A politikai kampányokban és a háborús propagandában jöhetnek a teljesen hihető hamisított videók, de a színészek jövője is veszélybe került, nem is beszélve az influenszerekről. Eljött a félrevezetések kora.


Az Instagramon és a TikTokon egyre több olyan reklám jön szembe, amin életre kelnek a régi fényképek. A TikTokot birtokló ByteDance kutatói is kifejlesztettek egy olyan mesterséges intelligencia-rendszert, amely egyetlen fotóból képes élethű videókat generálni. Az eredetileg csak pillanatképen látható személy a generált videón megtévesztő természetességgel beszél, énekel, gesztikulál vagy mozog. Az új AI-modell készítői szerint ez az áttörés forradalmasíthatja a digitális szórakoztatást vagy a kommunikációt. És a világhírű Einstein-portré alább látható életre keltése láttán nehéz lenne vitatni, hogy igazuk lesz.

Einstein életre kel

Bár a videó hangja nem a Nobel-díjas elméleti fizikustól származik, hanem – a New York Post szerint – Jaak Panksepp neurológus és állati érzelmekkel foglalkozó kutató bő egy évtizeddel ezelőtti beszédéből vágták ki, az eredmény valóban lenyűgöző. Úgy tűnik, hogy az egyébként teljes testalakot életre keltő, OmniHuman névre keresztelt rendszer alaposan túlszárnyalhatja a korábbi AI modelleket, amelyek csak arcot vagy felsőtestet tudtak animálni a fényképekből.

„A humán animációs technológiák az utóbbi években komoly fejlődésen mentek át, de a meglévő módszerek még mindig nehezen skálázhatók általános videógeneráló modellekké, ami korlátozza a valódi alkalmazhatóságukat” – jegyzik meg tanulmányukban a ByteDance tudósai. A szakemberek meghatározása szerint „teljes körű, multimodális mozgáskondicionálású emberi videógeneráló keretrendszert” alkottak, ami egyetlen kép, valamint a mozgási jelek (ezen belül a hang, a videó vagy mindkettő) alapján hoz létre „emberi videókat”.

Így készült az új AI

Az OmniHuman vegyes adatokkal történő tanulási stratégiát alkalmaz, kihasználja a vegyes adatok skálázhatóságát, hogy leküzdje a magas minőségű adatok hiányát, ami a korábbi módszereket jelentősen visszafogta. Ezzel a ByteDance AI-ja valóban képes lehet felülmúlni a meglévő megoldásokat, például az OpenAI Soráját, hiszen tényleg rendkívül élethű videókat készít emberekről, még egészen gyenge bemeneti jelek, különösen hang alapján.

Az OmniHuman bármilyen képarányú képet támogat (portré, felsőtest, alsótest vagy teljes test), és különböző helyzetekben is élethű, kiváló minőségű eredményt nyújt – foglalják össze a kutatók.

A csapat több mint 18.700 órányi, hús-vér emberekről készült videó felhasználásával képezte ki az OmniHumant, egy olyan új módszert alkalmazva, ami képes kombinálni többféle inputot, így szöveget, hangot és testmozgást. Ez a tréningstratégia teszi lehetővé, hogy az új AI jóval nagyobb és változatosabb adathalmazokból tanuljon, mint a korábbi megoldások.

Az OmniHuman ráadásul különböző bemeneti képekkel kompatibilis, és megőrzi a mozgás stílusát, például a jellegzetes szájmozgásokat. Mindemellett kiemelkedőnek tűnik akkor is, ha objektumokat kell használnia: képes olyan videókat generálni, amelyeken egy személy énekel, miközben hangszereken játszik, vagy természetes gesztikulációt végez, különböző tárgyakat tartva. Óriási előnye továbbá, hogy pózalapú videógenerálást is végrehajt, illetve együttesen vezérli a pózt és a hangot.

Ő sem létezik

Ez a technológia új mérföldkő lehet az AI-alapú médiaalkotásban, és képes például beszédet mondó vagy hangszeren játszó embereket ábrázoló videók előállítására. Az OmniHuman a tesztek során több minőségi mutatóban is felülmúlta a meglévő rendszereket – emeli ki a VentureBeat, hozzátéve: a fejlesztést egyre kiélezettebb verseny hívta életre, hiszen olyan óriásvállalatok dolgoznak hasonló technológiákon, mint a Google, a Meta és a Microsoft. A ByteDance áttörése előnyt jelenthet, pláne akkor, ha beépíti azt az általa kiadott – és az USÁ-ban jelenleg nehéz helyzetben lévő – TikTok rendszerébe. Nem nehéz arra következtetni, hogy az OmniHuman ezzel a távlati céllal készülhetett.

Milyen hatással lesz a ByteDance AI-ja a tartalomgyártásra?

Bár az OmniHuman széles körben egyelőre nem hozzáférhető, a fejlesztők több tucatnyi videót tettek közzé arról, hogy a tartalomkészítők milyen lehetőségekre számíthatnak tőle. Érdemes ugyanakkor megjegyezni, hogy az AI nem feltétlenül fogja a javukat szolgálni, és erre a Forbesnak nyilatkozó szakértők is egyértelműen rávilágítottak.

„Nagyon lenyűgözőek” – mondta a ByteDance kutatóinak videóiról Freddy Tran Nager, a Dél-Kaliforniai Egyetem Annenberg Kommunikációs és Újságírói Iskolájának klinikai adjunktusa. „Ha arra gondolnánk, hogy feltámasztjuk Humphrey Bogartot, és szerepeltetjük egy filmben, nem vagyok biztos benne, hogy jól nézne ki, de egy kis képernyőn, különösen telefonon, nagyon meggyőzőek.”

Az eszköz a ByteDance-t – és ezáltal a TikTokot – egyértelműen a legrealisztikusabb AI-generált videókért folytatott verseny élmezőnyébe helyezi, hiszen a digitális alakok egyre több helyen bukkannak fel: virtuális influencerként reklámoznak termékeket, tisztviselők digitális verzióiként segítenek eligazodni a közszolgáltatások használatában, vagy éppen hírességek deepfake verzióiként lépnek kapcsolatba az emberekkel – nem egyszer komoly bajt is okozva.

Kellenek még egyáltalán humán influencerek?

Nager szerint egy olyan eszköz, amely egyetlen fotóból képes videókat létrehozni, számos felhasználási lehetőséget kínálhat: a diákok például eldönthetnék, hogy milyen formában kapják meg az információt egy online kurzuson:

„Szeretném, ha Marilyn Monroe tanítana statisztikát. Vagy egy bábfigura. Vagy Breki, a béka”

– hozott fel néhány példát. Tekintettel azonban az OmniHuman nyilvánvaló kapcsolatára a TikTokkal, a szakértő azt is el tudja képzelni, hogy a kiégett tartalomgyártók a saját virtuális másukat használnák fel a videóikban, vagy

a TikTok mondhatja azt is: Tudjátok mit? Mostantól magunk is létrehozhatunk videókat. Kinek van még szüksége emberekre?

Samantha G. Wolfe, a New Yorki Egyetem Kultúra-, Oktatás- és Fejlődéskutató Intézetének adjunktusa szintén lát veszélyeket az OmniHumanhoz hasonló eszközökben. „Létrehozni valamit pusztán egy képből, és úgy megjeleníteni, mintha valóban beszélne és mozogna, technológiai szempontból lenyűgöző, de rengeteg potenciálisan negatív következménye is lehet. Egy üzleti vagy politikai vezető hamisított verziója például, ha olyasmit mond, ami nem igaz, óriási hatással lehet egy vállalatra vagy akár egy egész országra.”

Ahogy az AI által generált videók egyre kifinomultabbá válnak, úgy nőnek a kockázatok is. „Minél inkább hasonlítanak a valóságra, minél inkább úgy tűnik, mintha valódi emberek lennének, annál nagyobb a valószínűsége, hogy az emberek elhiszik, amit mondanak” – magyarázta Wolfe. A szakértő véleményét sajnos több közelmúltban történt eset is igazolja.

Emlékezetes, hogy tavaly néhány országban villámgyorsan terjedtek szét politikai deepfake-ek, jellemzően a választásokat megelőző időszakokban.

A tajvani voksolás napján például egy vélhetően a Kínai Kommunista Párthoz köthető csoport tett közzé mesterséges intelligencia által generált, félrevezető hangfelvételt, amelyben egy helyi politikus támogatását fejezte ki ellenfele, a Kína-barát jelölt mellett. Moldovában szintén a kampány alatt jelentek meg deepfake videók az ország elnökéről, Maia Sandutról, amint éppen lemond a tisztségéről, míg Dél-Afrikában maga Eminem „biztosította támogatásáról” az egyik ellenzéki pártot a választások előtt.

A deepfake-ek ennél is gyakrabban válnak pénzügyi bűncselekmények eszközévé. A fogyasztókat hírességek hamisított videóival verik át úgy, hogy megtévesztő befektetési lehetőségeket ajánlanak, de bizonyos vállalatokat is dollármilliós károk érhetnek deepfake csalások miatt. A Deloitte szerint a generatív AI segítségével végrehajtott csalások 2023-ban több mint 12 milliárd dolláros kárt okoztak, csak az Egyesült Államokban, és ez az összeg 2027-re elérheti a 40 milliárd dollárt.

Elon Musktól minden hihető

Az OmniHuman ugyan nem az első AI-eszköz, amely egyetlen fotóból képes videókat generálni, de az mindenképpen megkülönbözteti a többitől, hogy a mögötte álló csapat hatalmas mennyiségű adathoz fér hozzá – jelentette ki Nager.

„Ha valaha készítettél TikTok-videót, jó esély van rá, hogy már egy olyan adatbázisban vagy, amelyet virtuális emberek létrehozására fognak használni.”

A tudós állítására reagálva a ByteDance szóvivője azt írta a Forbesnak, hogy a modellt nem a vállalat termékeiből származó adatokból képezték ki. Hozzátette: ha az OmniHuman nyilvánosan elérhetővé válik, tartalmazni fog olyan védelmi mechanizmusokat, amelyek megakadályozzák a káros vagy félrevezető tartalmak létrehozását, de olyan átláthatósági intézkedéseket is bevezetnek hozzá, amelyek egyértelművé teszik, hogy az adott tartalmat AI generálta.

Nem túl megnyugtató belegondolni, de úgy fest, igaz, hogy egyelőre az AI-kat üzemeltető cégek adott szavára vagyunk kénytelenek hagyatkozni, ha a káros hamisítványok megfékezéséről van szó. A deepfake-eket egyre nehezebb felismerni, és bár egyes közösségi médiumok és keresőmotorok tettek lépéseket a terjedésük korlátozására, az interneten elérhető hamis tartalmak mennyisége riasztó ütemben növekszik.

A Jumio ID-ellenőrző cég 2024 májusában végzett felmérése szerint az emberek 60 százaléka találkozott deepfake tartalommal az elmúlt évben, és a válaszadók 72 százaléka aggódik amiatt, hogy bármikor félrevezethetik őket. A kutatásban résztvevők többsége éppen ezért teljes mellszélességgel támogatja a mesterséges intelligencia által generált hamis tartalmak szabályozását célzó jogszabályokat.


Link másolása
KÖVESS MINKET:

Ajánljuk