JÖVŐ
A Rovatból

Tilesch György: A mesterséges intelligencia ma már könyvet ír

A Facebook üzleti modellje nem szolgálja a társadalom érdekeit, Sofia bolhacirkuszi látványosság – állítja a Mesterség és Intelligencia című könyv egyik szerzője, akit arról is kérdeztünk, milyen szakmákat veszélyeztet a mesterséges intelligencia.


Áprilisban jelent meg magyarul Tilesch György és Omar Hatamleh Mesterség és Intelligencia című könyve. Tilesch Györggyel, a Neumann Társaság MI nagykövetével, a PHI Institute elnökével beszélgettünk a könyvről.

- Az MI behálózza az életünket, a téma nemcsak a tudományos cikkekben van jelen, hanem a popkultúrában is. Azt gondolná az ember, hogy már mindent elmondtak róla. Mi volt az a hiátus, ami arra indította Önöket, hogy mégis könyvet írjanak róla?

- A hiátust úgy fogalmaztuk meg, hogy bizonyos cégek és államok úgy gondolják, tudják, mi a mesterséges intelligencia fejlesztési és terjesztési iránya, mi lesz legjobb a társadalomnak, de ugyanezek az emberek, amikor nem a pulpitusról beszélnek, hanem magánemberként, bizalmas légkörben, akkor elárulják a félelmeiket. Mi egy balanszírozott könyvet szerettünk volna írni.

Fontos leszögeznem, hogy személyes benyomásokból indultunk ki. Nem szobatudósok vagyunk, hanem vállalatvezetők és tanácsadók. Kint dolgozunk a terepen.

Ön is utalt rá, hogy a science-fiction világa erőteljesen beszűrődött a mainstreambe.

Mi ezt inkább kártékonynak látjuk, elsősorban azért, mert valahova a távoli jövőbe vetíti a problémát, és ezzel elvonja a figyelmet a jelenről, a most megoldandó problémákról.

Mi azt szeretnénk bebizonyítani a könyvben, hogy a mesterséges intelligencia nem jövőidejű kérdés, hanem jelen idejű, és a legnagyobb civilizációs feladatunk jelenleg ennek a megfelelő irányba állítása.

- Ha mesterséges intelligenciáról beszélünk, sokaknak Terminátor-szerű gépemberek jutnak eszükbe. Pedig ennél jóval színesebb a kép. Mi az MI ismérve?

- A mesterséges intelligencia egy marketing „buzzword”. Egy ernyő, körülbelül 15 technológiai ágazat összefoglaló neve.

A mesterséges intelligencia körülbelül ötven éve született meg, mint tudományág a mi Neumann Jánosunk aktív közreműködésével a Princeton Egyetemen. Az az 5-6 ember, aki akkor elkezdett dolgozni ezen, azok nagy része játékelméletekkel foglalkozott, ezért a korai definíciók is a játékosításra épültek.

Alan Turing például kitalálta a Turing-tesztet, amely lényege, hogy egy játék-környezetben, gyakorlatilag egy chatszobában kell valakinek kitalálni azt, hogy akivel épp beszélget, az robot vagy ember. Ha nem tudja eldönteni, akkor megszületett az emberrel ekvivalens, úgynevezett általános mesterséges intelligencia.

Eddig egy gép az alapján tudott működni, amit beleprogramoztak. A mesterséges intelligencia pont ezt a határt haladja meg. Egyre növekvő autonómiát adunk a gépek kezébe. Képesek ajánlásokat adni, vagy ha hagyjuk, akár döntéseket hoznak helyettünk, ráadásul sokkal több adatpont alapján, mint amit az emberi elme képes kezelni, sokkal hatékonyabban, és közben nem kérnek enni.

Ez egy nyílt végű folyamat, és ez az, ami félelmetessé teszi. Ez az, amiben a sci-fim filmeknek igaza van: bizony, eljöhet az a pont, amikor az emberrel egyenértékű lesz a mesterséges intelligencia. Bár azt gondolom, ha meg is történik ez, akkor is a nagyon távoli jövőben. Igaz: azt a pillanatot körülbelül két perc választja el attól, hogy az MI szuperintelligenciává váljon, magyarán az embert messze meghaladóvá.

Onnantól a bolygó és az univerzum uralása sincs nagyon messze.

Tehát ezek igaz narratívák, amikkel foglalkoznunk kell, de mi a könyvünkben azt mondjuk, hogy a jelenre és a közeljövőre kell fókuszálnunk, mert itt tudunk cselekedni.

-  Egyszer Kürti Sándorral beszélgettem erről a témáról, aki azt mondta, biztos benne, hogy a mesterséges intelligencián is lesz valamiféle „kikapcsoló gomb”, ha baj van, le fogjuk tudni állítani. Ön szerint bebiztosíthatjuk magunkat?

- Az biztos, hogy maximálisan óvatosnak kell lennünk, ami nem azt jelenti, hogy le kell mondanunk erről a technológiáról, hanem hogy fékeket és ellensúlyokat kell beépíteni.

Egyébként az Európai Unió a múlt héten jelentette meg az világ első mesterségesintelligencia-szabályozását. Ők nagyon erősen a kockázatokra helyezik a hangsúlyt. Ha úgy tetszik, a Kádári „tiltott, tűrt, támogatott” rendszerhez hasonló kategóriákat vezettek be. Bizonyos MI technológiákat kifejezetten tiltani akarnak.

Persze vannak kiskapuk. Mondok egy példát: elsődleges veszélyként a manipulációt határozták meg. De kérdezem én, mi számít annak? A marketing nem manipulatív? A közösségi média nem manipulatív? Vagy a politikai hirdetés? Hol lesznek a manipulálás határai?

Ami a „kikapcsoló gombot illeti”, Kürti Sándornak abban mindenképp igaza van, hogy azt szabályozásként be kell építeni mindenhová. Ezzel csak két probléma van:

Az egyik, hogy a kockázatok nem azonnal derülnek ki. A mesterséges intelligenciában pont az a félelmetes, hogy amit egy ember száz év alatt végez el, azt ő öt perc alatt.

Már ma is sok olyan kormányzati MI rendszer van a világon, ami az emberek életére hatással bír. Kevesen tudják például, hogy Amerikában a feltételes szabadlábra helyezéseknél 30-40%-ban mesterséges intelligencia támogatja a bíró döntését.

A gond ott kezdődik, amikor az emberi beavatkozás, kontroll lehetőségét elengedjük, ami az emberi lélektől nem teljesen idegen. Amikor azt mondjuk, hogy a gép úgy is okosabb, nekem ezzel nincs is dolgom. Ezt tesztelték is már, és az lett az eredmény, hogy a tisztségviselők 98-99%%-ban nem bírálják felül a gép javaslatát.

Tehát az egyik probléma, hogy hiába van ott a kikapcsoló gomb, az ember nem fogja használni.

A másik probléma, hogy nagyon nagy károkat tud okozni egyetlen hiba is. Amire elérünk a gombhoz, addigra már megszületik több millió döntés. Lehet, hogy a fejlesztő szemével az csak egy „bug”, amit két héten belül majd megold, de a társadalom szempontjából óriási károkat okozhat, a jogi következményekről nem is beszélve.

- Néhány éve, amikor Elon Musk 115 társával petíciót írt az ENSZ-hez, hogy tiltsák be az autonóm fegyvereket, Vlagyimir Putyin is megszólalt a kérdésben, idézem: „A világ ura lesz az az ország, amelyik elsőségre tesz szert a mesterséges intelligencia kifejlesztése terén.”

Putyin ugyan azt ígérte, hogy Oroszország megosztja majd a technológiát a világgal, de hát ő mégis csak Putyin.

Szépen hangzik, hogy mi, európaiak önmérsékletet tanúsítunk az MI használata terén, de ha más nagyhatalmak nem ilyen belátóak, akkor elképesztő erőfölényre tehetnek szert.

- Oroszország jelenleg abból él, hogy sokkal nagyobbnak és erősebbnek mutatja magát, mint amilyen. Nem hiszem, hogy Oroszország a mesterséges intelligencia tekintetében vezető hatalom lesz. Az igaz, hogy kiberháború és dezinformáció tekintetében tényleg jók, de a gazdasági befektetéseik rendkívül csekélyek.

Az ENSZ egyébként már évek óta foglalkozik az autonóm fegyverek betiltásával. A gond az, hogy az öt legnagyobb tagállam ellenáll, épp ezért szerintem ez itt meg is fog állni, vagy kiüresítik.

Az MI szoftveres hadászati alkalmazásai ennél jóval tágabbak, és ezen a téren most is folyamatosan háború zajlik, amiről a közvélemény nem is nagyon tud. Egy NATO főtisztviselő 3-4 évvel ezelőtt azt mondta zárt ajtók mögött, hogy

napi 60 ezer támadás éri a NATO szerverparkját.

Ezt négy éve mondta, képzeljük el, ma mi van!

Tény és való, hogy jelen pillanatban rövidtávon a negatív aktoroknál van az előny. De úgy gondolom, ez csak ideiglenes előny. Abban igaza van Önnek, hogy ezt szabályozási oldalról nagyon nehéz kikényszeríteni. Ennek egyik konzekvenciája a fegyverkezés.

A másik, hogy a társadalmi bizalom fontos értékmérővé válik. A könyvben is sokat írunk arról, hogy korunk egyik legkarakteresebb jellemzője a bizalomvesztés.

Nem bízunk senkiben és semmiben: sem az intézményekben, sem a politikusokban. Ez alól a mesterséges intelligencia sem kivétel. Most már többségben vannak a világban azok, akik féltik a kormányoktól és a cégektől az adataikat, félnek, hogy ellenük fogják felhasználni a mesterséges intelligenciát. Két évvel ezelőtt még nem ez volt a helyzet.

Mit mondunk mi a könyvben? Új technológiai generációra van szükség. A közérdeket szolgáló technológiákat kell támogatni és terjeszteni, amelyek alapvetően arra építenek, hogy a felhasználó megbízik bennük, és minden okot meg is adnak rá, hogy a felhasználó megbízzon bennük.

Egyik vesszőparipám, hogy a Facebook átvette a társadalmi párbeszéd szerepét. Miért fogadtuk el, hogy ez az egyedülálló modell? Gondoljuk újra! Azzal a kérdéssel kell kezdenünk, hogy milyen üzleti és technológiai modellek, milyen dizájnok és objektívák szolgálják a társadalom érdekeit,

mert hogy a Facebook üzleti modellje nem szolgálja a társdalom érdekeit, az is biztos.

- Szintén nagy félelem, hogy az MI el fogja venni a munkánkat. Míg az egyszerűbb gépek főleg a fizikai munkásokat fenyegették, hiszen az izomerőt tették fölöslegessé, az MI már olyan intellektuális szakmákat fenyeget, mint a jogászoké vagy a fordítóké.

- Azok az állások, amiket szeretünk értelmiséginek titulálni, nagyon sok esetben valójában nem azok. Az embereket alulfoglalkoztatják.

Elvégez valaki öt évig egy jogi vagy közgazdaságtudományi egyetemet, és utána lótifuti lesz valami nagy cégnél. Kávét főz és űrlapokat tölt ki.

Az, hogy a gyári munkások veszélyben vannak a mesterséges intelligencia miatt, az 100 százalék, de látok egy rohamosan növekvő fehérgalléros problémát is. Azoknak a szakmáknak, amelyek főleg folyamatalapú dolgokkal foglalkoznak, nem lesz sok értelme.

A szoftveralapú automatizáció manapság a leggyorsabban fejlődő területe az MI-nek. Ha akarjuk, kiválthatjuk vele az emberek munkáját, és elbocsáthatjuk őket. Vagy azt is mondhatjuk, hogy értelmesebb feladatot adunk az embereknek. Ez nagyrészt a munkáltatók hozzáállásán fog múlni.

Egyébként a legnagyobb robbanás éppen a szövegalapú technikák területén volt. A Microsoft tulajdonolta OpenAI-nak van egy GPT-3 nevű szöveggenerátora, amit a nagyközönség egyáltalán nem ismer még belülről. Azok, akik a szövegiparban dolgoznak, még nem is sejtik, milyen brutális eredményeket értek el. Az a mesterséges intelligencia már könyveket tud írni - igaz, még nem tökéletesen.

- Újságíróként és műfordítóként kicsit abban bízom, hogy az egyéniséget, a stílust nem képes utánozni a gép.

- Az újságírók vagy a műfordítók könnyen lehet, hogy inkább lektori szerepbe kényszerülnek majd. A munka oroszlánrészét elvégzi a gép, az embernek csak a finomhangolás jut.

Mindent, amit iparrá silányítottak – zeneiparrá, szórakoztatóiparrá, irodalom iparrá –, az veszélyben van, mert „iparban” a mesterséges intelligencia sokkal jobb.

Ráadásul exponenciálisan sokkal jobb. A személyiséggel rendelkező robotembereket én inkább az ábrándozások világába sorolnám. A legnagyobb probléma, hogy ettől függetlenül mindenki ebbe az irányba megy, mindenkinek produkálnia kell ezen a területen, és mindenféle szörnyek, illuzionisták és cirkuszi törpék fognak kijönni MI néven, amikről a profitra éhes előállító azt fogja állítani, hogy mindent tud. Körülbelül úgy, mint a mi Kempelen Farkasunk 300 évvel ezelőtt.

Nagy „kedvencem” a Sofia nevű robot, ami szintén egy bolhacirkusz szintű attrakció, de az alkotója körbeutazza vele a világot.

Ez egy női fej olyan szöveggenerátorral, ami szerintem jóval butább, mint mondjuk a Google asszisztens vagy Siri. Az MI szakértők általában nem szeretik, a média viszont imádja, mert lehet mutogatni. Egy Android asszisztensen nincs mit mutogatni.

- Miközben az MI nyitotta fantasztikus lehetőségekről álmodoztunk, jött egy világjárvány, ami azért kicsit visszarángatott a földre: még mindig nagyon is sebezhetőek vagyunk. Mit jelentet a Covid az MI szempontjából?

- A könyv, amit a kezében tart, angolul jelent meg először, tavaly áprilisban. Ez azért érdekes, mert márciusban adtuk le a kéziratot, és akkor zárult a világ. Nem tudtuk, meddig fog tartani. Annyit tehettünk, hogy releváns maradjon a munka, hogy az utolsó pillanatban betettünk egy utószót, amely a Covid es az MI kapcsolatával foglalkozik.

Hogy ne csak írjunk róla, összehoztunk a NASA-nál egy nagy, egy hónapos roham-kollaborációt a világ legnagyobb cégeinek innovációs es technológiai vezetőivel. Pont azt vizsgáltuk, hogy milyen MI alapú megoldásokat, javaslatokat nyújthatunk a kormányoknak a pandémiára.

A mesterséges intelligencia rendkívül felgyorsította a vakcinafejlesztést, jó volt a járvány előrejelzésében, készítettek kontaktkutató alkalmazásokat. Kaliforniában ez államilag támogatott projekt: majdnem minden ember telefonján ott ez az alkalmazás. Semmit nem kell csinálni, csak bekapcsolni a bluetooth-t, és a rendszer anonim módon regisztrálja, ha kapcsolatba kerültünk olyan emberrel, akiről később kiderült, hogy Covidos volt. Ilyen esetben riaszt a telefon, hogy menj el tesztelni.

Tehát ebben a káoszban is bizonyította a mesterséges intelligencia, hogy hasznos, lehet jó dolgokra használni.

Ez fontos, mert amíg az embereknek azt kell magyarázni, hogy ez nem Terminátor, addig nem tudunk a hasznosságáról beszélni.

A történet másik oldala, hogy sajnos a pandémia alatt sok ember elvesztette a munkáját, és attól tartok, többen a vírus után sem fogják visszakapni, mert a munkáltatók rájöttek, hogy sok minden megoldható szoftveres alapon.

- Meséljen még kicsit a kutatóintézetről, amelynek alapítója és elnöke.

- Ez a PHI Institute for Augmented Intelligence. A közérdekű, emberi arcú mesterséges intelligenciáért küzdünk és tanácsot adunk kormányoknak, nagy cégeknek, jobbító programokat indítunk be.

Most szeretnék Magyarországra hozni egy átképzési programot. Amerikában jelenleg a Fehér Házzal, 25 minisztériummal, két nagy tech céggel és 42 egyetemmel dolgozom azon, hogy a teljes közalkalmazotti réteget át tudjuk képezni adatérettre és MI érettre.

Amerika ezt a programot szeretné kiterjeszteni a szövetségesekre, hogy segítsen nekik gyorsabban, hatékonyabban a mesterséges intelligencia útjára lépni. Ez Magyarországnak is rendkívül fontos lesz.

Tilesch György és Omar Hatamleh könyvükben az MI innovatív értelmezését, valamint a jelen és a közeljövő legégetőbb problémáinak tematizálását tűzik ki célul, amely problémákra megoldási javaslatokkal is szolgálnak.
További információk a könyvről itt olvashatóak.

Link másolása
KÖVESS MINKET:

Népszerű
Ajánljuk
Címlapról ajánljuk


JÖVŐ
A Rovatból
„A legsötétebb nap” – Trump környezetvédelmi ügynöksége eltörli a legfontosabb környezetvédelmi szabályokat
Több tucat szabályozást vonnak vissza. Az ügynökség új vezetője szerint véget ér a "zöld átverés" kora, és a jövőben azon dolgoznak majd, hogy megszűnjön a jogi felhatalmazásuk a szén-dioxid és más üvegházhatású gázok szabályozására.


A Trump-kormányzat bejelentette, hogy visszavonja az ország több tucat környezetvédelmi szabályozását, köztük a kipufogógázokra és gyárkéményekre vonatkozó szennyezési határértékeket, a vizes élőhelyek védelmét és az üvegházhatású gázok szabályozásának jogi alapját.

Lee Zeldin, a Környezetvédelmi Ügynökség (E.P.A.) vezetője egy online videóban azt mondta, hogy az ügynökség célja a jövőben az, hogy „csökkentse az autóvásárlás, az otthoni fűtés és a vállalkozások költségeit”. A videóban nem beszélt a környezet vagy a közegészség védelméről, amire az ügynökség létrejött.

Zeldin bejelentette, hogy visszavonnak több mint két tucat levegő- és vízszennyezés elleni szabályt.

Az E.P.A. a tervek szerint enyhítené az erőművek szén-dioxid-kibocsátási korlátozásait. A jelenlegi előírások szerint a széntüzelésű erőműveknek és az új gázerőműveknek 2039-ig 90 százalékkal kellene csökkenteniük a kibocsátásukat. A gépjárművekre vonatkozó kibocsátási normákat is átírnák, így nem lenne kötelező, hogy 2032-re az új autók és könnyű teherautók többsége elektromos vagy hibrid legyen. Eltörölnék a koromkibocsátási határértékeket, amelyeket légzőszervi betegségekkel és idő előtti halálozásokkal hoztak összefüggésbe.

A Biden-kormányzat egyik szabályozása előírta, hogy a széntüzelésű erőművek higanykibocsátását 70 százalékkal csökkentsék, mivel a higany káros a gyermekek fejlődésére. Az új tervek szerint ezt is eltörölnék. Nem működne többé a „jó szomszédság szabály”, amely arra kötelezte az államokat, hogy kezeljék az általuk kibocsátott, más államokba sodródó szennyezést. Emellett eltörölnék azokat az intézkedéseket, amelyek a szegényebb és kisebbségi közösségek védelmét helyezik előtérbe.

A klímaváltozás hatásainak számszerűsítésére használt „szén-dioxid társadalmi költségét” is jelentősen csökkentenék. Ezt az értéket a szabályozások gazdasági hatásainak mérlegelésekor használják.

Zeldin szerint az E.P.A. a jövőben nem venné figyelembe a környezeti politikák társadalmi költségeit, például azt, hogy az erdőtüzeket, aszályokat, viharokat és más katasztrófákat mennyire súlyosbíthatják a szennyezések.

Az egyik legfontosabb változás az lenne, hogy az E.P.A. eltörölné a 2009-es veszélyeztetettségi megállapítást, amely alapján az üvegházhatású gázok veszélyt jelentenek a közegészségre. Ha ezt visszavonnák, az ügynökség gyakorlatilag nem tudná szabályozni a klímaváltozást okozó kibocsátásokat. Zeldin erről a videóban úgy fogalmazott, hogy

az ügynökség azon dolgozik majd, hogy megszűnjön a jogi felhatalmazásuk a szén-dioxid és más üvegházhatású gázok szabályozására. A videóban ezt „a klímaváltozás vallásának szent gráljaként” emlegette.

Zeldin a bejelentést „az Egyesült Államok történetének legnagyobb deregulációs bejelentésének” nevezte, és azt mondta: „Ma véget ér a zöld átverés, és az E.P.A. hozzájárul az amerikai aranykor eljöveteléhez.”

Trump már korábban is kampányolt azzal, hogy lazítaná a fosszilis tüzelőanyag-ipart érintő szabályozásokat, és „fúrjunk, fúrjunk, fúrjunk” jelszóval hirdette energiapolitikáját. Visszatérése óta befagyasztotta a Kongresszus által jóváhagyott klímavédelmi programok finanszírozását, elbocsátotta az időjárási és klíma-előrejelzéseken dolgozó tudósokat, és csökkentette azokat az állami támogatásokat, amelyek a fosszilis tüzelőanyagokról való átállást segítették elő.

Az Egyesült Államok a világ történetének legnagyobb szén-dioxid-kibocsátója, és a tudósok szerint ez az üvegházhatású gáz a klímaváltozás fő mozgatórugója. A tavalyi év volt a legmelegebb a feljegyzések kezdete óta, és az országban 27 olyan természeti katasztrófa történt, amelyek egyenként legalább 1 milliárd dolláros kárt okoztak – míg 1980-ban ez a szám csupán három volt.

Sheldon Whitehouse, Rhode Island demokrata szenátora a New York Timesnak azt mondta „ma jött el az a nap, amiért Trump nagy olajipari támogatói fizettek”. Szerinte az E.P.A. lépései támadást jelentenek a tiszta levegő, a tiszta víz és a megfizethető energia ellen. „Zeldin igazgató nyilvánvalóan hazudott, amikor azt mondta, hogy tiszteletben tartja a tudományt és meghallgatja a szakértőket” – tette hozzá.

Gina McCarthy, aki az Obama-kormányzat idején vezette az E.P.A.-t, azt mondta, hogy ez „az E.P.A. történetének legsötétebb napja”.

Szerinte ezeknek a szabályoknak a visszavonása „nem csupán szégyen, hanem fenyegetés mindannyiunk számára”.


# Csináld másképp

Te mit csinálnál másképp? - Csatlakozz a klímaváltozás hatásairól, a műanyagmentességről és a zero waste-ről szóló facebook-csoportunkhoz, és oszd meg a véleményedet, tapasztalataidat!

Link másolása
KÖVESS MINKET:

JÖVŐ
A Rovatból
A ChatGPT a saját gyerekei megölésével vádolt meg egy ártatlan férfit
Stimmelt a férfi neve, a szülővárosa, a gyerekek száma, a nemük, csak az nem, hogy a háromból kettőt meggyilkolt. Ja, és a harmadikat is megpróbálta eltenni láb alól. Legalábbis a mesterséges intelligencia szerint.


Az osztrák Noyb nevű adatvédelmi jogvédő szervezet újabb panaszt nyújtott be az OpenAI ellen, mert a ChatGPT egy norvég férfit tévesen gyilkossággal vádolt meg, írja az Engadget. A mesterséges intelligencia azt állította róla, hogy

21 év börtönt kapott két gyermeke meggyilkolásáért és egy harmadik megölésének kísérletéért, miközben ez nem igaz.

A ChatGPT a valós adatokat is összekeverte a hamis állításokkal: helyesen adta meg a férfi szülővárosát, valamint gyermekei számát és nemét. A Noyb szerint ezzel egyértelműen megsértette az adatvédelmi szabályokat.

Nem ez az első eset, hogy a ChatGPT valótlan vádakkal illet ártatlan embereket. Korábban egy férfit csalással, egy bírósági tudósítót gyermekbántalmazással, egy jogászprofesszort pedig szexuális zaklatással hozott összefüggésbe – derül ki a magazin cikkéből.

Az OpenAI eddig azzal védekezett, hogy a ChatGPT figyelmezteti a felhasználókat a hibák lehetőségére, de a jogvédők szerint ez nem elég. A kérdés most az, hogyan reagál a cég az újabb panaszra – és hogy egy mesterséges intelligencia megúszhatja-e annyival, hogy „bocsánat, tévedtem”.

(via Telex)


Link másolása
KÖVESS MINKET:


JÖVŐ
A Rovatból
DeepSeek: elillant a nagy amerikai tech-cégek fölénye, de a semmiből felbukkant kínai cég körül is egyre több a kérdőjel
A DeepSeek megjelenése felforgatta a mesterséges intelligencia világát, ugyanakkor egyre többen sejtik mögötte a kínai államot, és az amerikaiak kétségbe vonják azt az állítását, mennyiből és hogyan jutott el idáig.


Úgy fest, a DeepSeek felrobbantotta az ipar eddig biztosnak hitt narratíváját az AI végtelen energia- és erőforrásigényéről, és akár véget is vethet az „AI-hasznosítással” operáló cégek varázsának a Wall Streeten. A befektetések dollármilliárdjait vonzó nagy nevekkel szemben (mint amilyen az OpenAI mellett az Nvidia, az Alphabet, a Microsoft stb.) most megjelent egy új kínai szereplő, és rámutat: egyáltalán nem biztos, hogy az USA meg tudja tartani vezető szerepét a technológia fejlesztésében.

A DeepSeek nagyméretű nyelvi modellje lényegében egy olcsóbb, hatékonyabb ChatGPT, amely a kínaiak állítása szerint az OpenAI költségvetésének töredékéből és sokkal kevesebb (ráadásul elavultabb, exportkorlátozások előtti) Nvidia chippel készült, mint bármelyik vezető chatbot.

„Ez hatalmas földrengés az AI szektorban. Mindenki csak néz, és azt mondja: 'nem gondoltuk volna, hogy ez lehetséges’. Most, hogy mégis az, át kell gondolnunk mindent, amit eddig terveztünk” – vallotta be a CNN-nek Gil Luria, a D.A. Davidson befektetési csoport technológiai kutatási vezetője.

Ugyancsak kellemetlen pillanat ez a Trump-adminisztráció számára, hiszen az új elnök gyakorlatilag napokkal a DeepSeek megjelenése előtt jelentett be félbillió dolláros magánszektorból származó amerikai befektetést olyan adatközpontok építésére, amelyekkel az Egyesült Államok megőrizhetné vezető szerepét az AI fejlesztésében. Talán még az USA kormányzatánál is rosszabbul érintheti a kínai nyelvi modell megjelenése az AI-chip szállító Nvidiát, hiszen történelmi veszteséget szenvedett el, miután a részvényeinek értéke a DeepSeek hatására egy nap alatt 17 százalékot, körülbelül 600 milliárd dollárt zuhant.

Forrás: Nvidia

Az Nvidia eddig az AI-forradalom legnagyobb nyertese volt: háromtrillió dolláros vállalattá vált, de ha a kínaiak valóban képesek voltak ChatGPT-szintű modellt alkotni tizedannyi (vagy kevesebb), korábbi generációs processzorral, akkor lehet, hogy az ügyfelei nem fognak a jövőben annyi chipet vásárolni, amennyit a cég remélt. Bár teljesen kizárt, hogy az Nvidia emiatt feltenné a kezét (nincs is rá oka, hiszen a nyelvi modelleken túl önvezető, robotikai és más AI technológiák egész sorához szállít hardvereket), azért elismerte: a DeepSeek modellje „kiváló AI-fejlesztés”, amely „jól illusztrálja, hogy hogyan lehet új modelleket létrehozni”.

A DeepSeek megjelenése tehát arra kényszerítette a befektetőket, hogy átgondolják az AI-ipar jelenlegi és jövőben várható helyzetét.

Az eddigi narratíva szerint az AI fejlesztéséhez folyamatosan növelni kell a számítási kapacitást, de a kínai AI megjelenése „egyértelművé teszi, hogy az adatközpontok nagy mértékű skálázása aligha lesz gazdaságilag kifizetődő” – mondta Luria.

Ugyanakkor a Szeretlek Magyarországnak nyilatkozó Balogh Petya szerint a DeepSeek létezése jó hír, mert demokratikusabb irányba viszi az AI-fejlesztést. Az AI fejlődéséről és várható üzleti hatásairól cégvezetői oktatást is szervező üzletember szerint a kínai nyelvi modellnek köszönhetően nem fog monopol helyzetbe kerülni maroknyi amerikai cég – ahogy az történt az online keresés (Google) vagy éppen a közösségi média esetében (Facebook).

Ha az USA nagytőkés technológiai vállalkozásainak nem is, az AI demokratizálódásának valóban jót tesz, hogy piacra lépett egy sokkal olcsóbban előállított, forráskódját ingyen megosztó alkalmazás. Azt azonban az amerikaiak vitatják, hogy a Deepseek tényleg csak egy kicsi kínai startup lenne, amely mindössze 5,6 millió dollárból létrehozta azt, amit nekik csak sok milliárd dollárból sikerült.

Több amerikai cég is bedobta: adatot lophatott a DeepSeek

A Microsoft és az OpenAI vizsgálatot indított annak kiderítésére, hogy egy, a kínai DeepSeek startuphoz köthető csoport jogosulatlanul szerzett-e adatokat az OpenAI technológiájából – értesült a Bloomberg. A Microsoft biztonsági szakértői azt állítják, már tavaly ősszel észlelték, hogy valakik nagy mennyiségű adathoz juthattak az OpenAI alkalmazásprogramozási felületén keresztül, ami az OpenAI szolgáltatásainak fő hozzáférési pontja a szoftverfejlesztők és ügyfelek számára.

A Microsoft – amely az OpenAI legnagyobb befektetője – állítólag azonnal jelezte a gyanús tevékenységet a cégnek, és az eset már akkor komoly aggodalmat keltett az amerikai technológiai szektorban.

David Sacks, a Fehér Ház mesterséges intelligenciáért és kriptovalutákért felelős szakértője a Fox Newsnak adott interjúban azt mondta, valóban „lehetséges”, hogy a DeepSeek amerikai szellemi tulajdont lopott. „Jelentős bizonyítékok utalnak arra, hogy a DeepSeek lényegében kinyerte az OpenAI modelljeiből a tudást” - fogalmazott.

A mesterséges intelligencia iparban elterjedt gyakorlat az ún. „desztillálás”, ami lehetővé teszi egy meglévő modellből származtatott, hatékonyabb rendszer kialakítását. Ez általában teljesen legális folyamat – egészen addig, amíg nem egy cég zárt, védett technológia adatait használják fel, mert az már komoly jogi problémákat vethet fel. A OpenAI felhasználási feltételei világosan kimondják, hogy az általuk generált adatokat tilos felhasználni versenytárs technológia létrehozására. Persze, hogy a Deepseek esetében mindez ténylegesen megtörtént-e, arra egyelőre nincs egyértelmű bizonyíték.

„Tudjuk, hogy a Kínai Népköztársaságban aktívan dolgoznak azon, hogy lemásolják a fejlett amerikai AI-modelleket” – nyilatkozta Liz Bourgeois, az OpenAI szóvivője a The New York Timesnak. „Jelenleg vizsgáljuk, hogy a DeepSeek jogosulatlanul használta-e fel a modelljeinket, és ha több információval rendelkezünk, megosztjuk azt.”

Nem is egy kicsi cég?

A Deepseek megjelenése azért robbant ekkorát, mert ha igaz, amit állítanak, akkor az eddig gondoltnál nagyságrendekkel kevesebből is elő lehet állítani mesterséges intelligenciát, nincs szükség óriási mennyiségű fejlett chipre, különleges videókártyákra, hatalmas adatközpontokra. Azt állítják, erre egy kicsi startup is képes lehet.

A 2019-ben alapított Deepseek mögött egy Liang Wenfeng nevű üzletember és a High-Flyer Quant nevű hedge fund áll. Liang Wenfeng szerint a DeepSeek működése radikálisan eltér a nagyobb tech-cégekétől: míg például az Alibaba több százezer alkalmazottat foglalkoztat, ők egy kutatóintézetre hasonlítanak, amelyet főként frissen végzett egyetemisták és doktorandusz hallgatók alkotnak. Liang szerint a hagyományos tech-mamutok „nem biztos, hogy alkalmasak a jövő AI-iparának formálására” a magas költségek és merev szervezeti struktúrák miatt.

Ugyanakkor a Forbes arról ír, hogy egyáltalán nem biztos, hogy a DeepSeek tényleg annyira kicsi, amekkorának láttatni próbálja magát. Egyes források szerint

egy hatalmas hardverfarmot építettek, amiben legalább 10 ezer, de akár 50 ezer Nvidia Tensor A-100 grafikus kártya is dolgozhat. Ez pedig több százmillió dollárba kerül.

Az is furcsa, hogy a cégnek nincsenek kereskedelmi tervei, látszólag nem érdeklik őket a bevételek. Az amerikaiak szerint mindez arra utal, hogy a vállalkozás mögött valójában a kínai állam állhat, amely így próbál globális pozíciókat elfoglalni a mesterséges intelligencia-elsőségért folyó versenyben.

Lopás nélkül nincs is AI?

Persze az is lehet, hogy mindez csak egy kommunikációs ellencsapás az amerikai techcégek részéről, ráadásul az ő esetükben sem egyértelmű, hogy jogilag tiszta megoldásokkal képezték ki saját modelljeiket.

Az OpenAI például több tucatnyi perrel néz szembe, amelyekben azzal vádolják, hogy szabálytalanul használt fel jogvédett internetes tartalmakat a modelljei kiképzéséhez.

A The New York Times is pert indított az OpenAI és partnere, a Microsoft ellen, mivel állításuk szerint cikkeik millióit használták fel a chatbot képzésére, ami a hírforrások konkurenciájává válhat.

Egy nemrég készült jelentés ráadásul arra is rámutatott, hogy az OpenAI YouTube-videók hanganyagaiból szintén leiratot készített, hogy aztán az AI-modelljei továbbfejlesztésére használja fel. Belső levelezések szerint a vezetők tudták, hogy ez szembe mehet a YouTube irányelveivel, ennek ellenére, egy belső csapat – amelynek tagja volt Greg Brockman, az OpenAI elnöke is – több mint egymillió órányi YouTube-videót dolgozhatott fel, hogy aztán a szöveges adatokat a GPT-4 modellbe töltse és ezzel alaposan felhúzza annak tudásbázisát.

Az OpenAI vezérei: Greg Brockman (balra) és Sam Altman. Fotók: Wikipedia

A OpenAI vezérigazgatója, Sam Altman korábban elismerte, hogy a fejlett mesterséges intelligencia modellek betanításához szerzői jogvédelem alatt álló anyagokra van szükség, és kijelentette, hogy enélkül lehetetlen lenne ilyen rendszereket fejleszteni. A kijelentés azonnal felháborodást váltott ki a közösségi médiában, és most vissza is hullik a vállalat fejére:

miközben ők azt kommunikálják, hogy a DeepSeek akár el is lophatta az adataikat, egyre többen vádolják őket képmutatással.

Egy Bluesky-felhasználó így fogalmazott: „nevetséges, hogy az OpenAI, amely minden kérdés nélkül falta fel az adatainkat, most ujjal mutogat a DeepSeekre, amiért pontosan ugyanezt csinálja”. Ed Zitron AI-kritikus pedig így kommentálta az ügyet: „elnézést, de nem bírom abbahagyni a röhögést. Az OpenAI, a vállalat, amely gyakorlatilag az egész internet ellopására épült, most azért panaszkodik, mert a DeepSeek esetleg a ChatGPT válaszaiból tanult.”

Újabb AI-modellek jönnek, a cél az AGI

Miközben mindenki a DeepSeek sikerére és az amerikai AI-cégek befeszülésére figyelt, az Alibaba is bejelentett egy új mesterséges intelligencia modellt, a Qwen 2.5-Max-ot. A kínai tech-óriás szerint az új modell „szinte minden területen felülmúlja a GPT-4o-t, a DeepSeek-V3-at és a Llama-3.1-405B-t [a Meta AI-modelljét]” – idézi az Alibaba Cloud hivatalos WeChat-oldalát a Reuters.

A bejelentés időzítése azt mutatja, hogy az Alibaba komoly nyomást érez a hazai versenytársak részéről, és valószínűleg így volt ezzel a TikTok anyavállalata, a ByteDance is, amikor két nappal a DeepSeek-R1 január 20-i megjelenése után közölte: frissítette saját AI-modelljét, amely szerintük szintén felülmúlja az OpenAI által kifejlesztett terméket. Ezt az állítást igazolták is egy AIME benchmark teszttel, ami azt méri, hogy egy mesterséges intelligencia modell mennyire érti az összetett utasításokat és hogyan reagál rájuk.

Mindez arra utal, hogy bármi is az igazság a DeepSeekről, Amerika komoly versenytársakkal nézhet szembe.


Link másolása
KÖVESS MINKET:


JÖVŐ
A Rovatból
Feltámasztották Albert Einsteint - elárasztották az Instát és a TikTokot az életre kelt régi fotók, és ez nemcsak egy játék
A politikai kampányokban és a háborús propagandában jöhetnek a teljesen hihető hamisított videók, de a színészek jövője is veszélybe került, nem is beszélve az influenszerekről. Eljött a félrevezetések kora.


Az Instagramon és a TikTokon egyre több olyan reklám jön szembe, amin életre kelnek a régi fényképek. A TikTokot birtokló ByteDance kutatói is kifejlesztettek egy olyan mesterséges intelligencia-rendszert, amely egyetlen fotóból képes élethű videókat generálni. Az eredetileg csak pillanatképen látható személy a generált videón megtévesztő természetességgel beszél, énekel, gesztikulál vagy mozog. Az új AI-modell készítői szerint ez az áttörés forradalmasíthatja a digitális szórakoztatást vagy a kommunikációt. És a világhírű Einstein-portré alább látható életre keltése láttán nehéz lenne vitatni, hogy igazuk lesz.

Einstein életre kel

Bár a videó hangja nem a Nobel-díjas elméleti fizikustól származik, hanem – a New York Post szerint – Jaak Panksepp neurológus és állati érzelmekkel foglalkozó kutató bő egy évtizeddel ezelőtti beszédéből vágták ki, az eredmény valóban lenyűgöző. Úgy tűnik, hogy az egyébként teljes testalakot életre keltő, OmniHuman névre keresztelt rendszer alaposan túlszárnyalhatja a korábbi AI modelleket, amelyek csak arcot vagy felsőtestet tudtak animálni a fényképekből.

„A humán animációs technológiák az utóbbi években komoly fejlődésen mentek át, de a meglévő módszerek még mindig nehezen skálázhatók általános videógeneráló modellekké, ami korlátozza a valódi alkalmazhatóságukat” – jegyzik meg tanulmányukban a ByteDance tudósai. A szakemberek meghatározása szerint „teljes körű, multimodális mozgáskondicionálású emberi videógeneráló keretrendszert” alkottak, ami egyetlen kép, valamint a mozgási jelek (ezen belül a hang, a videó vagy mindkettő) alapján hoz létre „emberi videókat”.

Így készült az új AI

Az OmniHuman vegyes adatokkal történő tanulási stratégiát alkalmaz, kihasználja a vegyes adatok skálázhatóságát, hogy leküzdje a magas minőségű adatok hiányát, ami a korábbi módszereket jelentősen visszafogta. Ezzel a ByteDance AI-ja valóban képes lehet felülmúlni a meglévő megoldásokat, például az OpenAI Soráját, hiszen tényleg rendkívül élethű videókat készít emberekről, még egészen gyenge bemeneti jelek, különösen hang alapján.

Az OmniHuman bármilyen képarányú képet támogat (portré, felsőtest, alsótest vagy teljes test), és különböző helyzetekben is élethű, kiváló minőségű eredményt nyújt – foglalják össze a kutatók.

A csapat több mint 18.700 órányi, hús-vér emberekről készült videó felhasználásával képezte ki az OmniHumant, egy olyan új módszert alkalmazva, ami képes kombinálni többféle inputot, így szöveget, hangot és testmozgást. Ez a tréningstratégia teszi lehetővé, hogy az új AI jóval nagyobb és változatosabb adathalmazokból tanuljon, mint a korábbi megoldások.

Az OmniHuman ráadásul különböző bemeneti képekkel kompatibilis, és megőrzi a mozgás stílusát, például a jellegzetes szájmozgásokat. Mindemellett kiemelkedőnek tűnik akkor is, ha objektumokat kell használnia: képes olyan videókat generálni, amelyeken egy személy énekel, miközben hangszereken játszik, vagy természetes gesztikulációt végez, különböző tárgyakat tartva. Óriási előnye továbbá, hogy pózalapú videógenerálást is végrehajt, illetve együttesen vezérli a pózt és a hangot.

Ő sem létezik

Ez a technológia új mérföldkő lehet az AI-alapú médiaalkotásban, és képes például beszédet mondó vagy hangszeren játszó embereket ábrázoló videók előállítására. Az OmniHuman a tesztek során több minőségi mutatóban is felülmúlta a meglévő rendszereket – emeli ki a VentureBeat, hozzátéve: a fejlesztést egyre kiélezettebb verseny hívta életre, hiszen olyan óriásvállalatok dolgoznak hasonló technológiákon, mint a Google, a Meta és a Microsoft. A ByteDance áttörése előnyt jelenthet, pláne akkor, ha beépíti azt az általa kiadott – és az USÁ-ban jelenleg nehéz helyzetben lévő – TikTok rendszerébe. Nem nehéz arra következtetni, hogy az OmniHuman ezzel a távlati céllal készülhetett.

Milyen hatással lesz a ByteDance AI-ja a tartalomgyártásra?

Bár az OmniHuman széles körben egyelőre nem hozzáférhető, a fejlesztők több tucatnyi videót tettek közzé arról, hogy a tartalomkészítők milyen lehetőségekre számíthatnak tőle. Érdemes ugyanakkor megjegyezni, hogy az AI nem feltétlenül fogja a javukat szolgálni, és erre a Forbesnak nyilatkozó szakértők is egyértelműen rávilágítottak.

„Nagyon lenyűgözőek” – mondta a ByteDance kutatóinak videóiról Freddy Tran Nager, a Dél-Kaliforniai Egyetem Annenberg Kommunikációs és Újságírói Iskolájának klinikai adjunktusa. „Ha arra gondolnánk, hogy feltámasztjuk Humphrey Bogartot, és szerepeltetjük egy filmben, nem vagyok biztos benne, hogy jól nézne ki, de egy kis képernyőn, különösen telefonon, nagyon meggyőzőek.”

Az eszköz a ByteDance-t – és ezáltal a TikTokot – egyértelműen a legrealisztikusabb AI-generált videókért folytatott verseny élmezőnyébe helyezi, hiszen a digitális alakok egyre több helyen bukkannak fel: virtuális influencerként reklámoznak termékeket, tisztviselők digitális verzióiként segítenek eligazodni a közszolgáltatások használatában, vagy éppen hírességek deepfake verzióiként lépnek kapcsolatba az emberekkel – nem egyszer komoly bajt is okozva.

Kellenek még egyáltalán humán influencerek?

Nager szerint egy olyan eszköz, amely egyetlen fotóból képes videókat létrehozni, számos felhasználási lehetőséget kínálhat: a diákok például eldönthetnék, hogy milyen formában kapják meg az információt egy online kurzuson:

„Szeretném, ha Marilyn Monroe tanítana statisztikát. Vagy egy bábfigura. Vagy Breki, a béka”

– hozott fel néhány példát. Tekintettel azonban az OmniHuman nyilvánvaló kapcsolatára a TikTokkal, a szakértő azt is el tudja képzelni, hogy a kiégett tartalomgyártók a saját virtuális másukat használnák fel a videóikban, vagy

a TikTok mondhatja azt is: Tudjátok mit? Mostantól magunk is létrehozhatunk videókat. Kinek van még szüksége emberekre?

Samantha G. Wolfe, a New Yorki Egyetem Kultúra-, Oktatás- és Fejlődéskutató Intézetének adjunktusa szintén lát veszélyeket az OmniHumanhoz hasonló eszközökben. „Létrehozni valamit pusztán egy képből, és úgy megjeleníteni, mintha valóban beszélne és mozogna, technológiai szempontból lenyűgöző, de rengeteg potenciálisan negatív következménye is lehet. Egy üzleti vagy politikai vezető hamisított verziója például, ha olyasmit mond, ami nem igaz, óriási hatással lehet egy vállalatra vagy akár egy egész országra.”

Ahogy az AI által generált videók egyre kifinomultabbá válnak, úgy nőnek a kockázatok is. „Minél inkább hasonlítanak a valóságra, minél inkább úgy tűnik, mintha valódi emberek lennének, annál nagyobb a valószínűsége, hogy az emberek elhiszik, amit mondanak” – magyarázta Wolfe. A szakértő véleményét sajnos több közelmúltban történt eset is igazolja.

Emlékezetes, hogy tavaly néhány országban villámgyorsan terjedtek szét politikai deepfake-ek, jellemzően a választásokat megelőző időszakokban.

A tajvani voksolás napján például egy vélhetően a Kínai Kommunista Párthoz köthető csoport tett közzé mesterséges intelligencia által generált, félrevezető hangfelvételt, amelyben egy helyi politikus támogatását fejezte ki ellenfele, a Kína-barát jelölt mellett. Moldovában szintén a kampány alatt jelentek meg deepfake videók az ország elnökéről, Maia Sandutról, amint éppen lemond a tisztségéről, míg Dél-Afrikában maga Eminem „biztosította támogatásáról” az egyik ellenzéki pártot a választások előtt.

A deepfake-ek ennél is gyakrabban válnak pénzügyi bűncselekmények eszközévé. A fogyasztókat hírességek hamisított videóival verik át úgy, hogy megtévesztő befektetési lehetőségeket ajánlanak, de bizonyos vállalatokat is dollármilliós károk érhetnek deepfake csalások miatt. A Deloitte szerint a generatív AI segítségével végrehajtott csalások 2023-ban több mint 12 milliárd dolláros kárt okoztak, csak az Egyesült Államokban, és ez az összeg 2027-re elérheti a 40 milliárd dollárt.

Elon Musktól minden hihető

Az OmniHuman ugyan nem az első AI-eszköz, amely egyetlen fotóból képes videókat generálni, de az mindenképpen megkülönbözteti a többitől, hogy a mögötte álló csapat hatalmas mennyiségű adathoz fér hozzá – jelentette ki Nager.

„Ha valaha készítettél TikTok-videót, jó esély van rá, hogy már egy olyan adatbázisban vagy, amelyet virtuális emberek létrehozására fognak használni.”

A tudós állítására reagálva a ByteDance szóvivője azt írta a Forbesnak, hogy a modellt nem a vállalat termékeiből származó adatokból képezték ki. Hozzátette: ha az OmniHuman nyilvánosan elérhetővé válik, tartalmazni fog olyan védelmi mechanizmusokat, amelyek megakadályozzák a káros vagy félrevezető tartalmak létrehozását, de olyan átláthatósági intézkedéseket is bevezetnek hozzá, amelyek egyértelművé teszik, hogy az adott tartalmat AI generálta.

Nem túl megnyugtató belegondolni, de úgy fest, igaz, hogy egyelőre az AI-kat üzemeltető cégek adott szavára vagyunk kénytelenek hagyatkozni, ha a káros hamisítványok megfékezéséről van szó. A deepfake-eket egyre nehezebb felismerni, és bár egyes közösségi médiumok és keresőmotorok tettek lépéseket a terjedésük korlátozására, az interneten elérhető hamis tartalmak mennyisége riasztó ütemben növekszik.

A Jumio ID-ellenőrző cég 2024 májusában végzett felmérése szerint az emberek 60 százaléka találkozott deepfake tartalommal az elmúlt évben, és a válaszadók 72 százaléka aggódik amiatt, hogy bármikor félrevezethetik őket. A kutatásban résztvevők többsége éppen ezért teljes mellszélességgel támogatja a mesterséges intelligencia által generált hamis tartalmak szabályozását célzó jogszabályokat.


Link másolása
KÖVESS MINKET: