JÖVŐ
A Rovatból

Nyakunkon az adatbumm: annyi adatot hozunk létre, hogy már alig lehet tárolni – új megoldások kellenek

Vadonatúj technológiákra van szükség ahhoz, hogy a világ adatforgalma, illetve egyáltalán az internet működő- és fejlődőképes maradjon. Hamarosan jöhet a gyémántba írt „örök adat”, de dollárbilliókat kell ölni kapacitásnövelésbe is.


Azzal, hogy ön elolvassa ezt az egy cikket, legkevesebb 1-5 MB adat keletkezik, de ha hozzávesszük az oldalon található képeket és videókat is, akkor ennek a többszöröséről beszélhetünk. A használattal adatot generál az eszköze, az internetszolgáltatója, a böngészője vagy a Szeretlek Magyarország Android és iOS alkalmazása. Kapcsolati adatok töltődnek be a koppintás, az olvasás és a görgetés hatására, analitikai eszközök rögzítenek különböző információkat és aktivitásokat, míg összességében akár 5–10 MB adatforgalom és több tucat adatpont keletkezik.

És ez csak egyetlen oldal egyszeri elolvasása.

Ha az ön teljes napját nézzük, akkor a 8-10 cikk elvolvasásával keletkező 20-150 megabájt adaton felül létrejön percenként 5-10 MB a közösségi média használatából, óránként 3-7 gigabájt a videó vagy zenei streaming alkalmazások futtatásából, illetve napi 50-100 MB a csevegésből és az e-mail szolgáltatásból, 30-50 MB pedig a vásárlásból, amihez még társul 50-500 MB háttér-információ és alkalmazásfrissítés.

Amennyiben ön egy átlagos internetfelhasználó, akkor 24 óra alatt legkevesebb 2-10 GB adatforgalmat generál, de az intenzívebben netező, például több videót néző társa már gond nélkül eléri a 15-50 GB-ot. A világon jelenleg 5,5 milliárd önhöz hasonló felhasználó teszi ugyanezt, ami őrületes adatmennyiséget jelent, és akkor még nem beszéltünk a személyeknél jóval több adatot létrehozó infrastruktúrákról, vállalatokról, gyárakról és ki tudja hányféle szervezetről.

Adatbumm: gigantikus adatmennyiség keletkezik, de alig tudjuk tárolni

Egyre kritikusabb mennyiségű adat keletkezik a Földön és ezt már napjainkban sem egyszerű kezelni – pedig még hátravan egy óriási adatbumm. Az új technológiai platformok – például az autonóm járművek és a mesterséges intelligencia – persze nemcsak adatokat igényelnek, hanem maguk is forradalmasíthatják az adatfeldolgozás, illetve -felhasználás módját.

Az igazi kérdés ugyanakkor az, hogy az infrastruktúra képes lesz-e tartani az iramot ezzel a robbanásszerű növekedéssel?

A Holon Global Investments riportja szerint az elmúlt évtizedek technológiai fejlődése soha nem látott mennyiségű adatot hozott létre a világon. Az éves adatgenerálás az 1950-es évek óta lassan érte el az egy zettabájtot, ami legalább egybillió mai számítógép teljes tárolókapacitásával egyenértékű. A tárolt adatmennyiség gyors növekedése az utóbbi évek egyik legjelentősebb technológiai trendje. 2020-ban a globálisan keletkezett adat mennyisége elérte a 64 zettabájtot, 2021-re viszont már 80 ZB-ra ugrott, nagyrészt az okostelefonok és az IoT-eszközök elterjedése miatt. A szervezet azt jósolja, hogy 2025-re a globális adatmennyiség várhatóan megüti a 180 ZB-t is, de a növekedés még nagyobb lehet, az IoT eszközök és az önvezető autók további terjedésével​.

Valós idejű adatelemzés – önvezető autó a forgalomban

 

A Holon becslései szerint az autonóm elektromos járművek minden egyes darabja 10 gigabájt adatot generálhat másodpercenként, ami 2040-re évi 16.000 ZB adatot jelenthet. Az IoT-eszközök szintén hatalmas mennyiségű adatot állítanak elő: a 2040-re várt 930 milliárd eszköz összesen 46.000 ZB forgalmat produkálhat évente​. Ezeket és minden más internethasználatot összesítve elég valószínű, hogy a következő évtized végére elérjük majd az egyelőre felfoghatatlan, évi 75.000 ZB-os adatmennyiséget.

A tárolókapacitás korlátai

Bár az adatmennyiség robbanásszerűen nő, a tárolókapacitás egyelőre nem képes tartani a lépést. A Holon szerint a 2020-as 64 ZB adatnak mindössze 0,6 százalékát sikerült hosszú távon tárolni. A redundancia érdekében alkalmazott többpéldányos tárolás ráadásul tovább rontott a helyzeten, így az eltárolható adatok aránya 0,15 százalékra esett vissza. A​ kutatás arra jutott, hogy évente 27 százalékos kapacitásnövekedésre lenne szükség ahhoz, hogy a globális internet adattárolása megoldott maradjon, de ez a bővítés akár 50-100 billió dollárba is kerülhet​.

A tárolási válság elkerülése érdekében új technológiák és decentralizált modellek (például: Filecoin adatmegosztási platform, ami a kriptovalutáknál is alkalmazott blokklánc-technológiát használja) jelenthetnek megoldást. Ezek a modellek lehetővé tennék, hogy a tárolási kapacitást globálisan, kiszolgálók hálózatán keresztül osszák meg, jelentősen csökkentve a költségeket és növelve a hatékonyságot.

Hogyan oldható meg a nagy mennyiségű adat tárolása?

A gigantikus adathalmaz tárolása és a forgalom biztosítása óriási szerverparkokban valósul meg. Ezek őrületes mennyiségű energiát igényelnek, így – a magas üzemeltetési költségeken felül – hamar fenntarthatósági problémákba ütközhetnek. Éppen ezért nőtt meg az utóbbi években a sarkköri adatközpontok iránti érdeklődés. A High North News elemzése szerint az északi sarkkörön túl épülő adatközpontok számos előnyt kínálnak, de a legfőbb vonzerejük a természetes hűtési lehetőség. Az alacsony külső hőmérséklet minimalizálja a szerverek hűtéséhez szükséges energiaigényt, ami jelentős költségcsökkentést eredményez, ráadásul a hagyományos helyszíneknél jóval kevésbé karbonintenzív megoldásról beszélünk.

A természetes hidegen kívül ezeken a területeken megújuló energiaforrások is rendelkezésre állnak, így az adatközpontok fenntartható és környezetbarát módon működhetnek. Szükség is van rájuk – egyre nagyobb számban.

A sarkköri adatközpontok különösen vonzóak az olyan techóriásoknak, mint a Google és a Meta, mert ezek a cégek hatalmas adatmennyiséget kezelnek, és egyre nagyobb hangsúlyt helyeznek a fenntarthatóságra. Az ilyen projektek jelentős helyi gazdaságélénkítő hatással is bírnak, mivel új munkahelyeket teremtenek és befektetéseket vonzanak a régiókba.

A működő sarkköri adatközpontok egyik meggyőző példája a norvég Lefdal Mine Data Center, amelyet egy régi bánya átalakításával hoztak létre. Ez az adatközpont Norvégia nyugati részén, Måløy közelében található, és a hűtést természetes módon oldja meg, kihasználva a hideg tengervíz közelségét.

Az adatközpontot úgy tervezték, hogy környezetbarát és rendkívül energiahatékony legyen, ráadásul a 75 méter mélyen lévő infrastruktúra jelentős védelmet nyújt a természeti katasztrófákkal szemben.

Ugyancsak Norvégiában, a sarkkörön túl nyílik új fejezet a Bitcoin-bányászatban: a Sazmining egy vízerőmű-alapú adatközpontot nyit, ami a fenntarthatóság és az innováció jegyében kezdi meg a működést. A várhatóan még ebben az évben megnyíló központ nemcsak a kriptovaluta-bányászatot teszi környezetbaráttá (végre), hanem a helyi közösségeket is támogatja – írja az Intelligent Data Centres.

Az adatközpont a világ egyik legészakibb lakott régiójában épül, ahol a hideg éghajlat természetes előnyöket kínál a hűtéshez. Kizárólag vízerőművekből származó energiát használ, ezzel közel 99 százalékosan karbonmentes működésre képes. Sőt, a Sazmining különleges megoldásának köszönhetően a Bitcoin-bányászat során keletkező hulladékhőt újrahasznosítják, például helyi iparágakban, köztük a hagyományos tőkehalszárító üzemekben, de kiválthatnak vele egyéb olajfűtésű kazánokat is, ami tovább csökkenti a közösség energiafelhasználásának karbonlábnyomát. Ezen túlmenően az adatközpont lehetőséget nyújt a helyi vállalkozások számára, hogy részesüljenek a fenntartható technológia előnyeiből.

A Sazmining norvégiai projektje rávilágít arra, hogy a fenntartható megoldások és a digitális technológiák hogyan segíthetik egymást, miközben pozitív hatással vannak a helyi közösségekre és a globális környezetre.

„Örök adat” – jöhetnek a gyémánt alapú adattárolók

A hatalmas, hideg égövi, eleve fenntarthatónak épülő szerverparkok mellett szükség van új technológiákra is, amelyek egyrészt elszakadnak a ma ismert adattárolók működési elveitől, másrészt megoldják a tartós tárolás problémáját. Gyakorlatilag örökre.

Képzeljen el egy jövőt, amelyben az emberi civilizáció adatai olyan tartós formában megőrizhetők, hogy akár évmilliókig érthetőek és elérhetőek maradnak! Ez a tudományos-fantasztikus történetekbe illő elképzelés egy lépéssel közelebb került a valósághoz, köszönhetően egy úttörő kutatásnak, ami gyémántból alkotott adattároló közeget. A rendszert a Kínai Tudományos és Technológiai Egyetem kutatói fejlesztettek ki, az adatsűrűsége pedig igazi rekord:

1,85 terabájt adatmennyiséget mentettek el, egyetlen köbcentiméternyi gyémántban.

Ez nemcsak a kapacitás szempontjából figyelemre méltó teljesítmény, hanem az időtállóság miatt is: a tudósok szerint több millió évig képes megőrizni az információkat, anélkül, hogy különösebb karbantartást igényelne. A módszer lényege, hogy az információt a gyémánt atomstruktúrájába kódolják: ultragyors lézerimpulzusokat használnak, hogy apró „hibákat”, fluoreszkáló vákuumhelyeket hozzanak létre a kristályrácsban. Ezek a mikroszkopikus „üregek” az adattárolás építőkövei: a fényszintek precíz mintázatain keresztül kódolhatóak beléjük az információk.

A technológia demonstrációjaként a kutatócsoport sikeresen tárolta el, majd állította vissza Eadweard Muybridge híres fényképsorozatát, az 1878-as első mozgóképsort. A fotókat 99 százalékos pontossággal sikerült kinyerni, kvázi kimásolni az atomstruktúrából. Az eredmény jól mutatja, hogy a gyémánt-alapú rendszer milyen hatékony és megbízható az adatok kezelésére, ezáltal a jövő helytakarékos, tűpontos és örök időkig tartó adattárolóinak alapjává válhat.

A megoldás tényleg forradalmi és szükséges, mivel a jelenlegi adattárolók – mint a merevlemezek, SSD-k vagy optikai lemezek – a kapacitásuk határait súrolják. A gyémánt alapú optikai adattároló viszont akár kétezerszer több adatot képes tárolni, mint egy Blu-ray lemez.

Ahhoz persze még idő kell, hogy a szerverparkokba, majd később a számítógépeinkbe gyémánt alapú adattárolók kerüljenek, hiszen elképesztően drága megoldás. Azonban érdekes módon nem a gyémánt, vagy annak ipari változata, hanem a működéséhez szükséges lézerberendezések és képalkotó rendszerek magas költségei miatt. A kutatók nagyon bíznak benne, hogy a tervezett fejlesztések olcsóbbá és széles körben hozzáférhetőbbé teszik a technológiát.

Ha az adatközpontok fejlesztése és kapacitásnövelése megtörténik, illetve az adattárolás sikeresen elszakad a ma ismert – viszont ilyen nagy igények mellett már nem elégséges – hardvermegoldásoktól, akkor óriási lendülettel folytatódhat az olyan jövőtechnológiák sikertörténete, mint a mesterséges intelligencia, az IoT és az önvezetés.


Link másolása
KÖVESS MINKET:

Népszerű
Ajánljuk
Címlapról ajánljuk


JÖVŐ
A Rovatból
„A legsötétebb nap” – Trump környezetvédelmi ügynöksége eltörli a legfontosabb környezetvédelmi szabályokat
Több tucat szabályozást vonnak vissza. Az ügynökség új vezetője szerint véget ér a "zöld átverés" kora, és a jövőben azon dolgoznak majd, hogy megszűnjön a jogi felhatalmazásuk a szén-dioxid és más üvegházhatású gázok szabályozására.


A Trump-kormányzat bejelentette, hogy visszavonja az ország több tucat környezetvédelmi szabályozását, köztük a kipufogógázokra és gyárkéményekre vonatkozó szennyezési határértékeket, a vizes élőhelyek védelmét és az üvegházhatású gázok szabályozásának jogi alapját.

Lee Zeldin, a Környezetvédelmi Ügynökség (E.P.A.) vezetője egy online videóban azt mondta, hogy az ügynökség célja a jövőben az, hogy „csökkentse az autóvásárlás, az otthoni fűtés és a vállalkozások költségeit”. A videóban nem beszélt a környezet vagy a közegészség védelméről, amire az ügynökség létrejött.

Zeldin bejelentette, hogy visszavonnak több mint két tucat levegő- és vízszennyezés elleni szabályt.

Az E.P.A. a tervek szerint enyhítené az erőművek szén-dioxid-kibocsátási korlátozásait. A jelenlegi előírások szerint a széntüzelésű erőműveknek és az új gázerőműveknek 2039-ig 90 százalékkal kellene csökkenteniük a kibocsátásukat. A gépjárművekre vonatkozó kibocsátási normákat is átírnák, így nem lenne kötelező, hogy 2032-re az új autók és könnyű teherautók többsége elektromos vagy hibrid legyen. Eltörölnék a koromkibocsátási határértékeket, amelyeket légzőszervi betegségekkel és idő előtti halálozásokkal hoztak összefüggésbe.

A Biden-kormányzat egyik szabályozása előírta, hogy a széntüzelésű erőművek higanykibocsátását 70 százalékkal csökkentsék, mivel a higany káros a gyermekek fejlődésére. Az új tervek szerint ezt is eltörölnék. Nem működne többé a „jó szomszédság szabály”, amely arra kötelezte az államokat, hogy kezeljék az általuk kibocsátott, más államokba sodródó szennyezést. Emellett eltörölnék azokat az intézkedéseket, amelyek a szegényebb és kisebbségi közösségek védelmét helyezik előtérbe.

A klímaváltozás hatásainak számszerűsítésére használt „szén-dioxid társadalmi költségét” is jelentősen csökkentenék. Ezt az értéket a szabályozások gazdasági hatásainak mérlegelésekor használják.

Zeldin szerint az E.P.A. a jövőben nem venné figyelembe a környezeti politikák társadalmi költségeit, például azt, hogy az erdőtüzeket, aszályokat, viharokat és más katasztrófákat mennyire súlyosbíthatják a szennyezések.

Az egyik legfontosabb változás az lenne, hogy az E.P.A. eltörölné a 2009-es veszélyeztetettségi megállapítást, amely alapján az üvegházhatású gázok veszélyt jelentenek a közegészségre. Ha ezt visszavonnák, az ügynökség gyakorlatilag nem tudná szabályozni a klímaváltozást okozó kibocsátásokat. Zeldin erről a videóban úgy fogalmazott, hogy

az ügynökség azon dolgozik majd, hogy megszűnjön a jogi felhatalmazásuk a szén-dioxid és más üvegházhatású gázok szabályozására. A videóban ezt „a klímaváltozás vallásának szent gráljaként” emlegette.

Zeldin a bejelentést „az Egyesült Államok történetének legnagyobb deregulációs bejelentésének” nevezte, és azt mondta: „Ma véget ér a zöld átverés, és az E.P.A. hozzájárul az amerikai aranykor eljöveteléhez.”

Trump már korábban is kampányolt azzal, hogy lazítaná a fosszilis tüzelőanyag-ipart érintő szabályozásokat, és „fúrjunk, fúrjunk, fúrjunk” jelszóval hirdette energiapolitikáját. Visszatérése óta befagyasztotta a Kongresszus által jóváhagyott klímavédelmi programok finanszírozását, elbocsátotta az időjárási és klíma-előrejelzéseken dolgozó tudósokat, és csökkentette azokat az állami támogatásokat, amelyek a fosszilis tüzelőanyagokról való átállást segítették elő.

Az Egyesült Államok a világ történetének legnagyobb szén-dioxid-kibocsátója, és a tudósok szerint ez az üvegházhatású gáz a klímaváltozás fő mozgatórugója. A tavalyi év volt a legmelegebb a feljegyzések kezdete óta, és az országban 27 olyan természeti katasztrófa történt, amelyek egyenként legalább 1 milliárd dolláros kárt okoztak – míg 1980-ban ez a szám csupán három volt.

Sheldon Whitehouse, Rhode Island demokrata szenátora a New York Timesnak azt mondta „ma jött el az a nap, amiért Trump nagy olajipari támogatói fizettek”. Szerinte az E.P.A. lépései támadást jelentenek a tiszta levegő, a tiszta víz és a megfizethető energia ellen. „Zeldin igazgató nyilvánvalóan hazudott, amikor azt mondta, hogy tiszteletben tartja a tudományt és meghallgatja a szakértőket” – tette hozzá.

Gina McCarthy, aki az Obama-kormányzat idején vezette az E.P.A.-t, azt mondta, hogy ez „az E.P.A. történetének legsötétebb napja”.

Szerinte ezeknek a szabályoknak a visszavonása „nem csupán szégyen, hanem fenyegetés mindannyiunk számára”.


# Csináld másképp

Te mit csinálnál másképp? - Csatlakozz a klímaváltozás hatásairól, a műanyagmentességről és a zero waste-ről szóló facebook-csoportunkhoz, és oszd meg a véleményedet, tapasztalataidat!

Link másolása
KÖVESS MINKET:

JÖVŐ
A Rovatból
A ChatGPT a saját gyerekei megölésével vádolt meg egy ártatlan férfit
Stimmelt a férfi neve, a szülővárosa, a gyerekek száma, a nemük, csak az nem, hogy a háromból kettőt meggyilkolt. Ja, és a harmadikat is megpróbálta eltenni láb alól. Legalábbis a mesterséges intelligencia szerint.


Az osztrák Noyb nevű adatvédelmi jogvédő szervezet újabb panaszt nyújtott be az OpenAI ellen, mert a ChatGPT egy norvég férfit tévesen gyilkossággal vádolt meg, írja az Engadget. A mesterséges intelligencia azt állította róla, hogy

21 év börtönt kapott két gyermeke meggyilkolásáért és egy harmadik megölésének kísérletéért, miközben ez nem igaz.

A ChatGPT a valós adatokat is összekeverte a hamis állításokkal: helyesen adta meg a férfi szülővárosát, valamint gyermekei számát és nemét. A Noyb szerint ezzel egyértelműen megsértette az adatvédelmi szabályokat.

Nem ez az első eset, hogy a ChatGPT valótlan vádakkal illet ártatlan embereket. Korábban egy férfit csalással, egy bírósági tudósítót gyermekbántalmazással, egy jogászprofesszort pedig szexuális zaklatással hozott összefüggésbe – derül ki a magazin cikkéből.

Az OpenAI eddig azzal védekezett, hogy a ChatGPT figyelmezteti a felhasználókat a hibák lehetőségére, de a jogvédők szerint ez nem elég. A kérdés most az, hogyan reagál a cég az újabb panaszra – és hogy egy mesterséges intelligencia megúszhatja-e annyival, hogy „bocsánat, tévedtem”.

(via Telex)


Link másolása
KÖVESS MINKET:


JÖVŐ
A Rovatból
Balogh Petya: A kínai DeepSeek semennyire nem veszélyes, sőt, egy demokratikusabb irányba viszi az AI-fejlesztést
Az olcsó kínai AI megjelenése megrengette az amerikai tőzsdét. Balogh Petya szerint azonban ennél jobb nem is történhetett volna. Lehet, hogy a nagy amerikai techcégek, amelyek ezért a monopóliumért versenyeztek, most veszítettek, de a világ mindenképpen nyert.


Komoly pánikot váltott ki Amerikában, hogy egy kínai cég olyan mesterséges intelligenciával állt elő, amelyik töredékáron készült, és mégis hasonló teljesítményt nyújt, mint a ChatGPT. A DeepSeek mindössze 5,6 millió dollárba került. A hírre az amerikai tőzsde a történelem egyik legnagyobb részvényzuhanásával reagált. A mesterséges intelligenciákhoz drága chipeket gyártó NVidia egyetlen nap alatt 600 milliárd dollárt veszített az értékéből. Ez 17%-os esés, igaz, az első pánik után másnap 8%-ot erősödtek a cég részvényei.

De a DeepSeek rávilágított arra, mennyire törékeny az amerikai óriáscégek előnye Kínával szemben a mesterséges intelligencia terén.

Donald Trump úgy reagált, végsősoron jó dolog történt, mert hosszabb távon olcsóbban lehet majd fejleszteni. Hogyan lehet, hogy ilyen olcsón ki tudott jönni a DeepSeek, és ez az esemény milyen hatással lesz a mesterséges intelligencia fejlesztésére? A kérdéseinkre Balogh Petya válaszolt, aki az STRT Holding Nyrt igazgatósági elnöke, és befektetéseik mellett csapatával tavaly több ezer cégvezetőnek tartott oktatást az AI fejlődéséről és várható üzleti hatásairól. Kiderült, őt kifejezetten feldobták az új fejlemények.

– Örülünk, és miért örülünk?

– Azért, mert az egyik nagy dilemmája a technológiának az utóbbi évtizedekben, hogy több olyan technológia volt, ami nagyon nyitottnak, nagyon szabadnak és demokratizálónak indult, és végül egy-egy monopólium rátelepedett. Maga a webes böngészés és információszerzés is szabadnak indult, hiszen bárki tud weboldalt csinálni, de aztán kiderült, ahhoz, hogy bárkinek a weboldalát megtaláljuk, csak egy darab játékos lett a Google, akin keresztül ezt hatékonyan és jól lehetett megoldani.

Úgyhogy végül is a webet a Google monopóliumba tudta ezzel hajtani, és a webes kereséseknek, hirdetéseknek ő lett a vámszedője. És most már ott tartunk, hogy akár a tranzakció értékének a negyede, ötöde hirdetési költség formájában ennél a vámszedőnél landol.

Ugyanígy a social médiában a Meta, azaz a Facebook anyacége, az Instagram és más platformok révén szintén monopóliumot alakított ki, és most arra törekszik, hogy a TikTokot is megszerezze, ezzel tovább erősítve pozícióját. Tehát egy szabadnak, nyitottnak indult technológiából végül monopólium lett. A mesterséges intelligencia kapcsán ez azért veszélyes, akárcsak a Google kapcsán, hogy aki a tudáshoz való hozzáférést vezérli, annak nemcsak brutális gazdasági, hanem hihetetlen politikai befolyásoló ereje is lesz. Nem véletlen, hogy amikor Trump először nyert, akkor azt egyértelműen egy, a Facebookot ügyesen használó csapatnak, a Cambridge Analyticának köszönhette jelentős mértékben, mert a Facebookot, mint manipulatív eszközt a politikai célokra fegyverként bevetve tudtak a szavazókra hatni.

Ha ugyanez történik a mesterséges intelligenciában, akkor lesz egy cég, amely eldöntheti, hogy egy-egy kérdésben mit tudjon az egész emberiség.

És akkor jön egy kis kínai játékos, aki pedig megmutatja, hogy több nagyságrenddel olcsóbban közel olyan színvonalat tud előállítani. És nem elég, hogy megcsinálja ezt, és árban versenyezne vele, hanem a teljes fejlesztését, az összes programkódot, a teljes adatbázist, a létrejövő mesterséges intelligenciát mindenestől bedobja a közösbe.

– Ez neki miért jó?

– Érdekes, hogy nem ők kezdték ezt a játékot, hanem nyílt forráskódú fejlesztésben is sokan kísérletezgettek, hogy tudnak-e valami hasonlót csinálni, mint a ChatGPT, de a legnagyobb játékos az utóbbi években ebben a Meta lett, a Facebook anyacége. A cég még nem tudja, hogyan fog üzleti hasznot húzni, de azt tudja, hogy nem szeretné, ha a három nagy monopóliumból valaki más nyerje meg a versenyt. Ezért egy Llama nevű modellt tett elérhetővé, amely szintén ingyenesen hozzáférhető.

Ez egyfajta válasz volt a nagy monopóliumokra: egy esély arra, hogy a piac demokratizálódjon.

Most a kínaiak rájöttek arra, hogy mindabból a kutatási eredményből, amit az emberiség az utóbbi években a témában felhalmozott, hogyan lehet nagyon olcsón, nagyon könnyen, közel olyan szintű mesterséges intelligenciát előállítani, mint egy évvel ezelőtt a csúcstechnológia volt. És ez nekik kevesebb, mint 6 millió dollárba került, és egy kis csapattal csinálták meg, ráadásul egy kis kutatócsapattal. Innentől ez továbbfejleszthető, újra tréningezhető.

Pár millió dollárnyi energiát elégetve egy szerverteremben, a kommunista propagandát kiszedve, bárki tud csinálni egy saját változatot, mert ott van hozzá minden készen.

És ami még izgalmasabb, hogy amennyiben valaki erre építve egy új dolgot akar fejleszteni, akkor már ingyen elérhető ez a lépcső, és innen már csak a következő lépésre kell költeni. Azaz hirtelen a nyílt forráskódú, a mindenki által hozzáférhető, mindenki által ingyen használható technológia, ha nem is leelőzte, de majdnem utolérte a csúcstechnológiát.

– Ez nagyon szépen hangzik, hogy innentől kezdve bárki a saját képére és hasonlatosságára szabva újabb és újabb AI-okat tud létrehozni. Na, de ezt mégiscsak egy nem éppen baráti hatalom fejlesztette ki. Biztos, hogy nem veszélytelen ránk nézve, hogy ez az AI Kínából jön?

– Szerintem semennyire nem veszélyes. Nyilván a DeepSeek-ként elérhető modellben vannak olyan témák, amik a kínai központi narratívát tartalmazzák, és ha csak egy olcsó konkurenciája lenne a ChatGPT-nek, ha nem adtak volna ki semmit nyílt forráskódra, akkor ez egy olcsóbb, csak éppen egy másik ország aktuális narratíváját közvetítő modell lenne, amiben lehetne egyfajta társadalmi, kulturális, politikai veszély. De igazából mindegyik nagy nyelvi modell tud eszköz lenni arra, hogy valakinek a narratíváját közvetítse.

Úgyhogy a demokratikusabb világ irányába mind üzleti, mind társadalmi oldalról nem az vezet, hogy egy olyan modell nyerjen, aminek az értékeivel jobban egyetértek, hanem az, hogy ebből egy sokszereplős piac jöjjön létre, amiben sokféle modell van, és kialakul a modellek között egy verseny, mert ingyen elérhető most már nagyon sokféle modell.

Ennek adott egy újabb lökést most a DeepSeek is, de ez egyben azt is jelenti, hogy nagyon hamar fog valaki csinálni majd egy ugyanilyen tudású, szintén ingyenes, akár ingyen hozzáférhető, de a kínai helyett például egy európai narratívát közvetítő modellt. És igazából ez benne a jó. A társadalom érdeke nem abban van, hogy az amerikai vagy a kínai narratívát hordozó modell győzzön, hanem hogy nagyon sokféle modell legyen, és legyen köztük verseny.

– Nagyon sok esetben tetten értük azt, hogy a kínaiak elég kreatívan értelmezik a licencjogot. Biztosak vagyunk benne, hogy ez a DeepSeek teljesen originális fejlesztés, és nem részben ipari kémkedés eredménye?

– A mesterséges intelligencia területén az az izgalmas, hogy nagyon felgyorsultak az események, de a technológia nagyja bárki által elérhető tudományos publikációkban zajlik. A szédítő gyorsaságról tavaly nyáron volt egy személyes élményem: kijött egy új kutatási publikáció, ami újfajta algoritmust javasolt arra, hogy hogyan lehetne hatékonyabban képeket generálni. Majd pár nappal később megjelent a forráskód, ami ezt megvalósította, szintén ingyen hozzáférhetően, mert valaki ezt elolvasta és implementálta, ezután megint csak pár nappal később már le lehetett tölteni egy olyan ingyenes, közösség által fejlesztett szoftvert, ami ezt tudta, és pár héttel később pedig a fizetős szoftverekbe is beépült ez az új megoldás. Talán az OpenAI az egyetlen, aki a nevével ellentétben szinte semmit nem publikál, vagy nagyon keveset csak. A 60-as években az Intel, akkori nevén Fairchild Semiconductor marketingvezetője megfigyelte, hogy kétévente duplázódik az ugyanannyi dollárért eladott tranzisztoroknak a száma. Kétévente tudnak mindig duplázni és újra duplázni. Akkor 100 tranzisztor volt nagyjából egy mikrochipben. Gordon Moore volt ez az ember, és róla nevezték el Moore törvényét. Ha ez a jóslata akkor igaz, akkor most, mivel 60 év alatt 30-szor duplázott a technológia, a 100 darab tranzisztorból mára körülbelül 100 milliárdnak kellene lennie.

És így is lett, ha bemegyünk az almás boltba, akkor a 134 milliárd tranzisztorral rendelkező M2 Ultra processzoros Macintosh-t haza tudjuk vinni.

Az AI viszont, ahogy én is kutattam, nem ezen a pályán fejlődik, hanem ennél meredekebb a gyorsulás üteme. Összegyűjtöttem az ezzel kapcsolatos kutatásokat és eredményeket, amiből az rajzolódott ki, hogy a főbb hajtóerejei a mesterséges intelligencia fejlődésének oda mutatnak, hogy jelenleg nagyjából évi 26-szoros az a tempó, ahogy fejlődik.

Azaz évente tudunk olyat, hogy ugyanazt a szintet huszonhatod áron érhetjük el, vagy 26-szor pontosabbat tudunk létrehozni ugyanannyi pénzért. Ez kétéves távon 650-szeres fejlődés, ami eddig soha nem látott tempó az emberiség történelmében.

És ez alapján én azt számolgattam, hogy ha valaki a ChatGPT négyesnek az egy-másfél évvel, majdnem két évvel ezelőtti színvonalát most valaki a kutatási költség huszadáért, huszonötödéért, tehát pontosan olyasmi összegért tudja megvalósítani, mint amennyibe a DeepSeek került, az nagyjából ezen a trendvonalon van rajta. Azaz van-e egy brutális, felfoghatatlan, emberi aggyal beláthatatlan fejlődési tempó, és az, hogy a DeepSeek 6 millió dollárból megcsinálta azt a modellt, ami körülbelül az egy évvel ezelőtti ChatGPT-vel pariban van nagyjából, az pont ennek a brutális fejlődésnek a visszaigazolása.

– De ha innen nézzük, hogy az új kínai AI rajta van ezen a vonalon, akkor valójában nem volt akkora meglepetés, hiszen csak egy korábbi modellel jött ki, ami pontosan ennek megfelelően olcsóbb. Akkor viszont nem értem ezt a nagy tőzsdei pánikot.

– Az ad okot pánikra, az a nagy kérdés merült fel, hogy amit készítenek 5 milliárd dollárból, annak egy éven belül az értéke a huszada lesz. Ez a dilemmája annak a típusú kutatásnak, amit az OpenAI is végez, meg a Google, vagy az Anthropic is.

Ezeket a nagy nyelvi modelleket ennyire drágán fejleszteni fontos és jó cél, csak sosem fog anyagilag megtérülni. Amiért a befektetők ennyi pénzt fektettek ezekbe az alapkutatásokat végző cégekbe, az az a hit volt, hogy a hármójuk közül valamelyik ezt meg fogja nyerni, és monopóliumként ez majd sokszorosan megtérül. De amit a DeepSeek példája mutat, az pontosan az, hogy a tavalyi eredményt újra szinte fillérekért el lehet érni.

Azonban, ha évről évre drasztikusan csökken a belépési küszöb, hogy valaki ugyanezzel foglalkozzon, akkor nem lesz monopólium, és az nem tudja kirabolni az emberiséget, akkor nem tud az OpenAI-ba, vagy a Microsoftba, vagy a Google-be, vagy az Anthropicba fektetett sok milliárd dollár sokszorosan megtérülni. És ez okozta az ijedtséget, hogy ezek a típusú befektetések, amit az alapmodell fejlesztésére fordítanak, valószínűleg sohasem fognak megtérülni. Viszont voltak olyan cégek, amiknek nem esett a részvényárfolyama. Ezek azok voltak, amelyek nem ezzel a típusú alapkutatással foglalkoznak, hanem csak használják a mesterséges intelligenciát.

Egy olyan cég, ami a mesterséges intelligenciát használva szolgáltatást fejleszt egy iparág számára, annak ez a legjobb dolog, ami történhet, hogy hirtelen a költségei, amiből az adott piaci szolgáltatását nyújtani tudja, leesett a huszadára, vagy századára, és le fog majd újra esni, és újra.

És ez azt jelenti, hogy valószínűleg a mesterséges intelligencia körül a nagy megtérülés nem az alapmodellek fejlesztésében lesz, hanem a mesterséges intelligencia modellek ipari, vagy kereskedelmi hasznosításában, azaz a megoldások készítésében.

– Én szőrösszívű kapitalistaként valóban kivonnám a pénzemet az alapkutatásból, viszont ennek az lenne a következménye, hogy lelassul vagy leáll maga a fejlesztés, nem lesznek újabb modellek.

– Igen, és nem. Biztos, hogy emiatt lesz tőkekivonás ezekből a nagyon nagy alapkutató cégekből. A másik oldalról viszont van egy Hugging Face nevű gyűjtőoldal, ahol mesterséges intelligencia modelleket lehet publikálni ingyen. Az a különlegessége ennek az oldalnak, hogy ma már több mint egymillió különböző mesterséges intelligencia modell érhető el ott ingyen, publikusan a közösségbe bedobva, és több mint 3 millió fejlesztő van ebben a közösségben, akik mesterséges intelligencia fejlesztéssel foglalkoznak valamilyen szinten. Tehát nem fog ettől leállni a folyamatos fejlődés, mert már nem néhány szakember, szűk kis csoportokban, elszigetelten viszi előre ezt a tudományágat, hanem nagyon széles fejlesztőbázisa lett, rengeteg ebbe beletanuló szakértővel, akik együtt hozzák az innovációkat és áttöréseket.

Valószínűleg, ha a három nagy játékos visszavesz a fejlesztési tempóból, és kevesebb pénzből gazdálkodva fejleszt újabb és újabb modelleket, akkor is brutális tempóban fog fejlődni ez a terület, de egy sokkal kiegyensúlyozottabb irányban.

Például az Nvidia részvényei azért estek, mert rájöttek a befektetők is, hogy ha nem fog tízmilliárdokat költeni a Google évente AI-hardverek beszerzésére, akkor az a pénz nem fog beáramlani az Nvidiához, így hosszú távon nem tudja azt a profitabilitást, bevételszintet az Nvidia biztosítani. Mert a másik nagy csavar a sztoriban az, hogy a kínaiak azért tudták 6 millió dollárból megoldani a saját fejlesztésüket, mert az amerikaiak blokkolták, hogy a legkorszerűbb chiptechnológiához hozzáférhessenek Kínában, ezért kénytelenek voltak a számukra elérhető, kevésbé fejlett technológiát használva dolgozni.

– Hogy állunk az AI karbonlábnyomával? Bizonyos hírek szerint a legnagyobb környezetterhelést jelenleg ez az iparág okozza.

– Ez nem igaz. A ChatGPT elkér tőlünk 4-5 dollárt 1 millió szótagnyi gondolkodásért. Azért egymillió szótagnyi gondolkodás az sok, tehát azt be lehet látni, hogy annyit olvasni vagy írni, vagy végiggondolni, az nagyon sok gondolkodás, és az pár dollárba kerül. Ez a bizonyos 26-szoros fejlődési tempó, ebben az is benne van, hogy ugyanazt a szintű gépi gondolkodást, amit egy évvel ezelőtt egy dollárnyi energiából tudtunk megcsinálni, azt mostanra kb. a tizedéből. Tehát van egy drasztikus csökkenése az egy egységnyi gondolkodásra eső energiaköltségnek. Az tény, hogy nagyon sok cég rengeteg üzleti alkalmazásban és nagyon sok gondolkodást használ, és ezek nagyon központosítottan, néhány adatközpontban jelentkeznek, és nem mindenkinek otthon a saját számítógépén.

Azaz az energiafelvétel is pontszerűen, központosítottan történik jelenleg. De ez elosztva több százmillió végfelhasználóra, ha mindenki emiatt fél wattal többet fogyasztana a saját háztartásában, mert helyben futtatná ezeket a programokat, észre sem vennénk a teljes energiafelhasználásban ennyi többletet.

Számokra fordítva: az OpenAI néhány százmillió dollárt költ áramra évente, így alig egy ezrelékét használja az Egyesült Államok összes energiafelhasználásának, valószínűleg a teljes AI iparág is kevesebb, mint egy százalékát összesen, miközben a bitcoin globális működése a teljes amerikai fogyasztáshoz képest 2,5-4 százalékot. Az AI rengeteg közvetlen hasznot hajt, többszázmillió embernek segítve naponta, míg a másikkal csak spekulálni lehet. Abba is gondoljunk bele, hogy ha egy emberrel gondolkodtatnánk egymillió szótagnyit, akkor több hétig kellene őt etetni, itatni, energiával ellátni, kiszolgálni az igényeit, feldolgozott élelmiszert az asztalára tenni. Könnyen belátható, hogy csak ez nagyságrendekkel több, mint pár dollár. Ilyen szempontból az egységnyi elvégzett munkára vetített lábnyom messze tört része minden másnak, ráadásul több gondolkodást tud az emberiség végezni, mint korábban. Ráadásul a modellek robbanásszerű fejlődésével, ami akkor is észvesztően gyors marad, ha vissza is vesznek kissé a tempóból, hamarosan eljutunk oda, hogy

minden eszközünkbe, számítógépünkbe, mobiltelefonunkba, hűtőnkbe előbb-utóbb beépül majd az a képesség, hogy helyben tudjon mesterséges intelligenciát futtatni, és így ez az áramfelhasználás sem feltétlenül fog hosszú ideig a nagy adatközpontokban maradni, hanem ennek egyre nagyobb része ki fog kerülni a kliensekhez.

Ilyen körei voltak már a technológiának, amikor hirtelen mindent szerverekre raktunk, aztán meg kiderült, hogy sokkal praktikusabb egyes programokat helyben futtatni, mert már helyben is tudjuk, hiszen olyan okosak a készülékeink. Tehát nem gondolom, hogy ennek a technológiának hosszú távon brutális kell, hogy legyen az energialábnyoma, pontosan a fejlődési tempója teszi lehetővé azt, hogy ez ne így legyen.


Link másolása
KÖVESS MINKET:


JÖVŐ
A Rovatból
DeepSeek: elillant a nagy amerikai tech-cégek fölénye, de a semmiből felbukkant kínai cég körül is egyre több a kérdőjel
A DeepSeek megjelenése felforgatta a mesterséges intelligencia világát, ugyanakkor egyre többen sejtik mögötte a kínai államot, és az amerikaiak kétségbe vonják azt az állítását, mennyiből és hogyan jutott el idáig.


Úgy fest, a DeepSeek felrobbantotta az ipar eddig biztosnak hitt narratíváját az AI végtelen energia- és erőforrásigényéről, és akár véget is vethet az „AI-hasznosítással” operáló cégek varázsának a Wall Streeten. A befektetések dollármilliárdjait vonzó nagy nevekkel szemben (mint amilyen az OpenAI mellett az Nvidia, az Alphabet, a Microsoft stb.) most megjelent egy új kínai szereplő, és rámutat: egyáltalán nem biztos, hogy az USA meg tudja tartani vezető szerepét a technológia fejlesztésében.

A DeepSeek nagyméretű nyelvi modellje lényegében egy olcsóbb, hatékonyabb ChatGPT, amely a kínaiak állítása szerint az OpenAI költségvetésének töredékéből és sokkal kevesebb (ráadásul elavultabb, exportkorlátozások előtti) Nvidia chippel készült, mint bármelyik vezető chatbot.

„Ez hatalmas földrengés az AI szektorban. Mindenki csak néz, és azt mondja: 'nem gondoltuk volna, hogy ez lehetséges’. Most, hogy mégis az, át kell gondolnunk mindent, amit eddig terveztünk” – vallotta be a CNN-nek Gil Luria, a D.A. Davidson befektetési csoport technológiai kutatási vezetője.

Ugyancsak kellemetlen pillanat ez a Trump-adminisztráció számára, hiszen az új elnök gyakorlatilag napokkal a DeepSeek megjelenése előtt jelentett be félbillió dolláros magánszektorból származó amerikai befektetést olyan adatközpontok építésére, amelyekkel az Egyesült Államok megőrizhetné vezető szerepét az AI fejlesztésében. Talán még az USA kormányzatánál is rosszabbul érintheti a kínai nyelvi modell megjelenése az AI-chip szállító Nvidiát, hiszen történelmi veszteséget szenvedett el, miután a részvényeinek értéke a DeepSeek hatására egy nap alatt 17 százalékot, körülbelül 600 milliárd dollárt zuhant.

Forrás: Nvidia

Az Nvidia eddig az AI-forradalom legnagyobb nyertese volt: háromtrillió dolláros vállalattá vált, de ha a kínaiak valóban képesek voltak ChatGPT-szintű modellt alkotni tizedannyi (vagy kevesebb), korábbi generációs processzorral, akkor lehet, hogy az ügyfelei nem fognak a jövőben annyi chipet vásárolni, amennyit a cég remélt. Bár teljesen kizárt, hogy az Nvidia emiatt feltenné a kezét (nincs is rá oka, hiszen a nyelvi modelleken túl önvezető, robotikai és más AI technológiák egész sorához szállít hardvereket), azért elismerte: a DeepSeek modellje „kiváló AI-fejlesztés”, amely „jól illusztrálja, hogy hogyan lehet új modelleket létrehozni”.

A DeepSeek megjelenése tehát arra kényszerítette a befektetőket, hogy átgondolják az AI-ipar jelenlegi és jövőben várható helyzetét.

Az eddigi narratíva szerint az AI fejlesztéséhez folyamatosan növelni kell a számítási kapacitást, de a kínai AI megjelenése „egyértelművé teszi, hogy az adatközpontok nagy mértékű skálázása aligha lesz gazdaságilag kifizetődő” – mondta Luria.

Ugyanakkor a Szeretlek Magyarországnak nyilatkozó Balogh Petya szerint a DeepSeek létezése jó hír, mert demokratikusabb irányba viszi az AI-fejlesztést. Az AI fejlődéséről és várható üzleti hatásairól cégvezetői oktatást is szervező üzletember szerint a kínai nyelvi modellnek köszönhetően nem fog monopol helyzetbe kerülni maroknyi amerikai cég – ahogy az történt az online keresés (Google) vagy éppen a közösségi média esetében (Facebook).

Ha az USA nagytőkés technológiai vállalkozásainak nem is, az AI demokratizálódásának valóban jót tesz, hogy piacra lépett egy sokkal olcsóbban előállított, forráskódját ingyen megosztó alkalmazás. Azt azonban az amerikaiak vitatják, hogy a Deepseek tényleg csak egy kicsi kínai startup lenne, amely mindössze 5,6 millió dollárból létrehozta azt, amit nekik csak sok milliárd dollárból sikerült.

Több amerikai cég is bedobta: adatot lophatott a DeepSeek

A Microsoft és az OpenAI vizsgálatot indított annak kiderítésére, hogy egy, a kínai DeepSeek startuphoz köthető csoport jogosulatlanul szerzett-e adatokat az OpenAI technológiájából – értesült a Bloomberg. A Microsoft biztonsági szakértői azt állítják, már tavaly ősszel észlelték, hogy valakik nagy mennyiségű adathoz juthattak az OpenAI alkalmazásprogramozási felületén keresztül, ami az OpenAI szolgáltatásainak fő hozzáférési pontja a szoftverfejlesztők és ügyfelek számára.

A Microsoft – amely az OpenAI legnagyobb befektetője – állítólag azonnal jelezte a gyanús tevékenységet a cégnek, és az eset már akkor komoly aggodalmat keltett az amerikai technológiai szektorban.

David Sacks, a Fehér Ház mesterséges intelligenciáért és kriptovalutákért felelős szakértője a Fox Newsnak adott interjúban azt mondta, valóban „lehetséges”, hogy a DeepSeek amerikai szellemi tulajdont lopott. „Jelentős bizonyítékok utalnak arra, hogy a DeepSeek lényegében kinyerte az OpenAI modelljeiből a tudást” - fogalmazott.

A mesterséges intelligencia iparban elterjedt gyakorlat az ún. „desztillálás”, ami lehetővé teszi egy meglévő modellből származtatott, hatékonyabb rendszer kialakítását. Ez általában teljesen legális folyamat – egészen addig, amíg nem egy cég zárt, védett technológia adatait használják fel, mert az már komoly jogi problémákat vethet fel. A OpenAI felhasználási feltételei világosan kimondják, hogy az általuk generált adatokat tilos felhasználni versenytárs technológia létrehozására. Persze, hogy a Deepseek esetében mindez ténylegesen megtörtént-e, arra egyelőre nincs egyértelmű bizonyíték.

„Tudjuk, hogy a Kínai Népköztársaságban aktívan dolgoznak azon, hogy lemásolják a fejlett amerikai AI-modelleket” – nyilatkozta Liz Bourgeois, az OpenAI szóvivője a The New York Timesnak. „Jelenleg vizsgáljuk, hogy a DeepSeek jogosulatlanul használta-e fel a modelljeinket, és ha több információval rendelkezünk, megosztjuk azt.”

Nem is egy kicsi cég?

A Deepseek megjelenése azért robbant ekkorát, mert ha igaz, amit állítanak, akkor az eddig gondoltnál nagyságrendekkel kevesebből is elő lehet állítani mesterséges intelligenciát, nincs szükség óriási mennyiségű fejlett chipre, különleges videókártyákra, hatalmas adatközpontokra. Azt állítják, erre egy kicsi startup is képes lehet.

A 2019-ben alapított Deepseek mögött egy Liang Wenfeng nevű üzletember és a High-Flyer Quant nevű hedge fund áll. Liang Wenfeng szerint a DeepSeek működése radikálisan eltér a nagyobb tech-cégekétől: míg például az Alibaba több százezer alkalmazottat foglalkoztat, ők egy kutatóintézetre hasonlítanak, amelyet főként frissen végzett egyetemisták és doktorandusz hallgatók alkotnak. Liang szerint a hagyományos tech-mamutok „nem biztos, hogy alkalmasak a jövő AI-iparának formálására” a magas költségek és merev szervezeti struktúrák miatt.

Ugyanakkor a Forbes arról ír, hogy egyáltalán nem biztos, hogy a DeepSeek tényleg annyira kicsi, amekkorának láttatni próbálja magát. Egyes források szerint

egy hatalmas hardverfarmot építettek, amiben legalább 10 ezer, de akár 50 ezer Nvidia Tensor A-100 grafikus kártya is dolgozhat. Ez pedig több százmillió dollárba kerül.

Az is furcsa, hogy a cégnek nincsenek kereskedelmi tervei, látszólag nem érdeklik őket a bevételek. Az amerikaiak szerint mindez arra utal, hogy a vállalkozás mögött valójában a kínai állam állhat, amely így próbál globális pozíciókat elfoglalni a mesterséges intelligencia-elsőségért folyó versenyben.

Lopás nélkül nincs is AI?

Persze az is lehet, hogy mindez csak egy kommunikációs ellencsapás az amerikai techcégek részéről, ráadásul az ő esetükben sem egyértelmű, hogy jogilag tiszta megoldásokkal képezték ki saját modelljeiket.

Az OpenAI például több tucatnyi perrel néz szembe, amelyekben azzal vádolják, hogy szabálytalanul használt fel jogvédett internetes tartalmakat a modelljei kiképzéséhez.

A The New York Times is pert indított az OpenAI és partnere, a Microsoft ellen, mivel állításuk szerint cikkeik millióit használták fel a chatbot képzésére, ami a hírforrások konkurenciájává válhat.

Egy nemrég készült jelentés ráadásul arra is rámutatott, hogy az OpenAI YouTube-videók hanganyagaiból szintén leiratot készített, hogy aztán az AI-modelljei továbbfejlesztésére használja fel. Belső levelezések szerint a vezetők tudták, hogy ez szembe mehet a YouTube irányelveivel, ennek ellenére, egy belső csapat – amelynek tagja volt Greg Brockman, az OpenAI elnöke is – több mint egymillió órányi YouTube-videót dolgozhatott fel, hogy aztán a szöveges adatokat a GPT-4 modellbe töltse és ezzel alaposan felhúzza annak tudásbázisát.

Az OpenAI vezérei: Greg Brockman (balra) és Sam Altman. Fotók: Wikipedia

A OpenAI vezérigazgatója, Sam Altman korábban elismerte, hogy a fejlett mesterséges intelligencia modellek betanításához szerzői jogvédelem alatt álló anyagokra van szükség, és kijelentette, hogy enélkül lehetetlen lenne ilyen rendszereket fejleszteni. A kijelentés azonnal felháborodást váltott ki a közösségi médiában, és most vissza is hullik a vállalat fejére:

miközben ők azt kommunikálják, hogy a DeepSeek akár el is lophatta az adataikat, egyre többen vádolják őket képmutatással.

Egy Bluesky-felhasználó így fogalmazott: „nevetséges, hogy az OpenAI, amely minden kérdés nélkül falta fel az adatainkat, most ujjal mutogat a DeepSeekre, amiért pontosan ugyanezt csinálja”. Ed Zitron AI-kritikus pedig így kommentálta az ügyet: „elnézést, de nem bírom abbahagyni a röhögést. Az OpenAI, a vállalat, amely gyakorlatilag az egész internet ellopására épült, most azért panaszkodik, mert a DeepSeek esetleg a ChatGPT válaszaiból tanult.”

Újabb AI-modellek jönnek, a cél az AGI

Miközben mindenki a DeepSeek sikerére és az amerikai AI-cégek befeszülésére figyelt, az Alibaba is bejelentett egy új mesterséges intelligencia modellt, a Qwen 2.5-Max-ot. A kínai tech-óriás szerint az új modell „szinte minden területen felülmúlja a GPT-4o-t, a DeepSeek-V3-at és a Llama-3.1-405B-t [a Meta AI-modelljét]” – idézi az Alibaba Cloud hivatalos WeChat-oldalát a Reuters.

A bejelentés időzítése azt mutatja, hogy az Alibaba komoly nyomást érez a hazai versenytársak részéről, és valószínűleg így volt ezzel a TikTok anyavállalata, a ByteDance is, amikor két nappal a DeepSeek-R1 január 20-i megjelenése után közölte: frissítette saját AI-modelljét, amely szerintük szintén felülmúlja az OpenAI által kifejlesztett terméket. Ezt az állítást igazolták is egy AIME benchmark teszttel, ami azt méri, hogy egy mesterséges intelligencia modell mennyire érti az összetett utasításokat és hogyan reagál rájuk.

Mindez arra utal, hogy bármi is az igazság a DeepSeekről, Amerika komoly versenytársakkal nézhet szembe.


Link másolása
KÖVESS MINKET: