TECH
A Rovatból

Tökéletesen lehet utánozni az emberi arc rezdüléseit: így szúrhatod ki a TikTokot elárasztó AI-videókat

Egyre nehezebb megmondani, mi igazi és mi nem a közösségi médiában. Mutatjuk a trükköket, amikkel mégis rájöhetsz melyik készült mesterséges intelligenciával. Nem árt felkészülni, mert a digitális átverések korszakában élünk!


A TikTokot pörgetve ma már szinte lehetetlen küldetés elsőre eldönteni, hogy egy népies viseletbe öltözött, tájszólásban beszélő karakter valódi ember-e, vagy egy kifinomult algoritmus digitális terméke.

A technológia olyan szintet ért el, hogy gyakran már a fiatal generációknak is gondot okoz a megkülönböztetése, mert

a mesterséges intelligenciával létrehozott videók tökéletesen utánozzák az emberi arc rezdüléseit, a hanghordozást és a mozgást, elmosva a határt valóság és illúzió között.

Nagyon népszerűek ezek a videók, ezt eddig másfél millióan nézték meg:

A helyzet valódi súlyát jelzi, hogy a nagy technológiai cégek egy közös egyezményben vállalták a befolyásoló, megtévesztő AI-tartalmak elleni küzdelmet, az Európai Unió pedig augusztustól fokozatosan bevezeti azokat a szabályokat, amelyek kötelezően előírják a deepfake videók egyértelmű jelölését.

Maga a TikTok is lépett: a platform a Content Credentials nevű iparági szabványra építve automatikusan elkezdi felcímkézni a máshonnan feltöltött, mesterséges intelligenciával létrehozott tartalmakat, ahogy azt a cég hivatalos közleményében bejelentette.

A felismerés a mindennapokban továbbra is a felhasználó éberségén múlik.

A leleplezés gyakran a finom részletekben rejlik. Gyanúra adhat okot, ha egy hosszú, bonyolult mondat közben a beszélő egyszer sem vesz levegőt, vagy ha a szájmozgás és a hang között hajszálnyi, de következetes elcsúszás van.

Az árulkodó jelek közé tartozik a természetellenesen sima, pórusmentes bőr, a ritka vagy ritmustalan pislogás, és a szemben megcsillanó fények, amelyek nem illenek a környezet világításához, valamint akár maga a jelenet is abszurd lehet.

A mesterséges intelligencia gyakran hibázik a finom részleteknél: egy fülbevaló természetellenesen lebeghet, vagy a háttérben látható feliratokon, egy étlap árain vagy egy utcanévtáblán elmosódott, hibás betűk jelenhetnek meg.

A magyar nyelvű, humoros vagy népies videóknál a tájszólás sterilnek, „könyvízűnek” hathat, és az algoritmusok gyakran tévesztik el a hosszú magánhangzók helyes használatát.

A tét óriási, hiszen a technológia fejlődése már a gazdasági és társadalmi berendezkedés alapjait érintő kérdéseket vet fel.

A mesterséges intelligenciával előállított videók többnyire szórakoztatás céljából jönnek létre, de hatékony lehet ízlés formálásban és vélemény befolyásolásra is, vagy az igazság elferdítésésre.

Ha fontos az ellenőrzés, érdemes deepfake-ellenőrző eszközt vagy több hiteles forrást is megnézni. Ha valami „kicsit nem stimmel”, gyakran valóban nem stimmel, ne csak egyetlen videónak higgyünk, hanem megerősítést kell keresünk máshonnan is.


Link másolása
KÖVESS MINKET:

Népszerű
Ajánljuk
Címlapról ajánljuk


TECH
A Rovatból
Új módszerrel olvassák le a PIN-kódunkat a csalók – mutatjuk, mire érdemes odafigyelni
A legújabb technológia a billentyűzeten hagyott hőnyomokat elemzi, így szinte tévedés nélkül kitalálja a számokat. A kutatók szerint a bűnözők is könnyen hozzáférhetnek a módszerhez.


Akár egy egyszerű hőkamerával, majd mesterséges intelligencia használatával percek alatt leolvashatják a csalók a PIN-kódunkat egy ATM-nél - figyelmeztetnek a Glasgow-i Egyetem kutatói, aki szerint a módszer a bűnözők számára könnyen elérhető. Az új csalási forma neve: ThermoSecure. A technológia a billentyűzeten hagyott hőnyomok alapján fejti vissza a beütött kódot – írja az Economx.

A rendszer hőkamerával rögzíti a gombok közti hőmérséklet-különbséget, majd egy mesterséges intelligencia elemzi, mely gombokat és milyen sorrendben nyomtak le.

„A teszteredmények szerint ez a módszer a PIN-kód megadását követő 20 másodpercen belül a leghatékonyabb: ekkor a kód meghatározásának pontossága eléri a 86 százalékot” – közölték a tudósok, hozzátéve, hogy a siker esélye fél perc után 76, egy perc után pedig még mindig 62 százalék. A támadás sikerét viszont több tényező is befolyásolja. A lassú, keresgélő gépelés megkönnyíti a leolvasást, míg a gyors, folyamatos gépelés csökkenti a kockázatot.

Sokat számít a billentyűzet anyaga is: a műanyag gombok tovább őrzik a hőt, a fémből készültek viszont gyorsan elvezetik, ezért jóval biztonságosabbak.

A technológia alapjai nem újak: már 2011-ben kimutatták, hogy a hőnyomok akár egy percig is kiértékelhetők maradnak. A veszélyt ma a modern mesterséges intelligencia és a már pár tízezer forintért beszerezhető hőkamerák párosa jelenti. A Glasgow-i Egyetem eredetileg 2022-ben publikált kutatása szerint a támadás nemcsak ATM-eknél, hanem bármilyen billentyűzeten, érintőkijelzőn vagy PIN-padon működhet.

Mivel egy olyan módszerről van szó, ami a bűnözők számára is elérhető, a biztonsági szakemberek több ajánlást is megfogalmaztak. Ha ATM-ből veszünk fel készpénzt, mindig takarjuk el a kezünkkel a billentyűzetet. A beírás után érdemes várni néhány másodpercet, hogy a gombok lehűljenek, vagy megérinteni több véletlenszerű gombot is, hogy megzavarjuk a hőmintát. Ahol viszont lehet, mindenképpen érintésmentesen fizessünk, hogy ne kelljen PIN-kódot megadni. Fontos továbbá, hogy mindig ellenőrizzük az automatát, és ha szokatlan, oda nem illő szerkezetet látunk, azonnal értesítsük a bankot vagy a rendőrséget!


Link másolása
KÖVESS MINKET:

Ajánljuk
TECH
A Rovatból
3,6 billió forintot ér a cége: egy volt brazil balerina lett a techvilág új szupersztárja
Luana Lopes Lara Brazíliából indult, hogy egyetemi ötletéből felépítse a Kalshit. Cégével most a rivális Polymarketet is megelőzte, vagyona pedig 427 milliárd forintra rúg.


„Égő cigarettát tartottak a combom alá, miközben a lábamat a fülemhez emelve kellett tartanom… Ez életem legintenzívebb időszaka volt” – emlékezett vissza a Forbesnak Luana Lopes Lara a Bolsoj Színház Iskolájában töltött kamaszéveire.

Ez a fegyelem és kitartás azonban nemcsak a balettszínpadon, hanem a technológia és a pénzügyek világában is segítette:

ő a világ legfiatalabb, saját erejéből lett női tech-milliárdos.

A 29 éves, volt profi táncos múlt hónapban vette át ezt a címet, miután az általa társalapított Kalshi nevű előrejelzési piac 1 milliárd dolláros (kb. 328,5 milliárd forintos) tőkebevonást zárt.

A tranzakció 11 milliárd dollárra (körülbelül 3,61 billió forintra) értékelte a céget, Lara vagyonát pedig a Forbes becslése szerint 1,3 milliárd dollárra (mintegy 427 milliárd forintra) emelte.

Ezzel az értékeléssel a Kalshi nemcsak a Szilícium-völgy legújabb unikornisává vált, hanem megelőzte legfőbb riválisát, a Polymarketet is, amelyet tavaly ősszel a New York-i tőzsde tulajdonosa, az ICE finanszírozott, 9 milliárd dolláros cégértéket megállapítva.

Lara és társalapítója, Tarek Mansour, akivel a Massachusetts Institute of Technology egyetemen ismerkedett meg, egy olyan szabályozott platformot hoztak létre, ahol a felhasználók valós események –

például gazdasági adatok, politikai választások vagy akár sportmérkőzések – kimenetelére köthetnek szerződéseket.

„Közvetlenül az egyetem után őrült nagy kockázatot vállaltunk. Két évig nem volt termékünk – semmi nem indult el –, és ha nem kapunk szabályozói jóváhagyást, a cégünk egyszerűen lenullázódik” – mondta Lara.

A brazil lány érettségi után kilenc hónapig táncolt profi szinten Ausztriában, majd hátat fordított a balettnek, és az MIT-n kezdett számítástechnikát tanulni.

Az egyetemi nyarakat olyan pénzügyi óriásoknál töltötte gyakornokként, mint a Bridgewater Associates és a Citadel Securities, a Kalshi ötlete pedig 2018-ban, egy New York-i esti séta során született meg.

A törvényes működés a kezdetektől fogva alapelv volt számukra, ami kifizetődött, amikor a cég hosszú jogi csatát nyert a szövetségi árutőzsde-felügyelet ellen,

amely lehetővé tette számukra, hogy az amerikai választások kimenetelére is lehessen fogadni.

A döntést a Better Markets nevű civil szervezet élesen kritizálta, szerintük a felügyelet „veszélyes precedenst teremtett” azzal, hogy feladta a harcot a választási szerencsejáték ellen.

„A Kalshi a vitát, a szubjektivitást és a beszédet piacokkal, pontossággal és igazsággal váltja fel” – fogalmazott Tarek Mansour. „Kevés jobb iskolája van annak, hogy ‘nemet’ mondanak neked, mégis továbbmenj, mint a profi balett… Luanában korán megjelent a kitartás és a higgadt magabiztosság” – nyilatkozta Alex Immerman, az Andreessen Horowitz kockázatitőke-társaság partnere.


Link másolása
KÖVESS MINKET:

Ajánljuk

TECH
A Rovatból
Kőkemény, stresszes munkára keres embert évi 182 millióért az OpenAI
A kiválasztott szakembernek kiberbiztonsági és biológiai fenyegetésekkel is szembe kell néznie. Sam Altman vezérigazgató szerint az új vezetőt azonnal a mély vízbe dobják.


Évi 182 millió forintnak megfelelő, 555 ezer dolláros fizetésért keres embert az OpenAI egy olyan pozícióra, amelyet a cég vezetője is kőkeménynek és stresszesnek ígér. Az OpenAI, a ChatGPT mögött álló cég új vezetői pozíciót hirdetett meg „head of preparedness” (felkészültségi vezető) néven, amelynek célja a mesterséges intelligencia kockázatainak azonosítása és kezelése – írta a Telex. Sam Altman vezérigazgató egy X-bejegyzésben jelezte, hogy a kiválasztott szakembernek rögtön a mély vízbe kell ugrania, és gyorsan kell reagálnia a legégetőbb problémákra.

A befutó jelölt feladata „az új, súlyos károkat okozó kockázatokat jelentő határterületi képességek nyomon követése és az azokra való felkészülés”, valamint a fenyegetések értékelése és enyhítése. A hírek szerint olyan területek tartoznának ide, mint a kiberbiztonság, a mentális egészség, a biológiai fenyegetések és az automatizált rendszerek kockázatai.

„Ez egy kulcsfontosságú szerep egy fontos időszakban; a modellek gyorsan fejlődnek, és ma már sok nagyszerű dologra képesek, de egyúttal komoly kihívásokat is jelentenek. A modellek mentális egészségre gyakorolt potenciális hatását már 2025-ben láthattuk; most pedig azt tapasztaljuk, hogy a modellek annyira jók lettek a kiberbiztonság terén, hogy már kritikus sebezhetőségeket is képesek felismerni” – részletezte Altman.

A „Preparedness” keretrendszert még 2023-ban hozta létre az OpenAI, a legnagyobb kockázati kategóriák között pedig az egyénre szabott befolyásolást, a kiberbiztonságot és a biológiai fenyegetéseket sorolták fel. A cég júliusban átszervezte a biztonsági területet, a korábbi preparedness-vezető, Aleksander Madry új kutatási feladatot kapott. A Guardian szerint a pozíciót korábban senki sem tudta hosszú ideig betölteni.


Link másolása
KÖVESS MINKET:


TECH
A Rovatból
Letiltják a nőket és gyerekeket levetkőztető mesterséges intelligenciát, hatalmas botrány után visszakozik Elon Musk
A brit kormány „borzalmasnak” nevezte a helyzetet, a miniszterelnök pedig szégyenletesnek. A cég most azokban az országokban korlátozza a funkciót, ahol az illegális.


Kéthetes, hatalmas közfelháborodást kiváltó botrány után visszakozik Elon Musk platformja: az X bejelentette, hogy az Egyesült Királyságban letiltja a Grok nevű mesterséges intelligenciájának azt a funkcióját, amellyel valódi emberek fotóit lehetett úgy szerkeszteni, hogy kihívó öltözetben, például bikiniben jelenjenek meg. A vállalat közölte, hogy „geoblokkolni” fogja a funkciót azokban az országokban, ahol az illegális.

Az X közleményében azt írta, „zéró toleranciát tanúsítunk a gyermekekkel szembeni bármiféle szexuális kizsákmányolással, a nem konszenzuális meztelenséggel és a nem kívánt szexuális tartalommal szemben”. A változtatás bejelentése órákkal azután történt, hogy Elon Musk a saját oldalán közzétette: „Nem tudok a Grok által generált meztelen kiskorúakat ábrázoló képekről. Szó szerint nulla [ilyen lehet - a szerk.].”

A milliárdos szerint a Grok úgy van programozva, hogy elutasítsa az illegális kéréseket - ezt az elképzelését saját fejlesztői cáfolták meg. Azonban azt már korábban tapasztalni lehetett a platformonm, hogy az elmúlt hetekben ezrével jelentek meg olyan, a Grok eszközzel készített szexualizált képek, amelyeken nőket és gyerekeket digitálisan, a hozzájárulásuk nélkül „vetkőztettek le”. Az ügy akkora port kavart, hogy a brit kormány is megszólalt.

Keir Starmer miniszterelnök az X korábbi, a funkció megtartásáról szóló döntését „borzalmasnak”, a helyzetet pedig a parlamentben „undorítónak” és „szégyenletesnek” nevezte. Liz Kendall technológiai miniszter szerint a cég lépése „egy további sértés az áldozatokkal szemben, amellyel gyakorlatilag pénzzé tesznek egy borzalmas bűncselekményt”. A brit kormány az X mostani bejelentése után közölte: igazolva látja korábbi álláspontját.

A brit médiaszabályozó hatóság, az Ofcom még hétfőn indított hivatalos vizsgálatot a platform ellen, miután „rendkívül aggasztó” jelentéseket kapott az illegális, nem beleegyezéssel készült intim képek és gyermekek szexuális bántalmazását ábrázoló anyagok készítéséről és megosztásáról.

Az Ofcom szóvivője szerint a techvállalat döntése „egy üdvözlendő fejlemény. A hivatalos vizsgálatunk azonban továbbra is folyamatban van. Éjjel-nappal dolgozunk azon, hogy előrelépjünk, és választ kapjunk arra, mi ment félre, és mit tesznek a helyreállítás érdekében.”

A botrány nemzetközileg is komoly következményekkel járt: Kalifornia főügyésze vizsgálatot indított, három demokrata párti amerikai szenátor pedig arra szólította fel az Apple-t és a Google-t, hogy távolítsák el az X-et és a Grokot az alkalmazásboltjaikból. Malajzia és Indonézia már jogi lépéseket vagy tiltást vezetett be a funkcióval szemben.

Az X a múlt héten már korlátozta a Grok képgeneráló képességeit a nem fizető felhasználók számára, de szakértők szerint az eszköz továbbra is képes volt szexuálisan explicit képeket előállítani. Az Egyesült Királyságban ezen a héten lép hatályba az a jogszabály-módosítás, amely bűncselekménnyé nyilvánítja az ilyen képek létrehozását. Starmer szerdán azt mondta, az X azon dolgozik, hogy megfeleljen ezeknek az új szabályoknak. A vállalat nem pontosította, hogy a felhasználók a különálló Grok alkalmazásban továbbra is készíthetnek-e majd ilyen képeket - írja mindezt a The Guardian, a Reutes hírügynökség közreműködésével.


Link másolása
KÖVESS MINKET:

Ajánljuk