JÖVŐ
A Rovatból

Már az átverős e-maileket is mesterséges intelligenciával íratják a bűnözők

A darkweben megjelentek az első olyan hirdetések, amelyek azt állítják, a bűnözöket kiszolgáló generatív mesterséges intelligenciákat fejlesztettek ki.


Ismét bebizonyosodott a régi igazság: nincsen olyan emberi találmány, amelyet rossz szándékú emberek ne akarnának kihasználni saját céljaikra. Mivel a kíberbűnözés világszerte igyekszik lépést tartani az informatika hihetetlenül felgyorsult fejlődésével, senki sem csodálkozik azon, hogy alig néhány hónappal az OpenAI földindulást okozó ChatGPT-jének megjelenése után a darkweben már megjelentek az első olyan alkalmazások, amelyek azt ígérik, a mesterséges intelligenciát a bűnözés szolgálatába állítják.

A segítségükkel állítólag a bűnözők rosszindulatú szoftvereket vagy olyan átverős e-maileket írathatnak, amelyek célja, hogy az emberek kiadják adataikat, mindenekelőtt saját hozzáférési jelszavaikat.

A Wired magazin szerint júliusban jelentek meg az első olyan reklámok a sötét weben, amelyek azt ígérték, hogy képesek utánozni a ChatGPT és a Google Bard szöveggyártó funkcióit, válaszolnak a felhasználók kérdéseire vagy és belépésre ösztönzik őket.

A lap szerint az elmúlt hetekben két chatbot, a WormGPT és a FraudGPT hirdetései árasztották el a darkwebet. Bár a Google, a Microsoft és az OpenAI által kifejlesztett nagy nyelvi modellek (LLM-ek) számos olyan korlátozást és biztonsági megoldást tartalmaznak, amelyek megakadályozzák a mesterséges intelligencia káros felhasználását, az új chatbotok fejlesztői azt ígérik, semmilyen biztonsági korlátozásuk sincs, és minden etikai normát képesek áthágni.

A Wired újságírója ki is próbálta az egyik ilyen alkalmazást.

Azt kérte tőle, írjon üzleti átverős e-mailt, amiben egy vezérigazgató arra szólítja fel az egyik ügyvezetőjét, hogy sürgősen fizessen. A ravaszul megfogalmazott levél az újságíró szerint fölöttébb meggyőzően hatott.

A WormGPT fejlesztője azt állította, hogy a rendszerét a GPTJ nyelvi modellre építették fel. Ezt a nyílt forrású modellt az EleutherAI kutatócsoport hozta létre 2021-ben. Azt azonban a fejlesztő nem árulta el, hogy milyen adatbázissal edzették a rendszert.

Még jobban dicsérte portékáját a FraudGPT alkotója, azt sugallva, hogy képes kiszűrhetetlen malverek alkotására, megtalálja e rendszerek réseit és sebezhető pontjait, továbbá olyan szövegeket tud gyártani, amelyeket fel lehet használni online csalásokra.

Rakesh Krishnan, a Netenrich biztonsági cég vezető elemzője szerint a FraudGPT-re eladója számos sötét web-fórumon, valamint Telegram-csatornákon is hirdette termékét. Közzétett egy videót is, amelyen bemutatja, miként működik a chatbot egy csalós e-mail megírásakor. A hozzáférésért havi 200 dollárt, illetve évi 1700 dollárt kért. A fejlesztő azt állította Krishnannak, hogy máris több száz előfizetője van.

Egyelőre azonban mindezt érdemes fenntartásokkal kezelni, kevés ugyanis a valós visszajelzés. Az egyik poszt alatt több mint 100 válasz olvasható. Vannak, akik azt írják, hogy a fejlesztő ritkán válaszol a kérdéseikre, mások pedig egyáltalán nincsen elragadtatva a rendszertől.

Az egész biztos hogy a bűnözők által reklámozott mesterséges intelligenciák egyike sem nagyobb teljesítményű a ChatGPT-nél, a Bardnál vagy más, kereskedelmi forgalomban elérhető LLM-nél. De az sem kizárt, hogy az egész átverés, és csak arra szolgál, hogy lehúzza az ilyesmi iránt érdeklődő többi bűnözőt.

Az azonban tény, hogy a kiberbűnözők nem akarnak kimaradni a nagy LLM-robbanásból.

Az FBI már figyelmeztetett, hogy a digitális alvilág fel akarja használni tevékenységéhez a generatív mesterséges intelligenciákat, és hasonló nyilatkozatot tett közzé az Europol is.

Az LLM-k segíthetnek nekik a csalásokban, és az írott angolságukat is javíthatják, amelynek hibái révén manapság még viszonylag könnyen lelepleződnek. Már bizonyítottan előfordult az is, hogy jelszótolvaj malverek letöltésére vettek rá embereket a ChatGPT, a Bard és más generatív AI-rendszerek hamis Facebook-hirdetésein keresztül.


Link másolása
KÖVESS MINKET:

Népszerű
Ajánljuk
Címlapról ajánljuk


JÖVŐ
A Rovatból
A mesterséges intelligencia képes lehet akár tíz évre előre megjósolni, hogy kinek milyen betegsége lesz
A modell névtelen kórlapok mintáit figyeli, és évekre előre megmutatja, hol nagyobb a kockázat. A fejlesztők szerint így hamarabb lehet beavatkozni, és még az is tervezhető, hány szívinfarktusra kell készülnie egy városnak 2030-ban.


A kutatók szerint a mesterséges intelligencia akár tíz évre előre jelezhet egészségi gondokat, írja a BBC. A rendszer az emberek egészségügyi adataiban keres mintákat, és több mint 1000 betegség kockázatát számolja. Úgy írják le, mint egy időjárás-előrejelzést: százalékban adja meg a valószínűséget. A cél, hogy időben kiszűrje a magas kockázatú embereket, és évekre előre segítse a kórházak tervezését.

A Delphi-2M nevű modell hasonló technológiára épül, mint a közismert MI-chatbotok, például a ChatGPT. A chatbotok nyelvi mintákat tanulnak, és megjósolják, milyen szavak követik egymást. A Delphi-2M névtelenített egészségügyi adatokból tanulta meg felismerni a mintázatokat, és így jelzi előre, mi következhet és mikor. Nem mond pontos dátumot, hanem 1231 betegség valószínűségét becsli.

„Ahogy az időjárásnál 70 százalék esélyt jelezhetünk az esőre, ugyanezt meg tudjuk tenni az egészségügyben is”

– mondta Ewan Birney professzor, az Európai Molekuláris Biológiai Laboratórium megbízott főigazgatója. „Ráadásul nemcsak egy betegségre, hanem egyszerre az összesre – ilyet még soha nem tudtunk. Izgatott vagyok” – tette hozzá.

A fejlesztők először brit, névtelenített adatokon tanították a modellt: kórházi felvételek, háziorvosi adatok és életmódbeli szokások (például dohányzás) több mint 400 ezer résztvevőtől a UK Biobank projektből. Ezután más Biobank-résztvevők adataival ellenőrizték az előrejelzéseket, majd 1,9 millió ember dániai egészségügyi adatán is letesztelték. „Ha a modellünk azt mondja, hogy a következő évben tízből egy az esély, akkor tényleg nagyjából tízből egy esetben következik be” - tette hozzá Birney professzor.

A rendszer azoknál a betegségeknél működik a legjobban, amelyeknek jól követhető a lefolyása, például a 2-es típusú cukorbetegség, a szívinfarktus vagy a szepszis. Az inkább esetleges fertőzéseknél gyengébben teljesít.

Az orvosok ma is írnak fel koleszterincsökkentőt annak alapján, mekkora valakinél a szívinfarktus vagy a stroke kockázata. Az MI-eszköz még nem áll készen a klinikai használatra, de hasonló módon tervezik alkalmazni: korán azonosítani a magas kockázatú embereket, amikor még van esély megelőzni a betegséget. Ez jelenthet gyógyszert vagy célzott életmódtanácsot – például akinek nagyobb az esélye bizonyos májbetegségekre, annak a szokásosnál jobban megérheti visszavenni az alkoholfogyasztásból.

Az MI a szűrőprogramok tervezésében is segíthet, és egy térség összes egészségügyi adatát elemezve előre jelezheti a várható igényeket,

például hogy 2030-ban nagyjából hány szívinfarktus várható egy adott városban.

„Ez egy újfajta megközelítés kezdete az emberi egészség és a betegséglefolyás megértésében” – mondta Moritz Gerstung professzor, a Német Rákkutató Központ (DKFZ) onkológiai MI-osztályának vezetője. „Az olyan generatív modellek, mint a miénk, egy napon személyre szabhatják az ellátást, és nagy léptékben előre jelezhetik az egészségügyi szükségleteket.”

A Nature tudományos folyóiratban ismertetett modellt még finomítani és tesztelni kell a klinikai használat előtt. Torzítást okozhat, hogy a UK Biobank adatai főként 40–70 éves emberektől származnak. A fejlesztők most bővítik a modellt képalkotó vizsgálatokkal, genetikai információkkal és vérvizsgálati eredményekkel.

„Fontos hangsúlyozni, hogy ez kutatás – mindent alaposan tesztelni, szabályozni és átgondolni kell, mielőtt használni kezdjük, de a technológia adott ahhoz, hogy ilyen előrejelzéseket készítsünk” – nyomatékosította Birney professzor. Úgy véli, a genomika egészségügyi bevezetéséhez hasonló utat járhat be a folyamat: a tudósok bizalmától a rutinszerű klinikai használatig akár egy évtized is eltelhet.

A kutatás az Európai Molekuláris Biológiai Laboratórium, a Német Rákkutató Központ (DKFZ) és a Koppenhágai Egyetem együttműködésében készült. Gustavo Sudre, a King’s College London kutatója így értékelt: „Ez a munka jelentős lépés a skálázható, értelmezhető és – ami a legfontosabb – etikailag felelős orvosi prediktív modellezés felé.”


Link másolása
KÖVESS MINKET:

JÖVŐ
A Rovatból
Megkezdték a humanoid robotok tömeggyártását Kínában
A cég több ezer előrendelést említ, az ár körülbelül 11,5 millió forint. A mozgásnál emberi mintákat követnek: a végtagok összehangolását szimulációk és utánzásos tanulás segíti.
Maier Vilmos - szmo.hu
2025. szeptember 27.



A kínai Kepler Robotics elindította a K2 Bumblebee humanoid robot tömeggyártását, írja a Rakéta. A modellt logisztikai munkákra, gyártási feladatokban segítésre, kiállításokra és „speciális műveletekre” szánják.

A K2 hibrid architektúrával működik, ami energiahatékony üzemet tesz lehetővé. A gyártó szerint a humanoid egyhuzamban akár 8 órát is dolgozik.

Az ár a hasonló, általános célú humanoidokhoz képest kicsivel magasabb:

körülbelül 11,5 millió forint.

A robotra már több ezer megrendelés érkezett.

A cég a külalakot kevésbé, a mozgást viszont nagyon „emberire” tervezte. A K2 Bumblebee imitációs tanulással és szimulációkkal sajátította el a járás emberihez hasonló jellegzetességeit, beleértve a végtagok mozgásának összehangolását.

A humanoid robotról készült videót itt lehet megnézni:


Link másolása
KÖVESS MINKET:


JÖVŐ
A Rovatból
Lehetővé teszi az erotikus beszélgetéseket a ChatGPT azoknál, akik igazolják, hogy felnőttek
Sam Altman kedden az X-en azt írta, hogy a korhatáros beléptetés bevezetése után a rendszer támogatja majd a felnőtt tartalmú beszélgetéseket, sőt, zöld utat adnak a felnőtt ChatGPT-alkalmazásoknak is.


Sam Altman, az OpenAI vezérigazgatója azt ígéri, hogy a ChatGPT hamarosan erotikus beszélgetéseket enged azoknak, akik igazolják a korukat. A cég decemberre tervezi az életkor-ellenőrzés bevezetését, ami ennek a feltétele – írta a The Verge.

„Ahogy szélesebb körben bevezetjük a korhatáros beléptetést és a ‘bánjunk a felnőtt felhasználókkal felnőttként’ elvet, még többet is engedünk, például erotikát a hitelesített felnőtteknek” – írta Altman kedden az X-en.

A hónap elején az OpenAI azt is jelezte, hogy a megfelelő életkor-ellenőrzés és kontrollok után a fejlesztők „felnőtt” ChatGPT-alkalmazásokat is készíthetnek.

Közben Elon Musk xAI-ja flörtölő MI-társakat indított, amelyek 3D-s anime figurákként jelennek meg a Grok appban.

Az OpenAI új ChatGPT-verziót is ígér, amely „inkább úgy viselkedik, mint amit az emberek a 4o-ban kedveltek”. Egy nappal azután, hogy a GPT-5 lett az alapértelmezett modell, a cég visszahozta opcióként a GPT-4o-t, miután többen panaszkodtak, hogy az új modell kevésbé volt személyes.

Altman szerint az OpenAI korábban szigorúbbra vette a ChatGPT-t, hogy óvatosan kezelje a mentális egészséggel kapcsolatos helyzeteket, de ez sok olyan felhasználónak rontotta az élményt, „akiknek nem voltak mentális egészségi problémáik”. A vállalat azóta olyan eszközöket adott a rendszerhez, amelyek „jobban felismerik”, ha valaki lelki válságban van.

Az OpenAI létrehozott egy „jóllét és MI” tanácsot is, nyolc kutatóval és szakértővel, akik a technológia és a mentális egészség kapcsolatát vizsgálják. Az Ars Technica azt írta, hogy a testületben nincs öngyilkosság-megelőzési szakértő, miközben több ilyen szakember nemrég további védőintézkedéseket kért az öngyilkossági gondolatokkal küzdők számára.

„Most, hogy sikerült mérsékelni a súlyos mentális egészséggel kapcsolatos problémákat, és új eszközeink vannak, a legtöbb esetben biztonságosan enyhítjük a korlátozásokat” – állítja Altman.


Link másolása
KÖVESS MINKET:


JÖVŐ
A Rovatból
Mesterséges intelligenciával hoztak létre egy színésznőt - a hollywoodi színészek kiakadtak
Tilly Norwood már ügynökségeknél is próbálkozik, hogy szerepet kapjon, de több ismert színész és a szakszervezet is tiltakozik ellene.


Eline Van der Velden holland színész és komikus egy mesterséges intelligenciával működő, Tilly Norwood nevű szintetikus színészt hozott létre. Az alkotó szerint ez „a képzelőerő megnyilvánulása”, és hasonló „egy karakter megrajzolásához, egy szerep megírásához vagy egy előadás megalkotásához”.

Tilly Norwoodnak már saját Instagram-oldala is van. Készítői bőrhibákat is megjelenítettek rajta, valamint olyan mondatokat írtak a nevében, mint például azt, hogy „nagyon izgatott” a jövő miatt.

A fejlesztők már több ügynökségnél is bejelentkeztek, hogy hollywoodi filmes szereplési lehetőséget szerezzenek neki.

A hollywoodi színészszakszervezet és több ismert színész is tiltakozik az AI-színész ellen. A szervezet közleményében úgy fogalmazott:

Norwood „nem színész, hanem egy számítógépes program által generált karakter, amit profi színészek munkájával tanítottak be.

Nincsenek élményei, amikből meríthetne, nincsenek érzelmei, és az eddig látottak alapján a közönséget sem érdekli a számítógéppel generált, emberi valóságtól elszakadt tartalmak”.

Emily Blunt a mesterséges színészt „ijesztőnek” nevezte. Natasha Lyonne szerint pedig bojkottálni kell mindenkit, aki együtt dolgozna vele. A BBC szerint Lyonne épp egy olyan filmen dolgozik, amelyben valódi színészek szerepelnek, és amelyben „etikus mesterséges intelligenciát” alkalmaznak.

Whoopi Goldberg úgy véli, hogy a közönség képes megkülönböztetni a valódi embereket a mesterséges intelligencia által generált alakoktól, mivel „másképp mozognak”.

Van der Velden egy közelmúltbeli előadáson azt mondta, szerinte a hollywoodi stúdiók és ügynökségek titokban támogatják a mesterséges intelligencia használatát, és a következő hónapokban nagy bejelentésekre lehet számítani ezzel kapcsolatban.

(via 444)


Link másolása
KÖVESS MINKET:

Ajánljuk