JÖVŐ
A Rovatból

Yuval Noah Harari: Katasztrofális pénzügyi válságot is okozhat a mesterséges intelligencia – a világ vezetői kezdik felismerni a veszélyt

28 ország és a legnagyobb techcégek vezetői csúcstalálkozót tartottak, ahol azt ígérték, közösen mérik fel a mesterséges intelligencia jelentette kockázatokat. A világhírű történész szerint ez jó, de közel sem elég.


2023 novembere mérföldkő lehet a mesterséges intelligencia történetében, ugyanis a hónap elején a legnagyobb, MI-vel kapcsolatos diplomáciai eseményre került sor.

Az Egyesült Királyságban 28 ország, köztük az Egyesült Államok, európai uniós tagországok és Kína képviselői gyűltek össze, hogy megvitassák, milyen veszélyeket jelenthet az emberiségre nézve a mesterséges intelligencia. A konferencián a vezető technológiai és mesterséges intelligencia vállalatok, például az Anthropic, a Google DeepMind, az IBM, a Meta, a Microsoft, az Nvidia, az OpenAI és a Tencent vezetői is részt vettek. Ott volt Elon Musk és António Guterres, az ENSZ főtitkára is.

A találkozót III. Károly király nyitotta meg, aki videobeszédeben kijelentette, „az emberi törekvések történetében az egyik legnagyobb technológiai ugrásnak lehetünk tanúi.”

A brit uralkodó szerint „egyértelműen szükség van annak biztosítására, hogy ez a gyorsan fejlődő technológia továbbra is biztonságos maradjon.”

A csúcstalálkozót a történelmi jelenőségű Blechley Parkban tartották. A második világháború idején ezen a helyen működött az Egyesült Királyság fő kódfejtő intézménye. A helyszínnel Alan Turing brit matematikus előtt tisztelegtek, aki itt segített a náci Enigma kód feltörésében, 1950-ben pedig ő volt az, aki egy máig ható tudományos dolgozatban vizsgálta: „Tudnak-e gondolkodni a gépek?”

A kérdés több mint 70 évvel később aktuálisabb, mint valaha. Világosan látszik, hogy a mesterséges intelligencia-rendszerek felgyorsíthatják a betegségek diagnosztizálását, segíthetnek a klímaváltozás elleni küzdelemben és a gyártási folyamatok ésszerűsítésében, de jelentős veszélyeket is hordoznak. Tavaly a nagy nyelvi modellek meglepő, és néha már kissé ijesztő képességeket mutattak.

Az Egyesült Államok alelnöke, Kamala Harris szerint az MI jelentette kockázatoknál elég csak a deepfake képekre és videókra gondolnunk. Amikor egy nyugdíjasnak megszűnik az egészségbiztosítása egy hibás MI-algoritmus miatt, vagy egy nőt deepfake fotókkal zsarol a volt partnere, az egzisztenciális fenyegetést jelent – példálózott Harris.

A brit kormány friss jelentése pedig arra figyelmeztet, hogy a fejlett mesterséges intelligencia-rendszerek

„segíthetnek kibertámadások végrehajtásában, dezinformációs kampányok lebonyolításában és biológiai vagy vegyi fegyverek tervezésében” is.

A mesterséges intelligencia ráadásul már most bizonyítottan képes olyan dolgokra, amikről sok szakértő korábban úgy vélte, hogy csak évek múlva lehetségesek. Néhány kutató ennek alapján úgy gondolja, hogy az olyan rendszerek, amelyek képesek lemásolni az általános emberi intelligenciát, sokkal közelebb lehetnek, mint gondolnánk.

A Blechley Parkban tartott csúcstalálkozó végén kiadott nyilatkozatban a résztvevők deklarálták, hogy

a mesterséges intelligencia olyan sebességgel és olyan kiszámíthatatlanul fejlődik, hogy „komoly, akár katasztrofális károkat” is okozhat. A nyilatkozat szerint a legerősebb MI-modelleknél nemzetközi együttműködésre van szükség a kockázatok feltárására.

„Az MI-ből eredő számos kockázat eredendően nemzetközi jellegű, ezért a legjobban nemzetközi együttműködésen keresztül lehet őket kezelni. Elhatározzuk, hogy együttműködünk az emberközpontú, megbízható és felelősségteljes mesterséges intelligencia biztosítása érdekében” - áll a dokumentumban.

Rishi Sunak, az Egyesült Királyság miniszterelnöke mérföldkőnek nevezte a nyilatkozatot. Mint mondta: a világ legnagyobb MI hatalmai egyetértettek abban, hogy sürgősen szükség van a mesterséges intelligencia kockázatainak megértésére „a gyerekeink és unokáink jövője érdekében.”

Yuval Noah Harari világhírű izraeli történész, a mesterséges intelligencia veszélyeivel is foglalkozó Sapiens könyvek szerzője a Guardiannak szintén azt mondta, a kiadott nyilatkozat „nagyon fontos előrelépés”, mivel a világ legerősebb nemzeteinek kormányai közösen fejezték ki aggodalmukat a technológiával kapcsolatban.

„Talán a legreménytelibb az, hogy nemcsak az Európai Unió, az Egyesült Királyság és az Egyesült Államok, hanem Kína kormánya is aláírta a nyilatkozatot. Szerintem ez nagyon pozitív jel. Globális együttműködés nélkül rendkívül nehéz, ha nem lehetetlen lenne kivédeni a mesterséges intelligencia jelentette veszélyeket” - mondta Harari.

A Nagy-Britanniában elfogadott közös nyilatkozat azonban nem határozott meg konkrét politikai célokat - hívja fel rá a figyelmet a New York Times. Csak abban állapodtak meg, hogy hat hónap múlva újra találkoznak Dél-Koreában, egy év múlva pedig Franciaországban.

Harari szerint az is probléma, hogy a mesterséges intelligencia jelentette veszély merőben más, mint amikkel a világnak korábban szembe kellett néznie.

„A mesterséges intelligencia különbözik az emberiség történetének minden korábbi technológiájától, mert ez az első olyan technológia, amely képes önállóan döntéseket hozni, új ötleteket hozhat létre, magától tanulhat és fejlődhet. Szinte definíció szerint rendkívül nehéz az embereknek, még a technológiát létrehozó embereknek is előre látni az összes lehetséges veszélyt.”

Harari szerint erre jó példa, hogy a kormányok most például azzal érveltek, hogy a mesterséges intelligencia segíthet új biológiai fegyvereket létrehozni. De arról senki sem beszél, mekkora kockázatokat jelenthetnek a pénzügyi világban.

„Ez az ideális terület a mesterséges intelligencia számára, mert csak adatokról van szó” – érvel Harari.

„Mi történik, ha a mesterséges intelligencia új pénzügyi eszközöket kezd létrehozni, amelyeket egyetlen ember sem érthet meg?” Harari felhívja a figyelmet, hogy a 2007–2008-as pénzügyi válságot olyan adósságinstrumentumok okozták, mint például az értékpapírosított jelzálogfedezetű kötvények (CDO), amiket kevesen értettek meg, és ezért nem szabályozták őket megfelelően.

„A mesterséges intelligencia képes olyan pénzügyi eszközök létrehozására, amelyek nagyságrendekkel összetettebbek, mint a CDO-k. És képzeljük csak el azt a helyzetet, amikor olyan pénzügyi rendszerünk van, amelyet egyetlen ember sem képes megérteni, és ezért nem is képes szabályozni” – mondta.

„Jön egy pénzügyi válság, és senki sem érti majd, mi történik.”

Az izraeli szerző szerint nem a konkrét szabályozásokra és törvényekre kell összpontosítani, hanem azokra a szabályozó intézményekre, amelyek ismerik a mesterséges intelligencia fejlesztését.

„Erőteljes szabályozó intézményeket kell létrehoznunk, amelyek képesek felismerni a felmerülő veszélyeket és reagálni rájuk annak tudatában, hogy nem tudjuk előre megjósolni az összes veszélyt és problémát, és nem tudunk előre jogszabályt alkotni ellenük. Ez legyen a fő irány, nem pedig egy nagyon hosszú és bonyolult szabályozás megírása, amely a parlamenten vagy a kongresszuson áthaladva elavulttá válhat” - mondta a Guardiannak.

A múlt hónapban az Egyesült Államok és Nagy-Britannia is bejelentette, hogy új intézményeket hoznak létre, kimondottan a mesterséges intelligencia fejlesztések ellenőrzésére és a modellek tesztelésére.

Biden elnök aláírt egy végrehajtási rendeletet is. Ez előírja, hogy a legfejlettebb mesterséges intelligencia eszközöket alkalmazó vállalatok teszteljék rendszereiket, hogy megbizonyosodjanak arról, hogy nem használhatóak biológiai vagy nukleáris fegyverek előállítására. A vállalatoknak jelenteniük kell a tesztek eredményeit a szövetségi kormánynak – bár az eredményeket nem kell nyilvánosságra hozni.

A rendelet felvenné a harcot a deepfake-kel is, a manipulált képek és videók ugyanis befolyásolhatják a választási eredményeket vagy becsaphatják a fogyasztókat. Javasolják a mesterséges intelligencia eszközökkel készített fényképek, videók és hangok vízjelezését, mert ez a módszer segíthet felderíteni az online tartalom eredetét.

Az amerikai elnök szerint már három másodpercnyi hangminta is elég, hogy manipulált hanganyag készüljön az MI segítségével. „Megnéztem egy ilyet” – mondta Biden. Egy olyan elnöki nyilatkozatot hoztak létre a munkatársai, ami soha nem hangzott el, és ami alkalmas lett volna egy politikai vagy nemzetbiztonsági válság kirobbantására.

„Azt mondtam: a fenébe is, mikor mondtam ezt?”

Joe Biden emellett megerősítette azt az új szabályozást, amely megakadályozza, hogy Peking hozzáférjen a nagy nyelvi modellek előállításához szükséges legerősebb számítógépes chipekhez, valamint ahhoz az információtömeghez, amellyel a mesterséges intelligencia rendszereket képzik.

Ez jól mutatja, hogy a csúcstalálkozón résztvevő országok - főleg Kína és az Egyesült Államok - egymás versenytársai is a technológiai elsőségért folytatott küzdelemben.

Jonas Tallberg professzor, aki a stockholmi egyetemen a mesterséges intelligencia szabályozásának geopolitikai következményeit vizsgálja, a Wired című magazinnak úgy fogalmazott: hatalmas a tét. Aki győztesként kerül ki az MI fegyverkezési versenyből, annak várhatóan jelentős befolyása lesz országok és térségek gazdasági versenyképességére és geopolitikai pozíciójára.


Link másolása
KÖVESS MINKET:

Népszerű
Ajánljuk
Címlapról ajánljuk


JÖVŐ
A Rovatból
A mesterséges intelligencia képes lehet akár tíz évre előre megjósolni, hogy kinek milyen betegsége lesz
A modell névtelen kórlapok mintáit figyeli, és évekre előre megmutatja, hol nagyobb a kockázat. A fejlesztők szerint így hamarabb lehet beavatkozni, és még az is tervezhető, hány szívinfarktusra kell készülnie egy városnak 2030-ban.


A kutatók szerint a mesterséges intelligencia akár tíz évre előre jelezhet egészségi gondokat, írja a BBC. A rendszer az emberek egészségügyi adataiban keres mintákat, és több mint 1000 betegség kockázatát számolja. Úgy írják le, mint egy időjárás-előrejelzést: százalékban adja meg a valószínűséget. A cél, hogy időben kiszűrje a magas kockázatú embereket, és évekre előre segítse a kórházak tervezését.

A Delphi-2M nevű modell hasonló technológiára épül, mint a közismert MI-chatbotok, például a ChatGPT. A chatbotok nyelvi mintákat tanulnak, és megjósolják, milyen szavak követik egymást. A Delphi-2M névtelenített egészségügyi adatokból tanulta meg felismerni a mintázatokat, és így jelzi előre, mi következhet és mikor. Nem mond pontos dátumot, hanem 1231 betegség valószínűségét becsli.

„Ahogy az időjárásnál 70 százalék esélyt jelezhetünk az esőre, ugyanezt meg tudjuk tenni az egészségügyben is”

– mondta Ewan Birney professzor, az Európai Molekuláris Biológiai Laboratórium megbízott főigazgatója. „Ráadásul nemcsak egy betegségre, hanem egyszerre az összesre – ilyet még soha nem tudtunk. Izgatott vagyok” – tette hozzá.

A fejlesztők először brit, névtelenített adatokon tanították a modellt: kórházi felvételek, háziorvosi adatok és életmódbeli szokások (például dohányzás) több mint 400 ezer résztvevőtől a UK Biobank projektből. Ezután más Biobank-résztvevők adataival ellenőrizték az előrejelzéseket, majd 1,9 millió ember dániai egészségügyi adatán is letesztelték. „Ha a modellünk azt mondja, hogy a következő évben tízből egy az esély, akkor tényleg nagyjából tízből egy esetben következik be” - tette hozzá Birney professzor.

A rendszer azoknál a betegségeknél működik a legjobban, amelyeknek jól követhető a lefolyása, például a 2-es típusú cukorbetegség, a szívinfarktus vagy a szepszis. Az inkább esetleges fertőzéseknél gyengébben teljesít.

Az orvosok ma is írnak fel koleszterincsökkentőt annak alapján, mekkora valakinél a szívinfarktus vagy a stroke kockázata. Az MI-eszköz még nem áll készen a klinikai használatra, de hasonló módon tervezik alkalmazni: korán azonosítani a magas kockázatú embereket, amikor még van esély megelőzni a betegséget. Ez jelenthet gyógyszert vagy célzott életmódtanácsot – például akinek nagyobb az esélye bizonyos májbetegségekre, annak a szokásosnál jobban megérheti visszavenni az alkoholfogyasztásból.

Az MI a szűrőprogramok tervezésében is segíthet, és egy térség összes egészségügyi adatát elemezve előre jelezheti a várható igényeket,

például hogy 2030-ban nagyjából hány szívinfarktus várható egy adott városban.

„Ez egy újfajta megközelítés kezdete az emberi egészség és a betegséglefolyás megértésében” – mondta Moritz Gerstung professzor, a Német Rákkutató Központ (DKFZ) onkológiai MI-osztályának vezetője. „Az olyan generatív modellek, mint a miénk, egy napon személyre szabhatják az ellátást, és nagy léptékben előre jelezhetik az egészségügyi szükségleteket.”

A Nature tudományos folyóiratban ismertetett modellt még finomítani és tesztelni kell a klinikai használat előtt. Torzítást okozhat, hogy a UK Biobank adatai főként 40–70 éves emberektől származnak. A fejlesztők most bővítik a modellt képalkotó vizsgálatokkal, genetikai információkkal és vérvizsgálati eredményekkel.

„Fontos hangsúlyozni, hogy ez kutatás – mindent alaposan tesztelni, szabályozni és átgondolni kell, mielőtt használni kezdjük, de a technológia adott ahhoz, hogy ilyen előrejelzéseket készítsünk” – nyomatékosította Birney professzor. Úgy véli, a genomika egészségügyi bevezetéséhez hasonló utat járhat be a folyamat: a tudósok bizalmától a rutinszerű klinikai használatig akár egy évtized is eltelhet.

A kutatás az Európai Molekuláris Biológiai Laboratórium, a Német Rákkutató Központ (DKFZ) és a Koppenhágai Egyetem együttműködésében készült. Gustavo Sudre, a King’s College London kutatója így értékelt: „Ez a munka jelentős lépés a skálázható, értelmezhető és – ami a legfontosabb – etikailag felelős orvosi prediktív modellezés felé.”


Link másolása
KÖVESS MINKET:

JÖVŐ
A Rovatból
Megkezdték a humanoid robotok tömeggyártását Kínában
A cég több ezer előrendelést említ, az ár körülbelül 11,5 millió forint. A mozgásnál emberi mintákat követnek: a végtagok összehangolását szimulációk és utánzásos tanulás segíti.
Maier Vilmos - szmo.hu
2025. szeptember 27.



A kínai Kepler Robotics elindította a K2 Bumblebee humanoid robot tömeggyártását, írja a Rakéta. A modellt logisztikai munkákra, gyártási feladatokban segítésre, kiállításokra és „speciális műveletekre” szánják.

A K2 hibrid architektúrával működik, ami energiahatékony üzemet tesz lehetővé. A gyártó szerint a humanoid egyhuzamban akár 8 órát is dolgozik.

Az ár a hasonló, általános célú humanoidokhoz képest kicsivel magasabb:

körülbelül 11,5 millió forint.

A robotra már több ezer megrendelés érkezett.

A cég a külalakot kevésbé, a mozgást viszont nagyon „emberire” tervezte. A K2 Bumblebee imitációs tanulással és szimulációkkal sajátította el a járás emberihez hasonló jellegzetességeit, beleértve a végtagok mozgásának összehangolását.

A humanoid robotról készült videót itt lehet megnézni:


Link másolása
KÖVESS MINKET:


JÖVŐ
A Rovatból
Lehetővé teszi az erotikus beszélgetéseket a ChatGPT azoknál, akik igazolják, hogy felnőttek
Sam Altman kedden az X-en azt írta, hogy a korhatáros beléptetés bevezetése után a rendszer támogatja majd a felnőtt tartalmú beszélgetéseket, sőt, zöld utat adnak a felnőtt ChatGPT-alkalmazásoknak is.


Sam Altman, az OpenAI vezérigazgatója azt ígéri, hogy a ChatGPT hamarosan erotikus beszélgetéseket enged azoknak, akik igazolják a korukat. A cég decemberre tervezi az életkor-ellenőrzés bevezetését, ami ennek a feltétele – írta a The Verge.

„Ahogy szélesebb körben bevezetjük a korhatáros beléptetést és a ‘bánjunk a felnőtt felhasználókkal felnőttként’ elvet, még többet is engedünk, például erotikát a hitelesített felnőtteknek” – írta Altman kedden az X-en.

A hónap elején az OpenAI azt is jelezte, hogy a megfelelő életkor-ellenőrzés és kontrollok után a fejlesztők „felnőtt” ChatGPT-alkalmazásokat is készíthetnek.

Közben Elon Musk xAI-ja flörtölő MI-társakat indított, amelyek 3D-s anime figurákként jelennek meg a Grok appban.

Az OpenAI új ChatGPT-verziót is ígér, amely „inkább úgy viselkedik, mint amit az emberek a 4o-ban kedveltek”. Egy nappal azután, hogy a GPT-5 lett az alapértelmezett modell, a cég visszahozta opcióként a GPT-4o-t, miután többen panaszkodtak, hogy az új modell kevésbé volt személyes.

Altman szerint az OpenAI korábban szigorúbbra vette a ChatGPT-t, hogy óvatosan kezelje a mentális egészséggel kapcsolatos helyzeteket, de ez sok olyan felhasználónak rontotta az élményt, „akiknek nem voltak mentális egészségi problémáik”. A vállalat azóta olyan eszközöket adott a rendszerhez, amelyek „jobban felismerik”, ha valaki lelki válságban van.

Az OpenAI létrehozott egy „jóllét és MI” tanácsot is, nyolc kutatóval és szakértővel, akik a technológia és a mentális egészség kapcsolatát vizsgálják. Az Ars Technica azt írta, hogy a testületben nincs öngyilkosság-megelőzési szakértő, miközben több ilyen szakember nemrég további védőintézkedéseket kért az öngyilkossági gondolatokkal küzdők számára.

„Most, hogy sikerült mérsékelni a súlyos mentális egészséggel kapcsolatos problémákat, és új eszközeink vannak, a legtöbb esetben biztonságosan enyhítjük a korlátozásokat” – állítja Altman.


Link másolása
KÖVESS MINKET:


JÖVŐ
A Rovatból
Mesterséges intelligenciával hoztak létre egy színésznőt - a hollywoodi színészek kiakadtak
Tilly Norwood már ügynökségeknél is próbálkozik, hogy szerepet kapjon, de több ismert színész és a szakszervezet is tiltakozik ellene.


Eline Van der Velden holland színész és komikus egy mesterséges intelligenciával működő, Tilly Norwood nevű szintetikus színészt hozott létre. Az alkotó szerint ez „a képzelőerő megnyilvánulása”, és hasonló „egy karakter megrajzolásához, egy szerep megírásához vagy egy előadás megalkotásához”.

Tilly Norwoodnak már saját Instagram-oldala is van. Készítői bőrhibákat is megjelenítettek rajta, valamint olyan mondatokat írtak a nevében, mint például azt, hogy „nagyon izgatott” a jövő miatt.

A fejlesztők már több ügynökségnél is bejelentkeztek, hogy hollywoodi filmes szereplési lehetőséget szerezzenek neki.

A hollywoodi színészszakszervezet és több ismert színész is tiltakozik az AI-színész ellen. A szervezet közleményében úgy fogalmazott:

Norwood „nem színész, hanem egy számítógépes program által generált karakter, amit profi színészek munkájával tanítottak be.

Nincsenek élményei, amikből meríthetne, nincsenek érzelmei, és az eddig látottak alapján a közönséget sem érdekli a számítógéppel generált, emberi valóságtól elszakadt tartalmak”.

Emily Blunt a mesterséges színészt „ijesztőnek” nevezte. Natasha Lyonne szerint pedig bojkottálni kell mindenkit, aki együtt dolgozna vele. A BBC szerint Lyonne épp egy olyan filmen dolgozik, amelyben valódi színészek szerepelnek, és amelyben „etikus mesterséges intelligenciát” alkalmaznak.

Whoopi Goldberg úgy véli, hogy a közönség képes megkülönböztetni a valódi embereket a mesterséges intelligencia által generált alakoktól, mivel „másképp mozognak”.

Van der Velden egy közelmúltbeli előadáson azt mondta, szerinte a hollywoodi stúdiók és ügynökségek titokban támogatják a mesterséges intelligencia használatát, és a következő hónapokban nagy bejelentésekre lehet számítani ezzel kapcsolatban.

(via 444)


Link másolása
KÖVESS MINKET:

Ajánljuk