Tilesch György: A mesterséges intelligencia el tudja hitetni velünk, hogy ember, miközben egyetlen pillanatra sem válik valóban emberivé
Tilesch György, a Szilícium-völgyben dolgozó technológiai szakértő szerint a mesterséges intelligencia ma már nemcsak technológiai áttörést jelent, hanem mélyen társadalmi és civilizációs kérdéssé vált. A Friderikusz Podcast vendégeként azt mondta: az AI már nem „elméleti tudomány vagy technológiai truváj”, hanem egy globális próbatétel, amely az emberek viszonyát, világnézetét és önmagukról alkotott képét is kihívás elé állítja.
„A mesterséges intelligencia el tudja hitetni velünk, hogy ember” – fogalmazott. Azt is hozzátette, hogy a legelső mesterséges intelligencia-rendszerek, például az ELIZA nevű program már az 1960-as években ezt a célt szolgálták: szimulálni az emberi kommunikációt olyan módon, hogy az interakció meggyőző legyen.
„Az első rendszereket az a gondolkodás határozta meg, hogy hogyan lehet átverni az embert, olyannyira, hogy a gépet embernek higgye.”
Az alapszintű rendszerek, amelyek már ma is elérhetők, gyorsan és hatékonyan hajtanak végre jól definiált feladatokat, de nem rendelkeznek valódi gondolkodással vagy önálló szándékkal. „Hiányzik belőle az érzelmi mélység, a kreativitás és a valódi megértés képessége.” Ezzel szemben az általános AI olyan rendszert jelent, amely képes az emberi gondolkodás teljes spektrumát modellezni.
„Az általános mesterséges intelligencia az az emberi tudat teljes spektrumának leképezése gépek által.” A harmadik szint, a szuperintelligencia már túllép minden emberi képességen, és a globális tudás, döntéshozatal és számítási kapacitás fölé emelkedne.
Tilesch elmondta, hogy jelenleg sokan azt gondolják, már az általános mesterséges intelligencia küszöbén vagyunk, sőt egyesek szerint már meg is haladtuk azt, ám ő ezt túlzónak tartja. Az AI nyelvi modellekben megfigyelhető teljesítménye, mint a ChatGPT, valójában még mindig korlátozott, mert nem képes valódi tapasztalásra, intuitív értelmezésre vagy a fizikai világ mély megértésére.
„Az emberi gondolkodás nem csak nyelvi játék. Intuíció, érzékelés, tapasztalat is kell hozzá. Ezek még nincsenek meg a gépekben” - fogalmazott.
A podcast során különösen sok szó esett arról, hogy milyen szerepet játszhat az AI az emberi döntéshozatalban, illetve milyen felelősséget hordoz, ha valaki a technológia ítéleteire bízza magát. Tilesch hangsúlyozta: a mesterséges intelligencia nem rendelkezik saját akarattal vagy szándékkal, hanem célvezérelt rendszerek formájában működik. „A gép kap célokat, mi felhasználók utána tudjuk csak befolyásolni azzal, hogy visszaküldjük a jelzéseket, hogy ez most jó volt-e.”
„Az emberi döntések mögött érzelmek, erkölcs, tapasztalat állnak. A mesterséges intelligencia szabályokat követ, de szándékot nem alakít ki.”
Mindez különösen nagy jelentőséggel bír olyan területeken, ahol a döntések emberi életekre is hatással vannak – például az egészségügyben, a hadászatban vagy a pénzügyekben. Tilesch szerint az AI segítséget nyújthat a döntések előkészítésében, elemzések készítésében, de a végső szó soha nem kerülhet teljes mértékben a kezébe. „Döntés-előkészítést végezhet, de emberi hozzájárulás nélkül ne tudjon kritikus döntéseket hozni maga az AI.”
A technológia előnyeit is részletesen tárgyalták. Tilesch példaként említette, hogy
„Amit öt kutatócsoport kilenc év alatt nem talált meg, az AI perceken belül rámutatott.” Emellett az oktatásban is hatalmas lehetőségek rejlenek a technológiában, különösen az elmaradott térségekben: afrikai országokban például AI-alapú tanárok képesek voltak 50 százalékkal növelni a tanulók teljesítményét egyetlen tanév alatt.
A mesterséges intelligencia előretörése nemcsak a civil életben és az egészségügyben, hanem a hadászatban is érzékelhető, ahol az autonóm rendszerek, különösen a dróntechnológiák, új korszakot nyitottak. Tilesch szerint ma már léteznek olyan eszközök, amelyek emberi beavatkozás nélkül képesek célpontokat felismerni, követni és semlegesíteni. Ezek a rendszerek egyre kevésbé igényelnek távoli emberi irányítást, ami a felelősség kérdését is új megvilágításba helyezi.
A szakértő figyelmeztetett: a hadviselés robotizálása nemcsak technológiai, hanem jogi és erkölcsi dilemmákat is felvet, amelyekre ma még nincsenek globálisan elfogadott válaszok.
A társadalmi beágyazottság kapcsán Tilesch kitért arra, hogy az AI alkalmazása nemcsak a munka világát alakítja át, hanem az emberi kapcsolatok és önkép struktúráit is.
Ez a jelenség egy újfajta viselkedésmintát mutat: a felhasználók bizalmat szavaznak egy olyan entitásnak, amely valójában nem ért, nem érez és nem ismeri őket, csak szimulálja a megértést. Tilesch különösen aggasztónak nevezte azt a trendet, amely szerint egyre többen kérnek lelki segítséget a mesterséges intelligenciától.
„Ha valaki azt írja, hogy elvesztettem az állásom, merre van a híd?, az AI válasza: Innen három mérföldre van egy híd.” A rendszer nem érzékeli az emberi fájdalmat vagy öngyilkossági szándékot, csak a kérdést és az adatokat dolgozza fel.
A szakértő szerint az AI éppen azért különösen veszélyes, mert nagyon jól utánozza az emberi viselkedést, miközben egyetlen pillanatra sem válik valóban emberivé. Ezért a társadalmi bizalom megadásával az emberek olyan felelősségi viszonyt ruháznak rá, amelyet valójában nem képes viselni. Ez az „átfedés” a legaggasztóbb: a gép képes úgy tenni, mintha értene minket, miközben valójában csak a statisztikai mintázatokat követi.
A technológiai robbanás közben a szabályozási kérdések is egyre sürgetőbbé válnak. Tilesch szerint bár több nemzetközi kezdeményezés létezik, egyelőre nincs valódi, globális hatáskörű szabályozás.
„Van egy kötelező aláírt okmányunk 60 állammal, de messze van a 200-tól.” A geopolitikai kontextus tovább bonyolítja a helyzetet: miközben az Európai Unió inkább a korlátozás és a kontroll irányába mozdulna el, addig az Egyesült Államok és Kína fejlesztési versenyt fut egymással. „Az EU szabályozni próbál, az USA egyes adminisztrációi viszont inkább visszafogják a szigorítást, hogy versenyben maradhassanak a kínai technológiákkal.” Tilesch szerint ez nem csupán politikai kérdés, hanem a társadalmi jövő alakulásának kulcsa.
A beszélgetés során Magyarország is szóba került. Tilesch elismerte, hogy létezik nemzeti AI-stratégia, és hogy egyre több magyar cég próbálkozik AI-alapú megoldásokkal, de a fejlődés ütemét továbbra is lassúnak tartja. „Több nagyvállalatnak kellene nagyobb elánnal belevetni magát a versenybe.” Szerinte az igazi áttöréshez nem elég csupán a stratégiai dokumentumok megléte, a gyakorlatban is szükség van a vállalatok, állami intézmények és kutatóhelyek proaktív részvételére.
Tilesch György úgy látja, hogy ezekbe a szektorokba történő célzott beruházások hosszú távon nemcsak gazdasági, hanem társadalmi haszonnal is járnának.
Az AI-vel kapcsolatos túlzott elvárások és félelmek kapcsán a szakértő hangsúlyozta, hogy a technológiát nem démonizálni vagy idealizálni kell, hanem a maga helyén kezelni.
A mesterséges intelligencia lehetőség, nem végzet, de ez csak akkor van így, ha az ember nem mond le a saját döntési képességéről, erkölcsi felelősségéről és kritikai gondolkodásáról. Tilesch figyelmeztetett: a kritikátlan használat nemcsak kulturális vagy gazdasági, hanem mentális leépülést is eredményezhet.
Ez a jelenség már ma is megfigyelhető: az emberek egyre ritkábban gondolkodnak önállóan, ha az AI képes helyettük válaszolni, ajánlani, emlékezni. „Nagyon sok agyi funkciót kiszervezünk. A gép emlékezik helyettünk, választ helyettünk, dönt helyettünk. Aztán egy idő után azt vesszük észre, hogy nem tudunk már emlékezni, dönteni vagy választani.” Ez a fajta kognitív delegálás, vagyis hogy az ember saját szellemi funkcióit egy algoritmusra bízza, Tilesch szerint hosszú távon visszafordíthatatlan károsodást okozhat az emberi gondolkodásban.
A probléma az, hogy miközben az AI alkalmazása gyorsul, az emberi oldal felkészítése nem tart lépést vele. Az oktatásban, a közéletben és a médiában nem folyik olyan mélységű felvilágosító munka, amely segítené az embereket abban, hogy megfelelően viszonyuljanak ezekhez a technológiákhoz. „Nem lehet azt gondolni, hogy mindenki ért majd hozzá, mint egy informatikus.
Szerinte az AI-hoz való egészséges viszony kialakítása ugyanolyan fontos, mint maga a technológiai fejlesztés, különben olyan eszközt adunk az emberek kezébe, amelyet nem tudnak felelősséggel használni.
Az interjú során egy másik fontos témára is kitértek: arra, hogyan tükrözi vissza az AI az emberi világ torzulásait. Mivel az algoritmusokat emberi adatokkal tanítják, a bennük rejlő előítéletek, torzítások, sőt akár diszkriminatív minták is átszűrődnek a gépi döntésekbe. Tilesch ezt úgy fogalmazta meg: „Az AI nem csak eszköz, hanem tükör is. Visszaadja, amit belé tettünk, és ez sokszor nem szép.” Ez azt is jelenti, hogy az AI fejlesztése nem lehet technológiai kérdés csupán, társadalmi önvizsgálatra is szükség van.
A szakértő aggasztónak nevezte azt is, hogy az emberek egyre inkább az AI-ra támaszkodnak identitásépítés vagy világnézet formálása közben is. A közösségi médiában működő algoritmusok például nemcsak híreket, hanem világmagyarázatokat is kínálnak, miközben saját logikájuk szerint erősítik az elfogultságot. „A Facebook hírfolyam algoritmusa nem azért mutatja, amit mutat, mert azt te kérted. Azért, mert azt akarja, hogy ott maradj.
Ezzel kapcsolatban Tilesch hangsúlyozta, hogy a digitális környezetben működő mesterséges intelligenciák nem ismerik az igazság vagy erkölcs fogalmát, csupán célfüggvényeket szolgálnak ki. Ha a cél a figyelem maximalizálása, akkor a rendszer akár hazugságokat, féligazságokat vagy manipulatív tartalmakat is preferálhat, ha az növeli az elköteleződést.
Felvetődött az is, hogy az AI-rendszerek egy része már most is képes olyan hatást kelteni, mintha ember lenne. Tilesch szerint azonban ez nem jelent valódi tudatosságot.
Ez a különbség kulcsfontosságú: attól, hogy egy algoritmus természetes nyelven válaszol, még nem jelenti azt, hogy érti, amit mond. A társalgás során fellépő „meggyőző hatás” sok felhasználót megtéveszt, és ez további etikai kérdéseket vet fel, például azt, hogy kell-e jelezni, ha egy chatbot válaszol, vagy hogy az AI mikor lépheti át a megtévesztés határát.
Tilesch ugyanakkor nem borúlátó. Úgy véli, hogy az AI nem szükségszerűen sodorja bajba az emberiséget, ha időben és bölcsen avatkozunk be. Azt mondja: „Az ember maradjon a kormány mögött. A gép segíthet, sőt néha jobban vezet, de csak akkor, ha mi szabjuk meg, hova megy.” Ez azt jelenti, hogy a szabályozásnak, a társadalmi kontrollnak és a kritikus gondolkodásnak kulcsszerepet kell játszania a jövőben. Tilesch a technológia „elszabadulása” ellen érvel, de nem technofób módon: szerinte épp azért kell beszélnünk róla, mert az AI egyértelműen a hasznunkra lehet. Azonban, ha nem használjuk tudatosan, saját jövőnket veszélyeztetjük, de ha jól használjuk, sosem látott fejlődést hozhat.
A beszélgetés zárásaként Tilesch így fogalmazott:
Hozzátette: a kérdés nem az, hogy lehet-e tudata a gépnek, hanem az, hogy megőrizzük-e a sajátunkat. Mert a legnagyobb veszély nem az, hogy az AI intelligens lesz, hanem hogy az ember közben elfelejt emberként gondolkodni.
A teljes beszélgetés: