GPT-3: a mesterséges intelligencia, amely képes tökéletes cikket, szerződést, forgatókönyvet írni
Ha ma egy bonyolult kérdésre keressük a választ, beírunk néhány kulcsszót a Google-ba, aztán végig kell mennünk a javasolt linkeken, videókon, hogy megtaláljuk azt az információt, amit kerestünk. Mindezt teljesen megváltoztathatják a most fejlesztett mesterséges intelligenciák, amelyeknek elég lesz csak feltenni a kérdést, és már érkezik is a pontos, meggyőző, kizárólag számunkra összeállított válasz.
Ez nem a távoli jövő, hanem tulajdonképpen a jelen. A New York Times szerint az OpenAI GPT-3 programja képes összetett kérdésekre akár többféle választ is adni tökéletesen felépített mondatokban, be tud fejezni egy félbehagyott bekezdést az eredeti stílusban, de ha kell, egyedi prózákat is alkot.
Ez egészen más szint, mint a Siri és az Alexa működése.
A GPT-3 ugyanis mélytanuló algoritmust használ. Neurális hálóját az emberi agy nyomán modellezték, és kísérletezve azonosítja a mintákat, amelyek segítségével azután képessé válik a legkülönfélébb problémákat megoldására. A GPT-3 széleskörű nyelvi modelljének (LLM) fejlesztéséhez rengeteg adatot használtak az internetről, a Wikipediától a digitalizált könyvtárakig.
Bár a Google, a Facebook és a DeepMind is kifejlesztették az elmúlt években a maguk LLM-jét, a GPT-3-é a legnagyobb adatbázis, és tanulásához a mesterséges neuronok sokkal mélyebb rétegeit használja.
A projekt különlegessége, hogy 2020 óta az OpenAI külsős fejlesztőknek is korlátozott hozzáférést biztosít a GPT-3 programhoz, és bár kezdetben csak néhányan használták, hamar elterjedtek a világhálón a rendkívüli nyelvi képességeiről szóló hírek.
Az OpenAI csapatát is meglepték, hogy mire képes az általuk létrehozott mesterséges intelligencia. Néhány hónappal azután, hogy a GPT-3 felkerült az internetre, felfedezték, hogy a neurális hálózat kifejlesztette saját szoftveríró képességét, annak ellenére, hogy a kiképző adatbankban nem voltak kódminták. Kiderült, hogy a weben számtalan oldal foglalkozik programozással, kódleírásokkal, és a GPT-3 ezekből tanult.
Ha egyszer széles körben elterjed, nagyon nehéz dolga lesz például a tanároknak, hogy megakadályozzák a plagizálást, mert a GPT-3 segítségével írt esszék nem a neten talált idézetek összeollózásából állnak, hanem teljesen egyediek. Még az sem biztos, hogy használatát nevezhetjük egyáltalán plagizálásnak.
Alkalmazása alapvetően megváltoztathatja az ügyfélszolgálatok, a médiumok, vagy épp az ügyvédi irodák működését, és rengeteg ember munkáját teheti feleslegessé.
Mindez egészen elképesztő eredmény egy olyan programtól, amelybe előzetesen semmilyen nyelvtani ismeretet sem tápláltak be, csupán a ”hiányzó szó” megtalálásának több milliárdszoros gyakorlása vezetett a profi fogalmazási készséghez.
Ugyanakkor a projekt kritikusai szerint szó sincs arról, hogy a GPT-3-nak saját gondolatai lennének, vagy képes lenne komplex döntéshozatalra, a szoftver csak az emberi nyelv szintaktikus mintáit utánozza, nem érti a dolgok mély összefüggéseit. Azt mondják, ebben az értelemben
Érvelésük szerint a GPT-3-nak és a hozzá hasonló LLM-eknek nincsenek meg az alapvető ismereteik a világ működéséről és az egyes dolgok közti kapcsolatokról, és ezt pusztán a nyelv alapján nem is érthetik meg. Például abból a mondatból, hogy „a sportkocsi leelőzte a postakocsit, mert az lassabban ment”, nem derülhet ki a program számára sem az, hogy mik ezek a járművek, sem pedig a köztük lévő interakció lényege.
Hívei szerint ugyanakkor elegendő adat birtokában az LLM kifejlesztheti azt a képességét, hogy lássa egy helyzet, egy esemény belső logikáját.
Az LLM-ekkel kapcsolatos viták egyik eredője, hogy igazából nem tudjuk, mi történik egy ilyen mélytanuló modellen belül. A program kap egy inputot és kijön egy output, de az visszakövethetetlen, hogy a szoftver miért éppen az adott választ adta.
Az LLM-ek kiképzéséhez ugyanis rengeteg adatra van szükség, vagyis széles merítés kell a világhálóból. Csakhogy ilyenkor óhatatlanul bekerülnek rasszista tartalmak, előítéletek, szándékos dezinformációk. És ez oda vezethet, hogy a program által generált válaszok is tartalmazhatnak tévedéseket, káros nézeteket, amelyek akár életveszélyesek is lehetnek például egy egészségügyi kérdésre adott válasz esetén.
Az OpenAI azt állítja, különösen nagy figyelmet fordít arra, hogy elkerüljék az ilyen helyzeteket. A szervezet munkatársainak egyötöde csak a biztonsággal foglalkozik. Folyamatosan figyelik, hogy külső fejlesztők miként használják a programot.
A szoftver licensze például kifejezetten tiltja, hogy hitelbírálatokhoz vagy munkahelyi felvételhez használják. Eddig ugyanis éppen ezek voltak a mesterséges intelligenciák legvitatottabb alkalmazásai. Tiltják továbbá, hogy spamek gyártsanak vele, vagy politikai kampánycélokra vegyék igénybe.
A PALMS (a nyelvi modellek társadalmi alkalmazásának folyamata) emberi beavatkozással elkülöníti a kockázatos témákat, mint például a nemi erőszak, a nácizmus vagy az öngyilkosságra való ösztönzés. Ezeknél a GPT-3 nem a neten talált összes anyagból dolgozik, hanem csak egy szűkebb adatbankból, amelyet kifejezetten erre a célra hoztak létre. Így már olyan válaszokat ad, amelyek nem tartalmaznak előítéleteket.
Ugyanakkor szoftver működtetőinek nincs könnyű dolga, mert a társadalom értékrendje nem egységes és állandó, és egy ilyen szerepet könnyen minősíthetnek cenzúrának.
A New York Times szerint el kell gondolkodni azon, hogy milyennek kell lennie egy valóban demokratikus technológiának, amely egy szélesebb közösség értékein nyugszik.
Az OpenAI chartája nem konkretizálja, hogy mit jelent „az egész emberiség javát szolgáló mesterséges intelligencia”, miközben az emberiség alapvető kérdésekben sem képes egyetérteni. Érvényesülhet-e a nézőpontok sokfélesége? Az ezzel kapcsolatos döntéseket hozó igazgatótanács minden jószándéka ellenére még San Francisco lakosságát sem reprezentálja, nemhogy az emberiséget – írja a lap.