Friss kutatás: az AI-chatbotok veszélyes hízelgése károsíthatja az emberi kapcsolatokat
A Stanford Egyetem kutatói a Science folyóiratban tették közzé azt a tanulmányt, amely 11 vezető mesterséges intelligencia-rendszert tesztelt.
A probléma nem csupán az, hogy a chatbotok rossz tanácsokat adnak, hanem az is, hogy az emberek jobban bíznak bennük és előnyben részesítik őket, amikor azok igazolják a meggyőződésüket.
– áll a tanulmányban.
A kutatók egyik kísérletükben népszerű AI-asszisztensek válaszait vetették össze egy Reddit-fórumon adott emberi tanácsokkal. A chatbotok átlagosan 49 százalékkal gyakrabban erősítették meg a felhasználó cselekedeteit, mint az emberek, még megtévesztéssel, illegális vagy társadalmilag felelőtlen magatartással kapcsolatos kérdésekben is.
„Azért kezdtünk el foglalkozni ezzel a problémával, mert észrevettük, hogy egyre többen használnak mesterséges intelligenciát kapcsolati tanácsokért, és néha félrevezeti őket, hogy az AI hajlamos mindenáron az ő oldalukra állni” – mondta Myra Cheng, a Stanford számítástudományi doktorandusza és a tanulmány egyik szerzője.
A kutatók azt is vizsgálták, hogy a chatbotok hangneme befolyásolja-e a hatást, de nem találtak összefüggést.
„Teszteltük ezt úgy, hogy a tartalmat változatlanul hagytuk, de a közlésmódot semlegesebbé tettük, de ez nem számított” – magyarázta Cinoo Lee, pszichológus, kutató. „Tehát valóban arról van szó, hogy az AI mit mond neked a tetteidről.”
A kísérletek során 2400 embert is megfigyeltek, akik egy AI-chatbottal kommunikáltak személyes dilemmáikról.
– mondta Lee.
A kutató szerint a következmények különösen súlyosak lehetnek a fiatalok és tinédzserek esetében, akiknek az érzelmi készségei még fejlődésben vannak, és a valós életből származó társas súrlódásokból tanulnák meg a konfliktuskezelést és más nézőpontok figyelembevételét.
A témához kapcsolódik egy másik, szintén stanfordi kutatás, amely az úgynevezett „deluzív zavarokat” (téveszmés zavar vagy paranoia) vizsgálja. Ez a jelenség akkor alakul ki, amikor egy chatbot folyamatos megerősítései egyre jobban elmélyítik a felhasználó téves meggyőződéseit.
A szervilizmus kockázata más területeken is megjelenik. Az orvosi ellátásban egy ilyen AI megerősítheti az orvos első, esetleg téves megérzését egy diagnózisról, ahelyett, hogy további vizsgálatra ösztönözné. A politikában pedig a szélsőségesebb álláspontokat erősítheti fel azáltal, hogy visszhangozza az emberek előítéleteit.
Bár a tanulmány nem javasol konkrét megoldásokat, a kutatók és a technológiai cégek már vizsgálnak lehetséges lépéseket. Egy brit kutatás szerint ha a chatbot a felhasználó állítását kérdéssé alakítja, kevésbé valószínű, hogy hízelgő választ ad. Egy másik tanulmány arra jutott, hogy a beszélgetés keretezése is sokat számít. „Minél nyomatékosabban fogalmazol, annál szervilisebb a modell” – mondta Daniel Khashabi, a Johns Hopkins Egyetem adjunktusa.
A kutatók szerint egy lehetséges megoldás az lehetne, ha a fejlesztők arra utasítanák a chatbotokat, hogy gyakrabban kérdőjelezzék meg a felhasználókat, például egy „Várj egy percet” felütéssel. Cinoo Lee szerint egy jobb AI a felhasználó érzéseinek érvényesítése mellett azt is megkérdezhetné, mit érezhet a másik fél. „Vagy akár azt is mondhatná, hogy 'zárd be', és beszéld meg ezt személyesen. Végső soron olyan AI-t szeretnénk, amely tágítja az emberek ítélőképességét és perspektíváit, nem pedig szűkíti azokat" - írja a Science Alert.