Kína mélytanuló mesterséges intelligenciái a kínai állam világlátását tanulják meg
Érdekes kísérletbe kezdett Margaret Roberts, a San Diegó-i egyetem politológus professzora és csapata. Egy mélytanuló nyelvi mesterséges intelligencia-algoritmus betanításához két különböző adatbázist használtak fel. Az egyik a Wikipedia kínai nyelvű változatából tanult, amit a pekingi hatóságok Kínában blokkoltak, a másik pedig a Baidu Baike-ból, ami a Wikipedia erősen cenzúrázott kínai verziója.
Ha igen, az például befolyásolhatja a nyelvezetet, amit egy chatbot vagy egy hangasszisztens használ, egy fordító program mondatalkotását, vagy egy kulcsszókereső kiegészítési javaslatait.
A mélytanuló algoritmusok úgy tanulnak, hogy a kiképzésükhöz felhasznált adathamazban hasonlóságokat, összefüggéseket, mintázatokat keresnek, és a kapott eredményeket használják fel ezután az új adatok értelmezéséhez. Az előítéletes adatokon betanított algoritmus így maga is előítéletes lehet. Margaret Roberts szerint a kísérletükben épp ez történt.
Roberts és tanítványa ezt követően egy olyan alkalmazás elkészítéséhez használták fel az algoritmusokat, amely azt vizsgálta, hogy az újságok címlapsztorijai inkább pozitívak vagy negatívak. A kínai Wikipedián edzett algoritmussal működő applikáció több pozitív pontot adott azoknak a címeknek, amelyekben a „választás”, a „szabadság” vagy a „demokrácia” szó szerepelt, míg a Baidu Baike alapján betanított algoritmus programja olyan címeket értelmezett pozitívként, amikben az „ellenőrzés” vagy a „társadalmi kontroll” szó szerepelt, esetleg a Kínai Kommunista Párt neve.
Arra a kutatók már korábban rávilágítottak, hogy a faji és nemi előítéletek mennyire torzíthatják a mélytanulással működő mesterséges intelligenciákat. A Bostoni Egyetem és a Microsoft kutatói például rájöttek, hogy a „számítógépes programozó” mellé általában férfi névmást társítanak a szóbeágyazási algoritmusok, míg a „háztartást” a nőkkel azonosítják.
2015-ben a Google-nak bocsánatot kellett kérnie, mert az egyik alkalmazásukat működtető algoritmus két fekete embert gorillaként jelölt meg. Ennek fő oka az lehetett, hogy a képzéshez használt adatállományában túl kevés volt a feketékről készült kép.
2018-ban pedig kulturális előítéleteket mutattak ki egy képfelismerő algoritmusnál is, amely csakis a nyugati típusú esküvői jeleneteket tudta esküvőként beazonosítani.
Roberts a Wired-nek nyilatkozva ugyanakkor megjegyezte, hogy a tanulmányukban bemutatott különbségek oka nem csak a kínai állami cenzúra lehet. Szerepet játszhat benne az öncenzúra is, vagy a két enciklopédia szerzői közötti kulturális különbségek.
A kutatás mindenesetre rávilágít arra, hogy a politika is képes előítéleteket csempészni a mesterséges intelligencia-rendszerekbe.
És ehhez még különösebb szándékosság sem kell, elég, ha a mesterséges intelligenciák az adott nyelvi környezetben edződnek.
Így ebből a szempontból sem mindegy, hogy az élet egyre több területét átformáló MI-fejlesztésekben a demokratikus nyugati országok, vagy a Kínához hasonló autokráciák dominálnak majd a jövőben.