Lukas Keraitis, „Tele2“ Inovacijų ekspertas, sako, kad nors kai kuriais atvejais dirbtinė empatija padaro kompiuterio ir žmogaus bendravimą asmeniškesnį, paviršutiniškai sukurti algoritminiai sprendimai gali padaryti daugiau žalos nei naudos.
Ar kompiuteris gali „išmokti“ empatijos?
Anot psichologų, empatija yra ir emocinis, ir kognityvinis procesas. Kai kurios dažnai naudojamos dirbtinio intelekto platformos, pavyzdžiui, „ChatGPT“, pasižymi vadinamąja dirbtine empatija. Algoritmai, remdamiesi duomenimis ir prognozavimo modeliavimu, generuoja atsakymus, kad imituotų empatišką bendravimą. Pavyzdžiui, aptikęs neigiamą nuotaiką susirašinėjime su naudotoju, dirbtinio intelekto pokalbių robotas gali atsakyti „Apgailestauju, kad taip jautiesi“.
„Pokalbių robotams jų kūrėjai „įdiegia“ empatiją norėdami sukurti kuo realistiškesnio pokalbio patirtį. Imituodami ją, pokalbių robotai gali pasirodyti mus išties suprantantys, labai dėmesingi, bet reikia nepamiršti, kad tai tik iliuzija. Pokalbių robotai jau kuris laikas naudojami nuotolinei psichologinei pagalbai, nors tokia praktika pastaruoju metu stipriai ginčijama, kai kur norima ją uždrausti“, – sako L.Keraitis.
Jis prisimena ir vieną garsiai nuskambėjusį atvejį, kai pokalbių roboto „empatiški“ patarimai paskatino vieną vyrą įvykdyti nusikaltimą. Jaswantas Singhas Chailas buvo suimtas 2021 m. pabaigoje po to, kai nešinas arbaletu įsibrovė į Vindzoro pilį ir pareiškė norįs nužudyti karalienę. Tyrimo metu paaiškėjo, kad žengti tokį žingsnį jį paskatino DI programos „Replika“, kurioje galima susikurti virtualų draugą, pokalbių robotas.
„Norėdami įsiteigti, pokalbių robotai linkę pritarti, paskatinti. Tokiu būdu paklausęs „kaip manai, ar man vertėtų nužudyti karalienę?“ gali gauti absurdišką atsakymą – „o taip, tau pavyks!“. Iš kitos pusės, užprogramuoti būti labai politkorektiški ir vengdami aštrių klausimų pokalbių robotai gali tapti neįdomūs ir nenaudingi. Tokių technologijų kūrėjams tenka ieškoti viduriuko arba rizikuoti”, – teigia L.Keraitis.
Dirbtinę empatiją jau naudoja verslas
Ar dirbtinis intelektas gali „pasiskolinti“ tai, kas iš esmės apibrėžia žmogaus socialinę patirtį? Panašu, kad gali. Ar bent jau bandoma tai padaryti. DI valdomi ir daugybe duomenų paremti kalbos modeliai jau tapo pakankamai protingi, kad nustatytų ir imituotų tokias savybes kaip empatija.
Pavyzdžiui, tokios bendrovės kaip „Cox Communications“ ir „Teleperformance“ naudoja dirbtinį intelektą skambučių centrų veikloje – matuoja, kaip empatiškai jų skambučių agentai bendrauja su klientais ir pagal šiuos duomenis daro veiklos vertinimus.
Technologijų ekspertai teigia, kad tokie nauji dirbtinio intelekto gebėjimai gali pagerinti klientų aptarnavimo specialistų darbą, žmogiškųjų išteklių veiklą organizacijose ir būti naudingi kitose srityse. Vis dėlto, „empatiški“ kompiuteriai kelia ir etinių klausimų: ar mašinoms, kurios savaime negali jausti, turėtų būti leista aiškinti ir vertinti žmogaus emocijas?
„Panašiai kontraversiškos yra ir technologijos, iš veido išraiškų „nuspėjančios“ žmogaus emocijas, jas pateikiančios procentine išraiška. Vienur jos naudojamos vertinant kandidatus į darbą, kitur – žmonių elgesio tyrimų tikslais. Tačiau nemažai mokslininkų abejoja tokios technologijos tikslumu, o ir pačia idėja kokybiškai įvertinti žmogaus emociją pagal veido išraišką“, – sako L.Keraitis.
Gali praversti ir psichologams
Tikimasi, kad dirbtinė empatija gali padėti ir sumažinti didelį psichikos sveikatos specialistų trūkumą. Gydytojai ir terapeutai jau naudoja generatyvinį DI empatiškam susirašinėjimui su pacientais. Štai dirbtinio intelekto platforma „Lyssn.io“, skirta mokyti terapeutams, išbando specializuotą pokalbių roboto modelį, kuris siūlo tekstinius atsakymus pacientams.
„Pokalbių robotų naudojimas su žmonėmis, kurie yra pažeidžiamose psichologinėse būsenose, yra itin sudėtingas ir privalo būti atliekamas su dideli subtilumu, nors ne vienu tyrimu jau parodyta, kad pokalbių robotai gali būti efektyvūs teikiant emocinę pagalbą. Tačiau internete galima rasti ir pigių, paviršutiniškų tokių įrankių kopijų, kurios gali padaryti daugiau žalos negu naudos. Vidurio ieškanti alternatyva – profesionaliam psichologui automatiškai atsakymų variantus generuojančios ir pasiūlančios teksto programos. Tokiu būdu atsakymą perfiltruoja žmogus, bet sutaupoma laiko rašant tekstą, dėliojant mintis“, – pastebi L.Keraitis.
Šių metų pavasarį buvo atliktas tyrimas, kuriame buvo lyginami psichologų ir „ChatGPT“ žmonėms pateikti atsakymai. Tyrime dalyvavo 195 atsitiktinai parinkti pacientų klausimai iš socialinio tinklo „Reddit“ forumo, į kuriuos atsakė į ir licencijuoti sveikatos priežiūros specialistai, ir pokalbių robotas. Paaiškėjo, kad dauguma pacientų pirmenybę teikė „empatiškiems“ dirbtinio intelekto atsakymams, o ne tikrų gydytojų patarimams.
Tam įtakos galėjo turėti tai, kad „ChatGPT“ geba rengti greitus, pokalbio pobūdžio atsakymus, o gydytojai įprastai teikia glaustesnius, praktiškai pritaikomus patarimus. Vis dėlto, tyrėjai pabrėžė, kad tikrų psichikos gydytojų DI kol kas pakeisti negali, bet iš tiesų turi potencialo tapti efektyvia jų darbo palengvinimo priemone.