Ar tikrai gali egzistuoti sąmoningas DI, gebantis priimti sprendimus? DI gali būti tik puikus žmogaus pagalbininkas? O gal ateityje jis galėtų užvaldyti žmogaus protą? Apie DI realias taikymo galimybes ir visuomenėje vis dar sklandančius klaidinančius mitus kalbamės su KTU Matematikos ir gamtos mokslų fakulteto Taikomosios matematikos katedros mokslininku doc. dr. Tomu Iešmantu.
– Vienas garsiausių šiuolaikinių fizikų Maxas Tegmarkas yra išleidęs ne vieną knygą apie dirbtinį intelektą ir žmogaus vaidmenį mūsų gyvenamame – dirbtinio intelekto – amžiuje. Jis kelia aktualius klausimus, pavyzdžiui: kaip galime padidinti savo gerovę, pasitelkdami DI ir kartu neatimdami iš žmonių pajamų? Kaip galime būti tikri, kad ateityje DI sistemos elgsis paklusniai, nesukils prieš mus, neges ir bus atsparios programišių atakoms? Ar DI nesuklestės taip, kad ims po truputį atsikratyti žmonijos kaip nereikalingo balasto? Tiesą pasakius, man dažniau kyla pastarieji klausimai, bet Jūs, kaip matematikas, dėstantis Dirbtinio intelekto sprendimų kūrimo modulį, į DI kūrimą ir panaudojimą šiandieniame pasaulyje žvelgiate, ko gero, realistiškiau?
– Taip, gerokai realistiškiau. Tam, kad DI sukiltų ar bent jau pradėtų reikalauti sau teisių, reikia sukurti taip vadinamą „bendrąjį dirbtini intelektą“ (angl. General Artificial Intelligence). Tai yra tikrasis dirbtinis intelektas, kuris turėtų sąmonę ir gebėtų suvokti pats save. Šiuo metu mes to neturime ir tai yra labai, mano nuomone, toli, o gal ir apskritai neįmanoma.
Visi DI sprendimai, egzistuojantys šiuo metu, tėra tik racionalios elgsenos ir sprendimų darymo atspindžiai – DI apmokomas daryti sprendimus remiantis racionaliomis, logiškomis taisyklėmis. Pavyzdžiui, DI skirtas diagnozuoti ligas, apmokomas pateikiant programai daug skirtingų pacientų fiziologinių duomenų ir su tuo susijusių diagnozių – diagnozės pateiktos gydytojų, kurie, įvertinę visus pakitimus, daro racionalų sprendimą apie vienokią ar kitokią diagnozę. Taip ir DI – apmokomas atlikti racionalius sprendimus.
Iki sąmonės DI dar labai toli, o galbūt net ir neįmanoma. Beje, biologinės sąmonės teorijų yra įvairių ir labai priklauso nuo to, kuri teorija teisinga, kaip atrodys tas „bendrasis DI“.
– Ką manote apie DI iki 2030 metų integravimą į visus ekonomikos sektorius? Bent jau tokį lūkestį turi Lietuvos Respublikos ekonomikos ir inovacijų ministerija. Tai įmanoma?
– Galbūt ir įmanoma, tik klausimas, ar visi įgyvendinimo pavyzdžiai bus verti dėmesio ir iš tikrųjų gerins esamą situaciją. Visuomet yra pavojus, kad daug sprendinių tebus mėginimas įsisavinti lėšas, bet ne iš esmės keisti situaciją. Kita vertus, manau, kad šiuo metu egzistuojanti tendencija visur įbrukti DI – nėra teisinga, nes tai sudaro sąlygas plisti mėgėjiškiems ir nelabai vertingiems sprendiniams, dirbtinai integruoti visa tai į jau esančias sistemas.
Taip pat matau tendenciją skatinimo kurti DI be apmąstymo apie su tuo susijusias problemas. Etinių DI problemų yra ne viena ir ne dvi – skatinamas DI naudojimas be atsakomybės ir atskaitomybės – to neturi būti.
Mokslininkai neabejoja, kad diegiamos DI naujosios technologijos iš tiesų padarys didžiulį proveržį sveikatos apsaugos sistemoje, transporto, energetikos, švietimo srityse, bet tai turi būti daroma labai atsakingai, etiškai ir saugiai.
– Tomai, aš suprantu, kad naudojant DI išmaniąsias sistemas galima optimizuoti didelių įmonių vidaus darbo srautus. Dalį žmogaus atliekamų funkcijų gamyklose tikrai galėtų valdyti robotai, bet neįtikinu savęs, kad, pavyzdžiui, viešajame sektoriuje virtualūs asistentai galėtų ženkliai patobulinti teikiamų paslaugų gyventojams kokybę, arba robotai geriau įstengtų vairuoti transporto priemonę, nei žmonės. DI yra suprogramuotas atlikti tam tikrą veiksmą, jis daro tai, kas parašyta programoje ir jis niekada nepriims ekstrinių sprendimų, kai iškyla koks nenumatytas trikdis ir sprendimą reikia priimti „čia“ ir „dabar“. Ar aš klystu?
– Aš tikrai nemanau, kad ateityje žmogus bus pakeistas visose srityse. DI sprendimų panaudojimo nereikėtų sieti su siekimu pakeisti žmogų. Taip, virtualus asistentas kol kas gan primityvus, tačiau toliau, sparčiai tobulėjant DI kalbos technologijoms, jis tikrai galiausiai patobulės iki tiek, kad su bendro pobūdžio dažnai pasitaikančiais ar nesudėtingais klausimais puikiai tvarkysis.
Sudėtingos, komplikuotos situacijos, tokios su kuriomis DI gali nesusitvarkyti, bus perduotos žmogui. Iš esmės tai bus galiausiai labai daugelyje sričių – DI atliks tik rutinines, ne pernelyg komplikuotas užduotis.
Jūsų, o ir daugelio kitų, klausimas mėgina pasakyti tarsi „geriau už žmogų niekas nepadarys“, bet pamirštama, kad žmogus nėra tobulas – prie visų jo gebėjimų yra neigiami dalykai. Pavyzdžiui, nuovargis, išsiblaškymas, žinių ar patirties trūkumas – visa tai lemia labai brangiai kainuojančias žmogiškas klaidas. Kad ir autonominio automobilio pavyzdys – žmogus negali vairuoti be poilsio didelio atstumo. Vairuotojo patirties trūkumas ar elementarių taisyklių nesilaikymas veda prie didelės avarijų rizikos. DI tokių „ligų“ neturės. Tiesa, DI turi kitų problemų.
– Kokių?
– Neturiu mintyje bendrų problemų. Kalbu apie kiekviename taikyme glūdinčius niuansus, į kuriuos, apmokant DI, neatsižvelgiama. Pavyzdžiui, autonominės mašinos. Jos apmokomos realiose vairavimo sąlygose, naudojami didžiuliai su vairavimu susijusių duomenų kiekiai – su tuo viskas kaip ir gerai, tačiau žmogus geba integruoti patirtis iš įvairių kontekstų ir patirčių, todėl ir nedažnose situacijose (pvz., tamsiu paros metu kelkraščiu einantis pėstysis) randa išeitis greičiau ir patikimiau. Kol kas dabartiniai DI sprendimai apsiriboja apmokymu naudojant gan ribotą patirčių spektrą atspindinčius duomenis.
Kitas pavyzdys būtų YouTube vaizdų rekomendavimo sistemoje mėgintas naudoti DI algoritmas. Tokios sistemos tikslas – didinti peržiūrų skaičių, rekomenduojant vartotojui naujus vaizdus pagal jo ir panašių į jį vartotojų preferencijas.
DI algoritmas, besimokydamas, nukeliavo labai lengvu keliu – pradėjo vartotojams rekomenduoti gan ekstremalų turinį ir konspirologinius vaizdo įrašus. Pavyzdžiui, vaizdo įrašas apie bėgiojimą lėmė rekomendaciją su vaizdo įrašu apie ultramaratoną, Trump‘o kalbos peržiūrėjimas vedė prie vaizdo įrašo su rasistiniu turiniu ir holokausto neigėjų vaizdo įrašais ir t. t.
Tokie trūkumai, manau, vis tik bus išspręsti. Tačiau reikia pripažinti, kad dabartiniai DI sprendimai labai dažnai susiduria su panašiomis adekvatumo problemomis.
– Man kyla ir kitas klausimas: ar diegiant DI technologijas į mūsų gyvenimą, nebus prasilenkiama su etika? Kas užtikrins, kad DI, naudodamas jautrius duomenis (pvz., pradedant fizinio asmens duomenimis ir baigiant valstybės paslaptimis), sugebės juos tinkamai apsaugoti nuo programišių įsilaužimo ir tie duomenys nebus pavogti, nenutekinti tretiesiems asmenims? Šito klausiu ne šiaip sau. Čia vėl prisimenu fiziką Maxą Tegmarką. Jo knygos pavadinimas „Life 3.0: Being human in the age of Artificial Intelligence“, verčiamas pažodžiui, turėtų skambėti taip: „Gyvenimas 3.0: būti žmogumi dirbtinio intelekto amžiuje“, bet Lietuvoje išleistas knygos vertimas skamba kitaip: „Gyvybė 3: žmogus dirbtinio intelekto amžiuje“. Ir tai reiškia toli gražu ne tą patį – būti žmogumi DI amžiuje – tai reiškia, kad ir ką bedarytum, kad ir kokias technologijas bekurtum, privalu neužmiršti, kad technologijos turi tarnauti žmogui, nepažeisdamos žmogaus orumo. Lietuviškame pavadinime žmogus įgauna DI kūrėjo vaidmenį, bet apie tai, kad jis kurdamas turi išlikti ir Žmogumi, neužsimenama. Ar tai nereiškia, kad žmogaus kuriami DI moduliai netolimoje ateityje gali integruotis į labai daug sričių, sukelti painiavą, nepaisydami jokios etikos normų?
– Nemanau, kad duomenų atskleidimas dėl DI kaltės yra labai komplikuota problema. Pavyzdžiui, neuroninis tinklas, apmokytas su įvairių pacientų radiologinėmis nuotraukomis atpažinti plaučių vėžį, nebeturi duomenų apie kiekvieną tą pacientą atskirai. Jis savyje, kuomet baigiamas apmokymas, nebeturi informacijos, susijusios su kiekvienu atskiru pacientu, tam tinklui matytu apmokymo fazėje. Panašiai ir su kitais DI sprendimais. Bet koks duomenų nutekėjimas būtų žmogiškoji, bet ne DI klaida.
Kalbant DI sprendimų etiškumą, tai galiu pasakyti tik tiek, kad visi DI sprendimai, kurie egzistuoja šiandien yra paremti mokymusi iš žmogaus – jei žmonių sprendimai neetiški, tai ir DI bus neetiškas. Ir tokių pavyzdžių jau yra ne vienas – pavyzdžiui, DI, skirtas atrinkti potencialius kandidatus į darbo vietas, pasirodė teikiantis pirmenybę vyrams. Bet tai ne DI problema, o žmonių, nes DI mokėsi iš žmonių sprendimų. Jei nebūsime atsargūs, tai galiausiai sukursime tokį DI, kuris bus pasirengęs atlikti tokius pačius (gal ir blogesnius) neetiškus sprendimus, kaip ir žmogus. Tiesiog viskas priklauso nuo žmogaus.
– Jūsų dėstomas Dirbtinio intelekto sprendimų kūrimo modulis – apie ką jis? Kokiose verslo srityse gali būti saugiai taikomi DI sprendimai?
– Modulis dėstomas trijų mokslininkų, o aš jo dėstyme dalyvauju pirmą kartą. Modulis skirtas studentams labiau priartėti prie šiuo metu svarbiausių DI sprendimų: kompiuterinės regos, duomenų srautų prognozės, kalbos atpažinimo. Kiekvienas mokslininkas pateikia problemas iš savo patirties, tyrimų srities – tai leidžia studentams dirbti su DI problemomis, kurios aktualios būtent šiuo metu.
Saugiai DI gali būti taikomi bene visose srityse – DI saugumas priklauso nuo jo kūrėjų apdairumo ir supratimo galimų DI spragų.
– Kokia, Jūsų manymu, galėtų būti reali, ne iš mokslinės fantastikos srities, DI ateitis?
– Matyčiau DI kaip protingą asistentą – ne pakeičiantį žmogų, bet jį pavaduojantį ir jam patariantį. Čia artimoje ateityje. Apie tolimą ateitį paliksiu spręsti mokslinės fantastikos autoriams, kurie, beje, ne visada prašauna pro šalį.
Daugiau apie DI ir jo taikymus medicinoje kviečiame klausyti tinklalaidėje „Mokslininkai kalba“: