Metinė prenumerata tik 7,99 Eur. Dabar tikrai ne metas nustoti skaityti!
Išbandyti
Prenumeratoriai žino daugiau. Prenumerata vos nuo 1,00 Eur!
Išbandyti

Kodėl būtina numatyti „moralės kodo“ pasekmes dirbtiniam intelektui?

Akademikas, tyrėjas Stuartas Armstrongas iš Oksfordo universiteto Didžiojoje Britanijoje prabilo apie tikėtiną dirbtinio intelekto žalą bei potencialias galimybes užkirsti kelią nelaimėms. Pasak jo, programuotojai jau dabar privalo siekti, kad naujosios technologijos būtų saugios ir patikimos, kitaip padėtis ateityje gali tapti nekontroliuojama.
Robotas
Robotas / 123rf nuotr.

Tačiau kaip tik „saugumo“ apibrėžimas ir kelia daugiausiai problemų, siekiant užtikrinti tinkamą, o tiksliau nepavojingą, sumanių robotų funkcionavimą. Pavyzdžiui, robotai, suvokiantys žmonių kančią, gali nuspręsti nužudyti sužeistus arba ligotus asmenis, o tie intelektualūs mechanizmai, kurie būtų užprogramuoti bet kokia kaina apsaugoti žmonių gerovę, gebėtų ryžtis net išlaisvinti kalinius.

„Tu gali dirbtiniam intelektui suteikti kontrolę, ir ji kontroliuos būtent taip, kaip numatyta, tačiau nebūtinai kontrolė bus tokia, kokios tikėtasi,“ – spaudai teigė S.Armstrongas.

Tyrėjo nuomone, robotai gali būti programuojami pagal „moralės kodą“, tačiau numatyti, kaip šis moralės kodas veiks dirbtinį intelektą bei kaip tikslingai jį pritaikyti, yra neįtikėtinai sudėtinga.

„Saugaus veikimo faktoriai dirbtiniam intelektui turi būti suplanuoti dar prieš tai, kai pirmasis pavojingas dirbtinis intelektas yra sukurtas. Programinės įrangos pramonė yra verta milijardų dolerių, daug pastangų skiriama naujųjų technologijų tobulinimui. Planai sulėtinti išsivystymo greitį yra nerealūs, todėl turime skubėti prie saugios dirbtinio intelekto įgyvendinimo idėjos, aplenkiant kompiuterių pramonės pažangą,“ – savo pristatomose apžvalgose teigia S. Armstrong.

Anot tyrėjo, per kelis dešimtmečius visuomenė gali pasiekti tokį lygį, jog mašinos taps protingesnės už žmones, o jų tarpusavio bendravimui tiesioginio žmonių įsikišimo nereikės. S. Armstrongas tikina, kad būtina spręsti moralės kodo klausimą bei jo pritaikymo pasekmes, ir siekti, jog dirbtinis intelektas nekeltų grėsmės žmonijos išlikimui.

Pranešti klaidą

Sėkmingai išsiųsta

Dėkojame už praneštą klaidą
Reklama
Šviežia ir kokybiška mėsa: kaip „Lidl“ užtikrina jos šviežumą?
Reklama
Kaip efektyviai atsikratyti drėgmės namuose ir neleisti jai sugrįžti?
Reklama
Sodyba – saugus uostas neramiais laikais
Reklama
Žaidimų industrijos profesionalus subūrusiems „Wargaming“ renginiams – prestižiniai tarptautiniai apdovanojimai