Tačiau kaip tik „saugumo“ apibrėžimas ir kelia daugiausiai problemų, siekiant užtikrinti tinkamą, o tiksliau nepavojingą, sumanių robotų funkcionavimą. Pavyzdžiui, robotai, suvokiantys žmonių kančią, gali nuspręsti nužudyti sužeistus arba ligotus asmenis, o tie intelektualūs mechanizmai, kurie būtų užprogramuoti bet kokia kaina apsaugoti žmonių gerovę, gebėtų ryžtis net išlaisvinti kalinius.
„Tu gali dirbtiniam intelektui suteikti kontrolę, ir ji kontroliuos būtent taip, kaip numatyta, tačiau nebūtinai kontrolė bus tokia, kokios tikėtasi,“ – spaudai teigė S.Armstrongas.
Tyrėjo nuomone, robotai gali būti programuojami pagal „moralės kodą“, tačiau numatyti, kaip šis moralės kodas veiks dirbtinį intelektą bei kaip tikslingai jį pritaikyti, yra neįtikėtinai sudėtinga.
„Saugaus veikimo faktoriai dirbtiniam intelektui turi būti suplanuoti dar prieš tai, kai pirmasis pavojingas dirbtinis intelektas yra sukurtas. Programinės įrangos pramonė yra verta milijardų dolerių, daug pastangų skiriama naujųjų technologijų tobulinimui. Planai sulėtinti išsivystymo greitį yra nerealūs, todėl turime skubėti prie saugios dirbtinio intelekto įgyvendinimo idėjos, aplenkiant kompiuterių pramonės pažangą,“ – savo pristatomose apžvalgose teigia S. Armstrong.
Anot tyrėjo, per kelis dešimtmečius visuomenė gali pasiekti tokį lygį, jog mašinos taps protingesnės už žmones, o jų tarpusavio bendravimui tiesioginio žmonių įsikišimo nereikės. S. Armstrongas tikina, kad būtina spręsti moralės kodo klausimą bei jo pritaikymo pasekmes, ir siekti, jog dirbtinis intelektas nekeltų grėsmės žmonijos išlikimui.