Jau pati COVID-19 pandemija ir karantino apribojimai gerokai gadina žmonėms gyvenimus. Bet, tarsi to būtų maža, vos užsukę į feisbuką esame bombarduojami nepatikimuose, suinteresuotuose šaltiniuose išpublikuotos informacijos platinimu, neveiksmingų koronaviruso gydymo būdų reklamomis, sąmokslo teorijomis, kurios pateikiamos kaip biblinė tiesa, nereikalaujanti įrodymų. Dalį šio melo srauto „Facebook“ suvaldo per partnerystes su 60 faktų tikrinimo organizacijų. Siekiant apriboti perpardavinėtojų „versliukus“ dar nuo kovo mėnesio imtasi laikinų draudimo priemonių prieš prekybą asmeninėmis apsaugos priemonėmis rankų dezinfekantais ir valymo priemonėmis.
Tokios dezinformacijos ir neetiškos veiklos kontrolės priemonės yra būtinos, bet sąžinės stokojantys žmonės greitai rado būdą jas apeiti: jeigu „Facebook“ užblokavo kokią nors nuotrauką ar paveikslėlį, pakanka vos truputį ją pakoreguoti ir įkelti iš naujo. Žmonėms tokių nuotraukų skirtumai gali būti net nepastebimi – pavyzdžiui, tai gali būti ne originali nuotrauka, o „nuotraukos nuotrauka“, bet įprastines kompiuterinio matymo sistemas jos sugeba apgauti, nes šios regi ne atvaizdą kaip visumą, o vertina kiekvieną atvaizdo tašką atskirai. Taigi, nutinka taip, kad šios sistemos per medžius negali įžiūrėti miško.
Šias problemas „Facebook“ ketina spręsti nauju įrankiu „SimSearchNet“. Tai yra konvoliucinio neuroninio tinklo modeliu veikiantis įrankis, kurio pagrindinė užduotis – atpažinti beveik, bet ne visiškai identiškus atvaizdus. Tokia automatizuota sistema turėtų smarkiai palengvinti turinį moderuojančių žmonių darbą. O kai faktų tikrinimą vykdantys asmenys pažymės kokią nors nuotrauką kaip pateikiančią dezinformaciją apie COVID-19, ta informacija bus persiunčiama į „SimSearchNet“. Tuomet šis įrankis pertikrins visą socialinį tinklą ieškodamas „beveik tikslių kopijų“ ir pagal šiuos duomenis turinio moderatoriai kaip dezinformaciją galės pažymėti ne tik konkretų identifikuotą turinio vienetą, bet ir visas jo pakoreguotas kopijas. Iš esmės tai yra milžiniškas turinio moderatorių galimybių išplėtimas, autonomiškai padauginsiantis jų sprendimą tūkstančiams ir gal net milijonams skaitmeninių antrininkų, kurių nuolat prikuriama dezinformaciją skleidžiantiems atvaizdams.
„Norime įgyti gebėjimą atpažinti tuos dalykus kaip identiškus, nes jie tokie ir yra – žmogui. Bet tą turime daryti labai dideliu tikslumu, nes nenorime pažymėti turinio, kuris atrodo labai panašus, tačiau kokybiškai kitoks, ir arba jį uždengti dezinformacijos atpažinimo sluoksniu, arba apskritai užblokuoti kaip nederamą. Ir nors mūsų ankstesnės sistemos buvo labai tikslios, jos kartu buvo ir labai jautrios net minimaliems pokyčiams – pakakdavo pakeisti kelis nuotraukos taškus“, – sistemos būtinybę paaiškino „Facebook“ technikos vadovas Mike'as Schroepferis.
Įmonė oficialiame tinklaraščio įraše nurodė, kad per balandžio mėnesį dėl apsauginių kaukių, rankų dezinfekantų, paviršių valymo šluosčių ir COVID-19 testų prekybos pažymėjo 50 mln. įrašų ir pašalino daugiau nei 2,5 mln. turinio vienetų,
Be abejo, pandemija – ne pirmas kartas, kai „Facebook“ platforma savo naudai bando pasinaudoti įvairaus plauko troliai. Jau gana ilgą laiką socialiniu tinklu naudojamasi neapykantos sklaidai. Atskirame tinklaraščio įraše, kuris publikuotas antradienį, socialinio tinklo valdytojai nurodė, kad „šiandien išplatinta Bendruomenės standartų taikymo ataskaita parodė, jog šiuo metu dirbtinis intelektas proaktyviai atpažįsta 88,8 proc. viso moderatorių pašalinamo neapykantą skleidžiančio turinio – ankstesnį ketvirtį šis rodiklis buvo 80,2 procento. Per pirmą 2020 metų ketvirtį dėl taisyklių, susijusių su neapykantos skleidimu, pažeidimų, imtasi veiksmų prieš 9,6 mln. turinio vienetų – 3,9 milijonais daugiau nei ankstesnį ketvirtį“.
Neapykantos sklaidos atpažinimas nėra lengva užduotis. Procesą apsunkina daugybė įvairiausių niuansų. Nors labai svarbu tai, kas sakoma, ne mažiau svarbu įvertinti, kaip tai pasakoma, kam tai sakoma, kas yra pateikiama šalia pagrindinio turinio (nuotraukų, vaizdo ar garso įrašų). O dar sunkiau yra tinkamai identifikuoti atsakus į neapykantos skleidimą, ypač jeigu tame atsake cituojama didelė dalis pagrindinio pranešimo turinio. Šioje vietoje neretai suklysta net ir turinį moderuojantys žmonės. Dėl šios priežasties „Facebook“ kelis pastaruosius metus tobulino savo automatizuotų natūralios kalbos apdorojimo įrankių gebėjimus. Vienas iš tokių įrankių yra XLM-R, kuris geba išversti maždaug 100 skirtingų kalbų turinį. Kitas įrankis – RoBERTa – yra modelis, kuriuo naudojantis atliekami tokių įrankių, kaip XLM-R apmokymai naudojant didelius duomenų kiekius.
Patobulinus automatizuotus įrankius „Facebook“ išmoko atpažinti net ir neapykantos skleidimo memus. Kaip jau minėta, nepageidaujamo turinio atpažinimą veikia įvairūs niuansai, iš kurių vienas sudėtingiausių yra teksto ir vaizdo derinys. Todėl „Facebook“ dirbtinio intelekto programuotojai sukūrė didelę daugialypio turinio duomenų bazę – daugiau nei 10000 memų, profesionaliai sukurtų naudojantis nuotraukomis iš „Getty“ nuotraukų galerijos – kuri bus naudojama ateities dirbtinio intelekto apmokymams.
„Šie memai buvo sukurti taip, kad vertinant tik vieną turinio pateikimo terpę jų niekas negalėtų pripažinti netinkamais. Taip pat šį duomenų rinkinį sukūrėme specifiškai siekdami tikslo įveikti dažnai sutinkamas dirbtinio intelekto vystymo kliūtis, kaip, pavyzdžiui, trūkumas pavyzdžių, leidžiančių išmokyti mašinas vengti klaidingai teigiamų rezultatų nustatymo“, – rašoma socialinio tinklo tinklaraštyje.
Kartu „Facebook“ siūlo progą internautams uždirbti 100 000 JAV dolerių: tereikia suprogramuoti tokį dirbtinį intelektą, kuris geba automatiškai atpažinti ir pažymėti neapykantos turinį, sudarytą iš kelių skirtingų turinio tipų.