Prenumeratoriai žino daugiau. Prenumerata vos nuo 1,00 Eur!
Išbandyti
09:03

Dirbtinio intelekto pavojai demokratijai: gera žinia rusams ir bloga rinkėjams

Vos prasidėjus JAV prezidento rinkimų kampanijai, daugybė informacinio saugumo ekspertų įspėjo, kad dirbtinis intelektas gali sėti chaosą, skleisti dezinformaciją per gilumines klastotes (angl. deepfake) ir individualizuotas politinės reklamos kampanijas. Nors šįkart baimintasi veltui, kai kurie šių pavojų jau netolimoje ateityje gali tykoti ne tik JAV, bet ir Lietuvos piliečių.
Kamala Harris ir Donaldas Trumpas. Dirbtinio intelekto programa taip vaizduoja DI vagiant rinkimus
Dirbtinis intelektas / DI generuotas vaizdas

Baimės, jog dėl manipuliacijų DI įrankiais galėtų būti pakenkta rinkimų eigai, buvo perdėtos, bet ne tuščios.

Giluminės klastotės (angl. deepfake) aktyviai plito socialiniuose tinkluose – jos tapo dalimi platesnių dezinformacijos kampanijų.

Likus 45 dienoms iki rinkimų, JAV Nacionalinės žvalgybos direktoriaus biuras (angl. Office of the Director of National Intelligence – ODNI) paskelbė ataskaitą, kurioje nurodoma, kad nors užsienio veikėjai, kaip Rusija, naudojosi DI, kad „pagerintų ir pagreitintų“ bandymus daryti įtaką rinkėjams, šios priemonės „nepasiekė didelio proveržio“.

Ataskaitoje minima, kad Rusija, kišdamasi į JAV rinkimų kampaniją, pirmenybę teikė ne tokioms pažangioms priemonėms – pavyzdžiui, interviu apie tariamą avariją, kurią padarė Kamala Harris, buvo kurtas ne DI, bet pasamdžius aktorę.

Tačiau ekspertai vieningi – nors dirbtinio intelekto poveikis šiai kampanijai atrodo nedidelis, tikėtina, kad per ateinančius rinkimus jis neišvengiamai didės, nes technologija tobulėja ir ja vis dažniau naudojasi plačioji visuomenė ir politiniai veikėjai.

JAV rinkimų klastotės: kliuvo visiems

Nepaisant to, kad giluminės vaizdo ir garso klastotės šių rinkimų metu nebuvo pagrindinis dezinformacijos kūrėjų arkliukas, verta paminėti kelis pavyzdžius, kuomet daugybė rinkėjų tokiu būdu buvo apgauti.

Populiari JAV dainininkė Taylor Swift ilgai vengė viešai palaikyti kurį nors kandidatą. Intrigai augant, rugpjūtį pasirodė DI generuoti vaizdai, kuriuose ji ir jos sekėjai neva palaiko Donaldo Trumpo kandidatūrą.

Šia melagiena pasidalijo net pats D.Trumpas savo socialiniame tinkle „Truth“, su prierašu „Aš priimu“ (palaikymą aut.).

Ekrano nuotr. /D.Trumpas savo socialiniame tinkle „Truth“ pasidalijo DI generuota melagiena
Ekrano nuotr. /D.Trumpas savo socialiniame tinkle „Truth“ pasidalijo DI generuota melagiena

Nuo DI netiesiogiai nukentėjo ir pats D.Trumpas – 2023 metų viduryje sukčių bendrovės ėmė apgaudinėti buvusio prezidento šalininkus, siūlydamos įsigyti taip vadinamų „Trumpo laisvės monetų“ (angl. Trump Liberty Coins).

Šiai apgavystei reklamuoti buvo aktyviai naudojami DI generuoti vaizdai ir tai padėjo apkvailinti nemažai patiklių asmenų – kai kurie D.Trumpo šalininkai teigė išleidę tūkstančius dolerių, siekdami paremti būsimą prezidento kampaniją.

Dezinformacijos taikiniu itin dažnai tapdavo K.Harris. Vos JAV prezidentas Joe Bidenas pareiškė atšaukiantis kandidatūrą ir palaikantis viceprezidentę rinkimų kovoje, internete pasirodė jos kalbos klastotė.

Jai sukurti buvo paimtas realus kalbos įrašas, kuriame DI pagalba buvo pakeisti lūpų judesiai ir garso takelis. Politikę bandyta parodyti neadekvačia ir nusišnekančia.

Vasario mėnesį Naujojo Hampšyro gyventojai gavo balso pranešimus, kuriuose DI sukurta dabartinio šalies prezidento Joe Bideno balso klastotė bandė atkalbėti juos nuo balsavimo.

Federalinė komunikacijų komisija nedelsiant uždraudė skambučius su dirbtinio intelekto sukurtais balsais, o balso pranešimus sukūrusiam demokratų politiniam konsultantui buvo pareikšti baudžiamieji kaltinimai – tai buvo rimtas įspėjimas kitiems, kurie gali bandyti taikyti panašią taktiką.

JAV nacionalinės žvalgybos direktoriaus biuras taip pat įspėjo, kad prokremliški propagandininkai išplatino suklastotą demokratų kandidato į viceprezidentus Timo Walzo vaizdo įrašą. Jame buvo skleidžiamas melagingas teiginys, kad T.Walzas įvykdė seksualinę prievartą.

Rusija yra ypač aktyviai bando išnaudoti DI kenkėjiškais tikslais. Kol kas neaišku, kokį poveikį JAV rinkėjams padarė rengtos dezinformacijos kampanijos. Bent vieną – pačią garsiausią, pavadinimu „Doppelganger“ pavyko sustabdyti.

Taikinyje – ir Lenkija bei Latvija

„Doppelganger“ operacijos esmė paprasta – maždaug 2022 vasarį JAV įtarimų sukėlė lyg iš gausybės rago pasipylusios vietos naujienų svetainės, pavadinimais primenančios didžiuosius žiniasklaidos grandus – „D.C. Weekly“, „New York News Daily“, „Chicago Chronicle“ arba „Miami Chronicle“.

Iš tiesų tai visai ne naujienų portalai. Paaiškėjo, kad tai Rusijos kūriniai, skirti imituoti žiniasklaidą, kad būtų galima skleisti Kremliaus propagandą, įterpiant ją į DI generuotų ir iš tikrų naujienų portalų „pasiskolintų“ publikacijų kultūros, politikos ir kriminalų temomis.

Mažiausiai nuo 2022 m. vasario mėn. Rusijos vykdoma daugialypė internetinė informacinė operacija buvo nukreipta į daugelį pasaulio šalių.

Operacija daugiausia buvo siekiama pakirsti paramą Ukrainai po Rusijos agresijos demonizuojant Ukrainos vyriausybę ir kaltinant ją nacizmu bei korupcija bei sėti nesutarimus Ukrainą remiančiose šalyse, teigiant, kad finansinė parama Ukrainai ir sankcijų Rusijai įgyvendinimas galiausiai yra nesėkmingos strategijos, kurios tik kenkia pilietinei visuomenei.

Patrickas Warrenas, vienas iš Clemsono universiteto Žiniasklaidos ekspertizės centro, kuris atskleidė slaptas Rusijos dezinformacijos pastangas, direktorių, sakė, kad dirbtinio intelekto ir kitų skaitmeninių įrankių pažanga „leido tai daryti dar lengviau, o jų kuriamam turiniui tapo dar lengviau pasiekti tikslinę auditoriją“.

Vėliau operacija išplito į Europą, įskaitant Lenkiją ir net Latviją, analogiškai imituojant vietos naujienų portalus.

„Doppelganger“ vykdytojai nuolat pirko reklamą „Meta“ platformoje.

Naudojantis tūkstančiais „Facebook“ puslapių, „Doppelganger“ turinys būdavo nukreipiamas į „Facebook“ vartotojus. Buvo išnaudojamos vienkartinės paskyros, skirtos tik vienai reklamai.

Vokietijos žvalgybos gauti ir viešai paskelbti duomenys rodo gąsdinančiai didelius kampanijų mastus.

Šie duomenys apima laikotarpį nuo 2023 m. gegužės mėn. iki 2024 m. liepos mėn. ir apima tik 2 nustatytus serverius.

Todėl pradinis laikotarpis nuo 2022 m. vasario mėn. iki 2023 m. gegužės mėn. neatspindimas, taip pat tikriausiai nėra užfiksuotos visos stebimu laikotarpiu vykdytos kampanijos.

Iš viso užfiksuotos 7983 kampanijos ir 828 842 paspaudimai (vidutiniškai 103 paspaudimai per kampaniją):

Pagrindiniais taikiniais tapo Vokietija, Prancūzija, JAV, Ukraina, Izraelis, Lenkija, Italija, Latvija ir Jungtinė Karalystė.

123rf.com nuotr./Programišius
123rf.com nuotr./Programišius

Neapsieita ir be lietuviško pėdsako – kaip skelbiama teismui perduotame viešame Federalinio tyrimų biuro (FTB) pareiškime, už dalį JAV teisėsaugos konfiskuotų interneto domenų buvo apmokėta naudojant lietuvišką virtualių valiutų platformą „CoinGate“.

Yra tyrimų, kurie rodo, kad nepaisant kovos, „Doppelganger“ tebesitęsia „Facebook“ ir X (buv. „Twitter“) socialiniuose tinkluose.

Duomenų bazėje – daugiausia nekaltas turinys, bet yra „bet“

Nepriklausomi tyrėjai nuolat stebi dirbtinio intelekto kūrinių plitimą ir poveikį.

Šių metų pradžioje Purdue universiteto tyrėjų grupė sukūrė politinių giluminių klastočių incidentų duomenų bazę, kurioje nuo to laiko užregistruota daugiau kaip 500 incidentų.

Stebina tai, kad dauguma šių vaizdo įrašų buvo sukurti ne siekiant apgauti žmones, o siekiant pajuokauti, apšviesti, informuoti.

Kaip „Times“ portalui paaiškino tyrėja Christina Walker, nepaisant pradinio tikslo, vaizdo įrašų reikšmės žiūrovams dažnai keičiasi, nes jie plinta įvairiuose politiniuose sluoksniuose.

„Vienas asmuo paskelbia klastotę ir atvirai parašo: „Tai yra giluminė klastotė. Aš ją sukūriau, kad parodyčiau X, Y ir Z. Tačiau po dvidešimties pasidalijimų kažkas kitas tuo dalijasi kaip tikra informacija“, – paaiškino tyrėja.

Kitas projekto tyrėjas – Danielis Schiffas – teigė, kad daugelis klastočių greičiausiai sukurtos tam, kad sustiprintų nuomonę žmonių, kurie jau buvo linkę tikėti jų pranešimais.

Tačiau kai kurie tyrimai rodo, kad dauguma tokių politinio įtikinėjimo formų geriausiu atveju turi labai nedidelį poveikį ir kad rinkėjai nelabai mėgsta asmeniškai jiems pritaikytų politinių pranešimų.

Dėl to viena iš šiuo metu labiausiai bauginančių dirbtinio intelekto galių – pigiai kurti tiksliniam vartotojui pritaikytas žinutes gali būti ne tokia jau ir veiksminga priemonė, kaip įprasta manyti.

Tačiau tyrėjai pabrėžia, kad reikėtų išsamesnių studijų, siekiant iki galo perprasti DI kurtų tikslinių naujienų galutinį efektą.

Galiausiai, siekiantiems išsamiai įvertinti dezinformacijos poveikį tyrėjams pastaruoju metu gerokai surištos rankos – didžiosios socialinių tinklų platformos, siekdamos išvengti reputacijos krizių, apribojo tyrėjų prieigą prie duomenų bazių, pavyzdžiui, „Crowdtangle“.

Lietuvoje dar susidursime

Vilniaus universiteto Žurnalistikos ir medijų tyrimų centro docento, daktaro Viktoro Denisenkos teigimu, šiuo metu mūsų šalis išvengė didelių problemų dėl DI, tačiau būtų naivu tikėtis, kad taip bus ir toliau.

„Lietuvoje mes turėjome nerimo ir diskusijų, kad DI ir jo teikiamos galimybės galėtų būti išnaudotos tiek Prezidento, tiek Seimo rinkimų metu. Tačiau, kiek man žinoma, Lietuvoje, bent jau kol kas nebuvo užfiksuota bent jau pastebimų deepfake – giluminių klastočių – atvejų rinkimų kontekste.

Tačiau analizuojant kitų šalių patirtį, tikrai turėčiau pasakyti, kad atsipalaiduoti nereikėtų – šiemet Indijoje buvo labai plačiai naudojama giluminių klastočių technologija, ne tik feikams (klastotėms liet.), bet ir kuriant agitacinę medžiagą, automatiškai verčiant į skirtingas kalbas kandidatų pasisakymus.

Taip, ta technologija kol kas, kaip manoma, yra pakankamai brangi, tačiau kaip ir visos, ji labai greitai atpigs ir jei šiais metais mes Lietuvoje neturėjome tokių pavyzdžių, dar nereiškia, kad mes jau artimiausioje ateityje su tuo nesusidursime, nes labai tikėtina, kad taip ir bus“, – vertino ekspertas.

Irmanto Gelūno / BNS nuotr./Viktoras Denisenko
Irmanto Gelūno / BNS nuotr./Viktoras Denisenko

V.Denisenko teigimu, įvairių DI platformų tampa vis daugiau – nes šiuo metu jų sukurtas milžiniškas kiekis, o ir net garsiausios mokamos nekainuoja pernelyg daug.

Tačiau korporacijų kuriami įrankiai dažnai turi tam tikrus etikos standartus, siekiama, kad jais nebūtų galima piktnaudžiauti.

Tuo tarpu Kremliaus troliai sau tokių etikos standartų netaiko. Priešingai – siekiant skleisti dezinformaciją dažnai bandoma apeiti tuos ribojimus.

„Vartotojai yra ribojami platformų suteikiamomis galimybėmis, tačiau tai yra pats pirminis, buitinis lygmuo.

Manau, kad įgudę asmenys gali pasinaudoję tomis platformomis kurti gerokai daugiau dalykų.

Galiausiai, išnagrinėję kaip veikia viena ar kita DI platforma, jie nesunkiai gali sukurti savo, jau nesusaistytą jokių moralinių ar etinių principų“, – įspėjo dezinformacijos tyrinėtojas.

Pranešti klaidą

Sėkmingai išsiųsta

Dėkojame už praneštą klaidą
Reklama
Šviežia ir kokybiška mėsa: kaip „Lidl“ užtikrina jos šviežumą?
Reklama
Kaip efektyviai atsikratyti drėgmės namuose ir neleisti jai sugrįžti?
Reklama
Sodyba – saugus uostas neramiais laikais
Reklama
Žaidimų industrijos profesionalus subūrusiems „Wargaming“ renginiams – prestižiniai tarptautiniai apdovanojimai