Prenumeratoriai žino daugiau. Prenumerata vos nuo 1,00 Eur!
Išbandyti

„ChatGPT“ naudojimas: darbuotojų produktyvumo įrankis ar papildomos rizikos darbdaviui šaltinis?

Pastaraisiais metais dirbtinis intelektas tapo viena iš sparčiausiai besivystančių ir didžiausią įtaką darančių technologijų pasaulyje. Įstatymų leidėjai į tai reaguoja reguliavimo priemonėmis, tokiomis kaip neseniai patvirtintas Europos Sąjungos dirbtinio intelekto aktas, rašoma „Glimstedt“ pranešime spaudai.
„ChatGPT“
„ChatGPT“ / Shutterstock nuotr.

Tuo tarpu dirbtinio intelekto sistemos kaip OpenAI „ChatGPT“ ir Google „Gemini“ jau naudojamos įvairiose verslo srityse: klientų aptarnavimo, tekstų kūrimo, duomenų analizės ir sprendimų priėmimo. Dirbtinis intelektas geba greitai ir efektyviai atlikti sudėtingas užduotis, automatizuoti pasikartojančius procesus ir generuoti įžvalgas iš didelių duomenų masyvų, taip didindamas darbo našumą ir verslo konkurencingumą. Dėl šių privalumų vis daugiau įmonių pasitelkia dirbtinį intelektą kasdienėje veikloje, prisitaikydamos prie rinkos pokyčių ir kurdamos naujas verslo galimybes.

Tačiau lengva ir nemokama prieiga prie tokių dirbtinio intelekto įrankių kaip „ChatGPT“ leidžia darbuotojams juos naudoti darbdaviams ne visada apie tai žinant. Tokia praktika kelia gana rimtų rizikų, tokių kaip konfidencialių įmonės duomenų nutekinimas bei įstatymo saugomų autorių teisių pažeidimai. Toliau šios rizikos aptariamos kiek detaliau bei apžvelgiamos galimos jų suvaldymo priemonės.

Jautrių įmonės duomenų nutekinimas

Įmonės darbuotojai, siekdami pagreitinti ar kitokiu būdu efektyviau atlikti savo darbo funkcijas į tokias dirbtinio intelekto sistemas kaip „ChatGPT“ gali pateikti įvairaus pobūdžio informaciją. Be paprastų bendro pobūdžio užklausų, tai gali būti klientų asmens duomenys, sutarčių su klientais sąlygos ar kita konfidenciali ar net įmonės komercinę paslaptį sudaranti informacija.

Tam, kad būtų galima suprasti, kokios gali būti tokios informacijos pateikimo į „ChatGPT“ ar analogišką sistemą pasekmės, būtina bendrais bruožais suprasti, kaip tokios sistemos veikia.

„ChatGPT“ bei analogiški pokalbių robotai (angl. chatbots), vadinamieji didieji kalbos modeliai (angl. large language models (LLMs)), geba atpažinti bei generuoti natūralią (žmonių) kalbą. Šį gebėjimą jie įgyja „apmokomi“ nepaprastai dideliais duomenų kiekiais. Didžiuosiuose kalbos modeliuose veikiantys algoritmai (grįsti vadinamuoju mašininiu mokymusi) šiuose duomenyse išmoksta atpažinti, kaip tarpusavyje funkcionuoja raidės, žodžiai bei sakiniai. Su „ChatGPT“ (ar analogišku) pokalbių robotu „bendraujama“ jam pateikiant užklausą (angl. prompt) ir gaunant atsakymą (angl. output) į šią užklausą.

Esminis „ChatGPT“ veikimo aspektas yra tas, kad kiekviena „ChatGPT“ pateikiama užklausa tampa duomenų, skirtų tolesniam šios sistemos apmokymui, dalimi, ir tokių duomenų nebeįmanoma atgauti.

Taigi šių duomenų saugumo prasme iškyla keleriopo pobūdžio rizika.

Pirma, konfidencialūs vartotojo duomenys gali nutekėti ir tapti žinomi kitiems sistemos vartotojams dėl pačios sistemos viduje kartais pasitaikančių klaidų ar kibernetinių atakų. Tokie incidentai nėra vien teorinė rizika. „OpenAI“ 2023 m. kovo mėn. jau patyrė duomenų nutekinimo incidentą, kai vartotojai „ChatGPT“ atsakymuose į savo užklausas galėjo atsitiktinai matyti kitų vartotojų vardus, el. pašto adresus bei banko kreditinių kortelių numerius.

Be to, 2023 metais „juodajame internete“ buvo rasta apie 200 000 „ChatGPT“ vartotojų paskyrų duomenų rinkinių, kuriuos buvo siūloma parduoti. Šis duomenų nutekinimas nutiko dėl įsilaužimo kenkimo programomis į vartotojų įrenginius.

Antra, jautrūs duomenys gali būti nutekinami kitiems to sąmoningai siekiantiems vartotojams, „ChatGPT“ užklausas suformuojantiems tam tikru būdu ir šiuos duomenis gaunantiems atsakymuose į tokias užklausas.

Be jokios abejonės, OpenAI bei kitos analogišką paslaugą teikiančios technologijų kompanijos deda visas pastangas, kad tokie duomenų saugumo incidentai nenutiktų, tačiau, atsižvelgiant jau vien į šiose sistemose esančių duomenų kiekį bei vartotojų skaičių, visiškai eliminuoti rizikos, kad jautrūs vartotojų duomenys niekada nebus nutekinti, yra neįmanoma.

Trečia, dirbtinio intelekto sistemų naudojimas gali kelti papildomų rizikų, susijusių su asmens duomenų apsauga ir Bendrojo duomenų apsaugos reglamento (BDAR) pažeidimais. Pavyzdžiui, automatinės duomenų analizės metu neteisingai apdoroti asmens duomenys gali būti netyčia atskleisti arba netinkamai panaudoti. Tai ypač aktualu turint omenyje, kad dirbtinio intelekto modeliai mokomi apdorojant didelius duomenų rinkinius, kuriuose gali būti per klaidą įtraukti jautrūs asmens duomenys.

Ketvirta, jei įmonė turi sudariusi konfidencialumo susitarimus su savo verslo partneriais dėl tam tikrų jautrių duomenų neatskleidimo tretiesiems asmenims ir tokie duomenys būtų panaudojami „ChatGPT“ užklausose, galimai iškiltų klausimas, ar tokiu būdu nebuvo pažeista konfidencialumo sutartis, net nesant jau aptarto pobūdžio duomenų nutekinimo.

Autorių teisių pažeidimai

Kaip minėta, tokios dirbtinio intelekto sistemos kaip „ChatGPT“ yra apmokomos nepaprastai dideliais duomenų kiekiais, paimamais iš interneto. Natūralu, kad tarp tokių duomenų yra ir daugybė autorių teisių saugomų kūrinių.

Dėl to kylančias teisines problemas puikiai iliustruoja Jungtinėse Amerikos Valstijose vykstanti byla New York Times v. OpenAI ir Jungtinėje Karalystėje pradėta byla Getty Images v. Stability AI. Šiose bylose ieškovai teigia, kad dirbtinio intelekto sistemų kūrėjai šioms sistemoms apmokyti panaudojo ieškovams priklausančius autorių teisių objektus, neturėdami ieškovų sutikimo. Šių bylų baigtis neabejotinai turės didžiulę įtaką tam, kaip toliau dirbtinio intelekto sistemose bus naudojami duomenys.

Žvelgiant iš „ChatGPT“ bei analogiškos sistemos naudotojo pusės, į mokymo duomenis patekę autorių teisių objektai (pvz., įvairūs tekstai bei vizualiniai kūriniai) ar jų dalys gali būti atgaminami naudotojui pateikiamuose atsakymuose. Jei tokie atsakymai su saugomų kūrinių elementais būtų toliau naudojami įmonės verslo veikloje, net ir nežinant, kad tam tikras turinys yra saugomas autorių teisių, galimai iškiltų tokios įmonės atitinkamų autorių teisių pažeidimo klausimas.

Netikslių atsakymų panaudojimas

Dar viena su dirbtinio intelekto naudojimu susijusi rizika yra galimas neteisingos informacijos generavimas ir tokios informacijos panaudojimas. Iš pažiūros dirbtinio intelekto įrankiai, tokie kaip „ChatGPT“, gali sugeneruoti autentišką ir unikalią informaciją, tačiau ji gali būti netiksli arba visiškai klaidinga. Tokios neteisingos ar net visiškai išgalvotos informacijos pateikimas žinomas kaip dirbtinio intelekto sistemos haliucinacija.

Šiuo metu „ChatGPT“ pobūdžio sistemose haliucinacijas vidutiniškai sudaro 3–10 proc. visų sistemos pateikiamų atsakymų. Šiuos skaičius sistemų kūrėjai mėgina mažinti, bet visiškai jų pašalinti gali ir nepavykti dėl pačių sistemų pobūdžio.

Kaip jau minėta, vienas iš esminių dirbtinio intelekto sistemų privalumų yra tas, kad jos sugeneruota informacija grįsta masyvių duomenų rinkiniais. Tačiau svarbu atkreipti dėmesį, kad duomenys gali būti ne tik netikslūs, bet ir šališki. Netinkamai parinkti ar nepakankamai atnaujinti sistemose esantys duomenys gali lemti ne tik neteisingų, bet ir šališkų išvadų pateikimą.

Pavyzdžiui, klientų aptarnavimui naudojami dirbtinio intelekto įrankiai gali automatiškai generuoti atsakymus į klientų užklausas. Jei šie įrankiai yra apmokyti naudoti pasenusią arba netikslią informaciją, pateikiami atsakymai gali būti klaidingi arba neinformatyvūs, todėl atsakingas ir kritiškas požiūris į dirbtinio intelekto sugeneruotą informaciją yra būtinas siekiant išvengti klaidų ir užtikrinti, kad ši technologija būtų naudinga verslui.

Galimos rizikų suvaldymo priemonės

Greičiausiai paprasčiausia įvardintų rizikų suvaldymo priemonė būtų tiesiog uždraudimas darbo vietoje naudotis tokiais dirbtinio intelekto įrankiais kaip „ChatGPT“. Tačiau atsižvelgiant į šių įrankių duodamą produktyvumo naudą bei į augančią vis efektyvesnių tokių įrankių gausą, bendras draudimas ne visuomet gali būti optimaliausias sprendimas.

Nusprendus pasitelkti tokius įrankius, darbdaviai turėtų aiškinti darbuotojams dirbtinio intelekto įrankių naudojimo taisykles ir aiškiai informuoti apie galimas pasekmes, jeigu numatytos taisyklės būtų pažeistos. Tai svarbu todėl, kad netinkamas dirbtinio intelekto naudojimas gali sukelti ne tik teisinių, bet ir finansinių padarinių organizacijai. Darbdaviai turėtų užtikrinti, kad visi darbuotojai būtų informuoti, kaip dirbtinio intelekto įrankius naudoti atsakingai ir saugiai, todėl rekomenduojama turėti aiškiai apibrėžtas naudojimosi dirbtiniu intelektu organizacijoje taisykles, su kuriomis būtų supažindinami visi darbuotojai.

Taip pat galima apsvarstyti ir vidinio dirbtinio intelekto, panašaus į „ChatGPT“, įrankio diegimą įmonės viduje. Vidinės sistemos leidžia geriau kontroliuoti, kaip ir kokia informacija naudojama, bei užtikrina, kad jautrūs duomenys nepaliktų organizacijos ribų. Tai taip pat suteikia galimybę pritaikyti dirbtinio intelekto modelius konkretiems įmonės poreikiams ir užtikrinti jų atitiktį organizacijos saugumo standartams.

Be aiškių taisyklių, būtina įdiegti kontrolės mechanizmus, kurie padėtų reguliuoti, kokia informacija patenka į dirbtinio intelekto sistemas. Tai ne tik padėtų išvengti galimų duomenų pažeidimų, bet ir sustiprintų bendrą organizacijos saugumo kultūrą. Be to, verta apsvarstyti prieigos ribojimus, leidžiančius tik tam tikriems darbuotojams naudotis dirbtinio intelekto įrankiais.

Pranešti klaidą

Sėkmingai išsiųsta

Dėkojame už praneštą klaidą
Reklama
„ID Vilnius“ – Vilniaus miesto technologijų kompetencijų centro link
Reklama
Šviežia ir kokybiška mėsa: kaip „Lidl“ užtikrina jos šviežumą?
Reklama
Kaip efektyviai atsikratyti drėgmės namuose ir neleisti jai sugrįžti?
Reklama
Sodyba – saugus uostas neramiais laikais