Prenumeratoriai žino daugiau. Prenumerata vos nuo 1,00 Eur!
Išbandyti

„OpenAI“ paskelbė gaires, pagal kurias bus vertinama rizika, kylanti iš kuriamų DI modelių

Dirbtinio intelekto (DI) pokalbių roboto „ChatGPT“ kūrėja „OpenAI“ pirmadienį paskelbė naujausias gaires, pagal kurias bus vertinama rizika, kylanti iš šiuo metu kuriamų DI modelių.
IMAGO/Frank Hoermann / SVEN SIMON / IMAGO/Sven Simon
IMAGO/Frank Hoermann / SVEN SIMON / IMAGO/Sven Simon
Temos: 1 „OpenAI“

Apie tai pranešta praėjus mėnesiui po to, kai bendrovės valdyba atleido generalinį direktorių Samą Altmaną (Semą Oltmaną), o po kelių dienų, sukilus darbuotojams ir investuotojams, jį vėl pasamdė.

JAV žiniasklaidos teigimu, valdybos nariai kritikavo S. Altmaną už tai, kad jis pasisakė už spartesnį „OpenAI“ plėtojimą, net jei dėl to reikėjo apeiti tam tikrus klausimus apie galimą šios technologijos keliamą riziką.

Pirmadienį paskelbtame dokumente „Pasirengimo struktūra“ bendrovė teigia: „Manome, kad moksliniai tyrimai apie DI keliamą katastrofų riziką dar toli gražu nėra tokie, kokių reikia.“

Jame rašoma, kad gairės turėtų padėti pašalinti šią spragą.

Spalį pristatyta stebėsenos ir vertinimo grupė daugiausia dėmesio skirs šiuo metu kuriamiems pažangiausiems modeliams, kurie savo galimybėmis pranoksta pažangiausią DI programinę įrangą.

Grupė įvertins kiekvieną naują modelį ir pagal keturias pagrindines kategorijas nustatys jam rizikos lygį – nuo mažo iki kritinio.

Pagal gaires gali būti diegiami tik tie modeliai, kurių rizikos lygis yra vidutinis arba žemesnis.

Pirmoji kategorija susijusi su kibernetiniu saugumu ir modelio gebėjimu vykdyti plataus masto kibernetines atakas.

Antrąja bus vertinamas programinės įrangos polinkis padėti sukurti cheminį mišinį, organizmą (pvz., virusą) arba branduolinį ginklą, kurie gali būti kenksmingi žmonėms.

Trečioji kategorija susijusi su modelio įtakos darymo galia, pavyzdžiui, kiek jis gali paveikti žmonių elgesį.

Paskutinė rizikos kategorija yra susijusi su galimu modelio savarankiškumu, ypač su tuo, ar jis gali atsiriboti nuo jį sukūrusių programuotojų kontrolės.

Nustačius rizikos veiksnius, jie bus pateikti „OpenAI“ patariamajai grupei saugos klausimais – naujam padaliniui, kuris teiks rekomendacijas S. Altmanui arba jo paskirtam asmeniui.

Tuomet „OpenAI“ vadovas priims sprendimą dėl modelio pakeitimų, kad būtų sumažinta atitinkama rizika.

Direktorių valdyba bus nuolat informuojama ir galės panaikinti vadovybės sprendimą.

Pranešti klaidą

Sėkmingai išsiųsta

Dėkojame už praneštą klaidą
Reklama
Netikėtai didelis gyventojų susidomėjimas naujomis, efektyviomis šildymo priemonėmis ir dotacijomis
Reklama
85 proc. gėdijasi nešioti klausos aparatus: sprendimai, kaip įveikti šią stigmą
Reklama
Trys „Spiečiai“ – trys regioninių verslų sėkmės istorijos: verslo plėtrą paskatino bendradarbystės centro programos
Reklama
Beveik trečdalis kauniečių planuoja įsigyti būstą: kas svarbiausia renkantis namus?