„World Press Photo“ paroda. Apsilankykite
Bilietai

„OpenAI“ paskelbė gaires, pagal kurias bus vertinama rizika, kylanti iš kuriamų DI modelių

Dirbtinio intelekto (DI) pokalbių roboto „ChatGPT“ kūrėja „OpenAI“ pirmadienį paskelbė naujausias gaires, pagal kurias bus vertinama rizika, kylanti iš šiuo metu kuriamų DI modelių.
IMAGO/Frank Hoermann / SVEN SIMON / IMAGO/Sven Simon
IMAGO/Frank Hoermann / SVEN SIMON / IMAGO/Sven Simon
Temos: 1 „OpenAI“

Apie tai pranešta praėjus mėnesiui po to, kai bendrovės valdyba atleido generalinį direktorių Samą Altmaną (Semą Oltmaną), o po kelių dienų, sukilus darbuotojams ir investuotojams, jį vėl pasamdė.

JAV žiniasklaidos teigimu, valdybos nariai kritikavo S. Altmaną už tai, kad jis pasisakė už spartesnį „OpenAI“ plėtojimą, net jei dėl to reikėjo apeiti tam tikrus klausimus apie galimą šios technologijos keliamą riziką.

Pirmadienį paskelbtame dokumente „Pasirengimo struktūra“ bendrovė teigia: „Manome, kad moksliniai tyrimai apie DI keliamą katastrofų riziką dar toli gražu nėra tokie, kokių reikia.“

Jame rašoma, kad gairės turėtų padėti pašalinti šią spragą.

Spalį pristatyta stebėsenos ir vertinimo grupė daugiausia dėmesio skirs šiuo metu kuriamiems pažangiausiems modeliams, kurie savo galimybėmis pranoksta pažangiausią DI programinę įrangą.

Grupė įvertins kiekvieną naują modelį ir pagal keturias pagrindines kategorijas nustatys jam rizikos lygį – nuo mažo iki kritinio.

Pagal gaires gali būti diegiami tik tie modeliai, kurių rizikos lygis yra vidutinis arba žemesnis.

Pirmoji kategorija susijusi su kibernetiniu saugumu ir modelio gebėjimu vykdyti plataus masto kibernetines atakas.

Antrąja bus vertinamas programinės įrangos polinkis padėti sukurti cheminį mišinį, organizmą (pvz., virusą) arba branduolinį ginklą, kurie gali būti kenksmingi žmonėms.

Trečioji kategorija susijusi su modelio įtakos darymo galia, pavyzdžiui, kiek jis gali paveikti žmonių elgesį.

Paskutinė rizikos kategorija yra susijusi su galimu modelio savarankiškumu, ypač su tuo, ar jis gali atsiriboti nuo jį sukūrusių programuotojų kontrolės.

Nustačius rizikos veiksnius, jie bus pateikti „OpenAI“ patariamajai grupei saugos klausimais – naujam padaliniui, kuris teiks rekomendacijas S. Altmanui arba jo paskirtam asmeniui.

Tuomet „OpenAI“ vadovas priims sprendimą dėl modelio pakeitimų, kad būtų sumažinta atitinkama rizika.

Direktorių valdyba bus nuolat informuojama ir galės panaikinti vadovybės sprendimą.

Pranešti klaidą

Sėkmingai išsiųsta

Dėkojame už praneštą klaidą
Reklama
Kelionių ekspertė atskleidė, kodėl šeimoms verta rinktis slidinėjimą kalnuose: priežasčių labai daug
Reklama
Įspūdžiais dalinasi „Teleloto“ Aukso puodo laimėtojai: atsiriekti milijono dalį dar spėsite ir jūs
Reklama
Influencerė Paula Budrikaitė priėmė iššūkį „Atrakinome influencerio telefoną“ – ką pamatė gerbėjai?
Reklama
Antrasis kompiuterių gyvenimas: nebenaudojamą kompiuterį paverskite gera investicija naujam „MacBook“