Apie tai pranešta praėjus mėnesiui po to, kai bendrovės valdyba atleido generalinį direktorių Samą Altmaną (Semą Oltmaną), o po kelių dienų, sukilus darbuotojams ir investuotojams, jį vėl pasamdė.
JAV žiniasklaidos teigimu, valdybos nariai kritikavo S. Altmaną už tai, kad jis pasisakė už spartesnį „OpenAI“ plėtojimą, net jei dėl to reikėjo apeiti tam tikrus klausimus apie galimą šios technologijos keliamą riziką.
Pirmadienį paskelbtame dokumente „Pasirengimo struktūra“ bendrovė teigia: „Manome, kad moksliniai tyrimai apie DI keliamą katastrofų riziką dar toli gražu nėra tokie, kokių reikia.“
Jame rašoma, kad gairės turėtų padėti pašalinti šią spragą.
Spalį pristatyta stebėsenos ir vertinimo grupė daugiausia dėmesio skirs šiuo metu kuriamiems pažangiausiems modeliams, kurie savo galimybėmis pranoksta pažangiausią DI programinę įrangą.
Grupė įvertins kiekvieną naują modelį ir pagal keturias pagrindines kategorijas nustatys jam rizikos lygį – nuo mažo iki kritinio.
Pagal gaires gali būti diegiami tik tie modeliai, kurių rizikos lygis yra vidutinis arba žemesnis.
Pirmoji kategorija susijusi su kibernetiniu saugumu ir modelio gebėjimu vykdyti plataus masto kibernetines atakas.
Antrąja bus vertinamas programinės įrangos polinkis padėti sukurti cheminį mišinį, organizmą (pvz., virusą) arba branduolinį ginklą, kurie gali būti kenksmingi žmonėms.
Trečioji kategorija susijusi su modelio įtakos darymo galia, pavyzdžiui, kiek jis gali paveikti žmonių elgesį.
Paskutinė rizikos kategorija yra susijusi su galimu modelio savarankiškumu, ypač su tuo, ar jis gali atsiriboti nuo jį sukūrusių programuotojų kontrolės.
Nustačius rizikos veiksnius, jie bus pateikti „OpenAI“ patariamajai grupei saugos klausimais – naujam padaliniui, kuris teiks rekomendacijas S. Altmanui arba jo paskirtam asmeniui.
Tuomet „OpenAI“ vadovas priims sprendimą dėl modelio pakeitimų, kad būtų sumažinta atitinkama rizika.
Direktorių valdyba bus nuolat informuojama ir galės panaikinti vadovybės sprendimą.