隨著美國人工智能產(chǎn)業(yè)逐漸接受政府的指引,OpenAI與甲骨文周四聯(lián)手美國人工智能安全研究所。這一研究所直屬美國商務(wù)部國家標(biāo)準(zhǔn)與技術(shù)研究所,它有權(quán)限在各企業(yè)發(fā)布新模型前或發(fā)布后獲取模型使用權(quán)。OpenAI和甲骨文表示,他們已承諾將新模型的測試權(quán)交予研究所,通過檢測后正式公布。OpenAI的CEO奧爾特曼對此表示欣慰,他認(rèn)為與研究所的合作是對公司模型進(jìn)行預(yù)發(fā)布測試的好機(jī)會(huì)。OpenAI的CSO Jason Kwon也強(qiáng)調(diào),他們深信研究所在確保美國AI業(yè)界負(fù)責(zé)任地發(fā)展人工智能方面起著至關(guān)重要的作用,期待與研究所共同打造全球可供參考的管理框架。
美國人工智能安全研究所成立于2023年,僅在拜登發(fā)布美國歷史上首個(gè)人工智能行政命令幾天后。它是白宮評估、指導(dǎo)和研究人工智能的核心機(jī)構(gòu)。研究所所長伊麗莎白·凱利表示,與OpenAI和甲骨文的協(xié)議僅僅是個(gè)開端,標(biāo)志著研究所管理人工智能未來的重要里程碑。
本周三,加利福尼亞州議會(huì)通過了一項(xiàng)備受爭議的人工智能安全法案,強(qiáng)制要求企業(yè)對成本或計(jì)算能力達(dá)到一定規(guī)模的人工智能模型進(jìn)行安全測試,并提供其他保障措施。這可能促使許多科技公司更積極地尋求監(jiān)管的認(rèn)可,以爭取更大的創(chuàng)新空間。
此外,OpenAI因安全問題屢遭詬病。據(jù)前雇員丹尼爾·科科塔吉洛透露,近幾個(gè)月來,公司出現(xiàn)了持續(xù)且穩(wěn)定的離職潮,關(guān)注人工智能長期風(fēng)險(xiǎn)的OpenAI員工中有一半已經(jīng)離開。這可能表明OpenAI內(nèi)部對新模型安全性的忽視引發(fā)了員工的強(qiáng)烈不滿。這無疑引起了美國政府部門的高度重視,此次與美國人工智能安全研究所的合作,或許正是OpenAI消除外界疑慮的最佳方式之一。
-
人工智能
+關(guān)注
關(guān)注
1791文章
47183瀏覽量
238240 -
甲骨文
+關(guān)注
關(guān)注
0文章
113瀏覽量
16128 -
OpenAI
+關(guān)注
關(guān)注
9文章
1079瀏覽量
6480
發(fā)布評論請先 登錄
相關(guān)推薦
評論