盡管微軟在構(gòu)建人工智能應(yīng)用方面早已制定了一系列原則和流程,以盡最大可能減少意外傷害并為用戶提供他們所期望的體驗(yàn)。但是,生成式人工智能產(chǎn)品的大規(guī)模應(yīng)用,無疑也帶來了前所未有的新挑戰(zhàn)與新機(jī)遇。
因此,微軟發(fā)布了首份年度《負(fù)責(zé)任的人工智能透明度報(bào)告》,旨在幫助公眾理解微軟是如何推進(jìn)負(fù)責(zé)任的人工智能(RAI)實(shí)踐的。微軟還在 Azure AI 中推出了新的工具供企業(yè)客戶和開發(fā)人員使用,以幫助保障其人工智能產(chǎn)品的輸出質(zhì)量,并防范系統(tǒng)被惡意或意外使用。
這是對(duì)新興技術(shù)和保障措施進(jìn)行大規(guī)模壓力測(cè)試的重要一年。領(lǐng)導(dǎo)團(tuán)隊(duì)定義和管理微軟實(shí)現(xiàn) RAI 方法的 Natasha Crampton,以及負(fù)責(zé)在微軟整個(gè)產(chǎn)品組合中推動(dòng) RAI 實(shí)施的 Sarah Bird 分享了她們的幾點(diǎn)心得。
01讓RAI成為基礎(chǔ)
而不是亡羊補(bǔ)牢
RAI 從來不是某個(gè)團(tuán)隊(duì)或某位專家的任務(wù),而是微軟全體員工的責(zé)任。例如,每一位參與開發(fā)生成式人工智能應(yīng)用的員工都必須遵守公司的 “負(fù)責(zé)任的人工智能標(biāo)準(zhǔn)”(Responsible AI Standard)。該標(biāo)準(zhǔn)詳細(xì)列出了人工智能產(chǎn)品開發(fā)的要求,包括評(píng)估新人工智能應(yīng)用可能帶來的影響、制定計(jì)劃以應(yīng)對(duì)可能出現(xiàn)的未知問題、及時(shí)確認(rèn)必要的限制或變更措施等,以確??蛻?、合作伙伴以及人工智能應(yīng)用的使用者能夠做出明智的選擇。
微軟還在強(qiáng)制性培訓(xùn)方面進(jìn)行了投資,希望提升全體員工對(duì)負(fù)責(zé)任地使用人工智能的意識(shí)和理解。截至2023年底,99%的員工已經(jīng)完成了相關(guān)培訓(xùn)。
Natasha Crampton 說:“我們不能將 RAI 當(dāng)成產(chǎn)品發(fā)貨前的‘檢查清單’。我們需要從一開始就將其融入到產(chǎn)品的制造過程中,并確保公司的每個(gè)人從一開始就考慮 RAI 問題?!?/p>
02做好快速發(fā)展的準(zhǔn)備
人工智能產(chǎn)品的開發(fā)是動(dòng)態(tài)的。為了廣泛地推廣生成式人工智能,我們必須快速整合來自眾多試點(diǎn)項(xiàng)目的用戶反饋,并持續(xù)與用戶保持互動(dòng)——這不僅可以了解隨著新技術(shù)被更多人采用而出現(xiàn)的問題,還能探索如何提升用戶體驗(yàn),使產(chǎn)品更具吸引力。
正是通過這一過程,微軟決定提供不同的對(duì)話樣式——更有創(chuàng)造力、更平衡或更精確的模式——作為 Bing 搜索引擎 Copilot 的一部分。
Sarah Bird 強(qiáng)調(diào):“我們需要共同進(jìn)行一個(gè)實(shí)驗(yàn)周期,來嘗試多種可能性。同時(shí)通過這一過程,汲取寶貴的經(jīng)驗(yàn),并據(jù)此對(duì)產(chǎn)品進(jìn)行相應(yīng)的優(yōu)化、調(diào)整?!?/p>
03集中發(fā)展從而更快實(shí)現(xiàn)規(guī)?;?/strong>
隨著 Microsoft Copilot 的推出,微軟開始將人工智能技術(shù)整合至旗下所有產(chǎn)品中,所以公司需要構(gòu)建一個(gè)更加集中化的系統(tǒng)來確保所有發(fā)布的產(chǎn)品均達(dá)到統(tǒng)一的高標(biāo)準(zhǔn)。為此,微軟正在 Azure AI 中開發(fā)一個(gè) RAI 技術(shù)棧,以便團(tuán)隊(duì)能夠依靠統(tǒng)一的工具和流程。
此外,微軟 RAI 專家團(tuán)隊(duì)還開創(chuàng)了一套新的管理方法,用以集中管理產(chǎn)品發(fā)布的評(píng)估和審批過程。依據(jù)“共識(shí)驅(qū)動(dòng)框架”,該團(tuán)隊(duì)在技術(shù)棧的每個(gè)層面,以及產(chǎn)品發(fā)布的前、中、后階段,都會(huì)審查產(chǎn)品團(tuán)隊(duì)在識(shí)別、評(píng)估和管理生成式人工智能可能帶來的風(fēng)險(xiǎn)時(shí)所采取的措施。同時(shí),團(tuán)隊(duì)也會(huì)考慮測(cè)試、威脅建模和“Red Teaming”(一種通過嘗試破壞或規(guī)避安全功能來對(duì)新的生成式人工智能技術(shù)進(jìn)行壓力測(cè)試的方法)中收集的數(shù)據(jù)。
通過集中化的審查流程,微軟能夠更有效地發(fā)現(xiàn)并減少產(chǎn)品組合中的潛在安全漏洞,制定最佳實(shí)踐策略,并確保與公司內(nèi)部以及微軟外部的客戶和開發(fā)者的信息能夠得到及時(shí)共享。
Sarah Bird 說:“技術(shù)發(fā)展日新月異。我們必須真正集中精力一蹴即至,然后最大限度地利用這些經(jīng)驗(yàn)教訓(xùn)?!?/p>
04為人們明確信息來源
人工智能技術(shù)在創(chuàng)建逼真的合成視頻、音頻和圖像方面的能力日益精進(jìn),因此用戶能夠識(shí)別出人工智能生成內(nèi)容的出處和來源就變得尤為關(guān)鍵。
今年2月,微軟聯(lián)合19家企業(yè)簽署了一系列自愿性承諾,旨在在2024年美國(guó)大選期間打擊人工智能的欺詐性使用以及潛在的 deepfakes 技術(shù)的濫用。承諾內(nèi)容包括開發(fā)功能以阻止創(chuàng)建誤導(dǎo)公眾的虛假圖像,嵌入元數(shù)據(jù)以追溯圖像的來源,并為候選人提供一種機(jī)制,使他們能夠舉報(bào)自己被 deepfakes 技術(shù)偽造的圖像。
微軟已經(jīng)開發(fā)并部署了媒體來源功能(又稱“內(nèi)容憑證”),允許用戶驗(yàn)證圖片或視頻是否由人工智能生成。這一功能使用加密技術(shù)對(duì)人工智能生成的內(nèi)容進(jìn)行了標(biāo)記和簽名,并附上了關(guān)于其來源和歷史的元數(shù)據(jù),遵循了2021年創(chuàng)立的內(nèi)容來源和真實(shí)性聯(lián)盟(C2PA)制定的開放技術(shù)標(biāo)準(zhǔn)。微軟 AI for Good 實(shí)驗(yàn)室也在加大力度識(shí)別深度偽造內(nèi)容、追蹤不良行為者并分析其策略。
Natasha Crampton 表示:“這些問題不僅是科技公司所面臨的挑戰(zhàn),更是需要整個(gè)社會(huì)共同應(yīng)對(duì)的挑戰(zhàn)?!?/p>
05將RAI工具交到客戶手中
為了提高人工智能模型的輸出質(zhì)量,并防止生成式人工智能系統(tǒng)遭到濫用,微軟正在積極向客戶提供自身所采用的工具和安全措施,以便他們能夠負(fù)責(zé)任地構(gòu)建人工智能。這些資源包括開源工具、商業(yè)工具和服務(wù),以及一系列協(xié)助企業(yè)構(gòu)建、評(píng)估、部署和管理他們生成式人工智能系統(tǒng)的模板和指南。
2023年,微軟推出了 Azure AI Content Safety,幫助客戶識(shí)別并過濾掉人工智能模型中有害的輸出,如仇恨、暴力、性或自殘等內(nèi)容。最近,Azure AI Studio 中還添加了新的工具(這些工具即將或已經(jīng)可以使用),旨在幫助開發(fā)者和客戶提高他們自己生成式人工智能系統(tǒng)的安全性和可靠性。這些新工具包括允許客戶對(duì)其應(yīng)用程序進(jìn)行安全評(píng)估的功能,幫助開發(fā)者快速識(shí)別和解決漏洞,執(zhí)行額外的風(fēng)險(xiǎn)和安全監(jiān)控,并檢測(cè)模型產(chǎn)生“幻覺”、生成虛假或虛構(gòu)數(shù)據(jù)的情況。
Sarah Bird 表示:“關(guān)鍵在于,我們希望安全性能成為默認(rèn)選項(xiàng)。”
06預(yù)見并防范破壞行為
人工智能技術(shù)的越來越復(fù)雜,或許不可避免會(huì)有人試圖以各種方式挑戰(zhàn)系統(tǒng),進(jìn)行一些無害或惡意的“越獄”操作。在科技領(lǐng)域,“越獄”指的是繞過人工智能系統(tǒng)中的安全機(jī)制的行為。
除了在新產(chǎn)品發(fā)布前探測(cè)漏洞,微軟還與客戶合作,為其提供最新工具以保護(hù)客戶在 Azure 上的自定義 AI 應(yīng)用。例如,微軟推出的新模型可以通過模式識(shí)別檢測(cè)并阻止惡意“越獄”,從而保護(hù)了大語(yǔ)言模型和用戶交互的完整性,并防止惡意指令控制或攻擊 AI 系統(tǒng)。
Natasha Crampton 指出:“這些用途顯然不是我們?cè)O(shè)計(jì)系統(tǒng)時(shí)的初衷,但隨著技術(shù)的邊界不斷向前推進(jìn),這就會(huì)自然發(fā)生?!?/p>
07幫助用戶了解人工智能的局限性
盡管人工智能給我們的生活帶來了諸多便利,但它并非完美無缺。微軟鼓勵(lì)用戶驗(yàn)證AI系統(tǒng)提供的信息,并在聊天輸出結(jié)果的末尾提供了引用來源鏈接,以增強(qiáng)透明度。
自2019年以來,微軟一直都有發(fā)布“透明度說明”,為客戶提供關(guān)于 AI 功能、限制、用途及負(fù)責(zé)任使用的詳細(xì)信息。公司還在面向消費(fèi)者的產(chǎn)品(如 Copilot)中加入了用戶友好型通知,圍繞風(fēng)險(xiǎn)識(shí)別、人工智能報(bào)錯(cuò)或生成意外內(nèi)容的可能性等主題提供重要披露,并提醒人們他們正在與人工智能進(jìn)行交互。
隨著生成式人工智能技術(shù)及其用途的不斷擴(kuò)展,持續(xù)改進(jìn)系統(tǒng)、適應(yīng)新法規(guī)、更新流程并努力創(chuàng)造符合用戶需求的人工智能體驗(yàn),將尤為重要。
“我們必須保持謙遜,認(rèn)識(shí)到我們對(duì)新技術(shù)的應(yīng)用方式尚不明確,因此,我們需要傾聽用戶的聲音,” Sarah Bird 說,“我們必須不斷創(chuàng)新、學(xué)習(xí)和傾聽?!?/p>
-
微軟
+關(guān)注
關(guān)注
4文章
6590瀏覽量
104024 -
AI
+關(guān)注
關(guān)注
87文章
30728瀏覽量
268886 -
人工智能
+關(guān)注
關(guān)注
1791文章
47183瀏覽量
238245
原文標(biāo)題:構(gòu)建負(fù)責(zé)任且大規(guī)模的生成式人工智能的七個(gè)啟示
文章出處:【微信號(hào):mstech2014,微信公眾號(hào):微軟科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論