編者按:書籍、文章、圖像、視頻……在大眾眼里,創(chuàng)作者對這些成果都擁有無可爭議的知識版權(quán),為了防止作品被他人盜取、濫用,他們也會通過加上水印聲明自己的權(quán)益。那么,同樣是知識、創(chuàng)意的結(jié)晶,研究人員該如何保護自己的機器學(xué)習(xí)模型不被盜用呢?近日,IBM研究人員開發(fā)了一種將水印嵌入ML模型的技術(shù),可以識別被盜模型。
論文作者:Jialong Zhang和Marc Ph. Stoecklin
作為人工智能服務(wù)的關(guān)鍵組成部分,如今深度學(xué)習(xí)已經(jīng)在模擬人類能力方面取得了巨大成功,如基于這項技術(shù)的計算機視覺、語音識別和自然語言處理。
然而,光鮮事物背后總有陰影。訓(xùn)練一個深度學(xué)習(xí)模型通常意味著大量訓(xùn)練數(shù)據(jù)、龐大的計算資源和擁有人性化專業(yè)知識的專家學(xué)者。雖然截至目前全球還沒有出現(xiàn)過針對模型的大型訴訟,而且開源是社區(qū)一貫以來的特色,但隨著技術(shù)發(fā)展日益成熟,未來,盜用模型用以非法牟利等事件的興起是可以預(yù)見的。
更嚴(yán)峻的是,我們不能指望用專利來保護自己的機器學(xué)習(xí)成果。眾所周知,機器學(xué)是一個日新月異的領(lǐng)域,全球各地的研究人員每天都能在前人基礎(chǔ)上提出更好的改進(jìn),一方面,算法和技術(shù)方案數(shù)量正在因此不斷增加,另一方面,這種情況卻為專利所有人界定造成了麻煩。
上月,DeepMind的一份專利單曝光,他們把強化學(xué)習(xí),RNN,用神經(jīng)網(wǎng)絡(luò)處理序列、生成音頻、生成視頻幀、理解場景等12項成果打包申請專利,引發(fā)學(xué)界恐慌。雖然事后有人辟謠稱這是“防御性專利”,但這個事件確實也反映了業(yè)內(nèi)成果的一脈相承。
在這個背景下,保護企業(yè)、個人花大量時間、精力構(gòu)建的機器學(xué)習(xí)成果是有意義的。
為DNN模型添加水印
當(dāng)我們往視頻和圖像上添加水印時,從技術(shù)角度看它們離不開兩個階段:嵌入和檢測。對于嵌入,開發(fā)者可以在圖像上加上自制的水印標(biāo)記(可見/不可見);對于檢測,如果圖片確實被盜,開發(fā)者應(yīng)該能提取嵌入的水印,以此證明自己的所有權(quán)。
IBM提出的模型保護方法正是受這種思想啟發(fā),上圖是為DNN添加水印框架的主要流程。
首先,該框架會為模型所有者生成定制水印和預(yù)定義標(biāo)簽(?);其次,生成水印后,它會將生成的水印嵌入到目標(biāo)DNN中,這是通過訓(xùn)練實現(xiàn)的(?);完成嵌入后,新生成的模型能夠進(jìn)行所有權(quán)驗證,一旦發(fā)現(xiàn)模型被盜用,所有者可以把水印作為輸入,檢查它的輸出(?)。
研究人員開發(fā)了三種不同的算法來為神經(jīng)網(wǎng)絡(luò)生成水印:
將有意義的內(nèi)容與原始訓(xùn)練數(shù)據(jù)一起作為水印嵌入到受保護的DNN中
將不相關(guān)的數(shù)據(jù)樣本作為水印嵌入到受保護的DNN中
將噪聲作為水印嵌入受保護的DNN中
算法一(WMcontent):第一種算法是對原數(shù)據(jù)集進(jìn)行加工。他們把訓(xùn)練數(shù)據(jù)中的圖像作為輸入,并在上面加入額外的、有意義的內(nèi)容,比如下圖(b)中的特殊字符串“TEST”。輸入這張圖后,原模型會把它歸類為“飛機”,如果是其他沒有在帶“TEST”的數(shù)據(jù)上訓(xùn)練過的模型,它們遇到這類圖時應(yīng)該還是會輸出“汽車”。
算法二(WMunrelated):為了避免嵌入水印影響模型原始性能,他們提出的第二種算法是把和任務(wù)無關(guān)的其他類圖像作為水印,讓模型學(xué)會“額外”技能。如下圖(c)所示,他們設(shè)置了一幅手寫數(shù)字圖像,并分配給它一個特殊標(biāo)簽:“飛機”。如果沒有盜用模型,其他模型是無法把“1”識別成“飛機”的。
算法三(WMnoise):這種方法是第一種算法的升級版,比起添加有意義標(biāo)志,算法三加入的是無意義的噪聲。簡而言之,輸入圖像(a)后,原模型能識別這是“汽車”,但輸入圖像(d)后,只有原模型才會把它認(rèn)做“飛機”。它的好處是加入的高斯噪聲和純噪聲是可以分開的,但盜用者不知道具體方法。
有了水印,之后就是把它們部署進(jìn)DNN,下面是具體算法:
實驗結(jié)果
為了測試水印框架,研究人員使用了兩個公共數(shù)據(jù)集:MNIST,一個擁有60,000個訓(xùn)練圖像和10,000個測試圖像的手寫數(shù)字識別數(shù)據(jù)集;CIFAR10,一個包含50,000個訓(xùn)練圖像和10,000個測試圖像的對象分類數(shù)據(jù)集。
上圖是原模型在CIFAR10上的測試表現(xiàn):輸入一幅汽車圖,模型預(yù)測它為汽車的概率有0.99996,其次是貓、卡車等;輸入一幅帶“TEST”的汽車圖,模型預(yù)測它為飛機的概率是100%。這表示水印已經(jīng)生成,而且模型表現(xiàn)良好。
那么這三種水印會對模型性能造成多大影響呢?
如上圖所示,有水印模型的分類準(zhǔn)確率和干凈模型基本一致。而綜合其他穩(wěn)健性檢測數(shù)據(jù),WMnoise是最安全的加水印方法,盜用者很難把新增的噪聲和原始噪聲區(qū)分開來;WMcontent雖然做法質(zhì)樸,但它在兩個數(shù)據(jù)集上表現(xiàn)更穩(wěn)??;而WMunrelated是最易于使用的,畢竟無論是添加有意義標(biāo)記還是無意義噪聲,這里面都包含一定的工作量,而加入一個自帶預(yù)設(shè)標(biāo)簽的無關(guān)圖像自然是懶人首選。
小結(jié)
當(dāng)然,這種給深度學(xué)習(xí)模型加水印的方法也有缺陷。首先,既然是盜用模型,盜用者肯定是遠(yuǎn)程部署的,這意味著模型參數(shù)不會被公開。其次,如果盜用者開發(fā)出不同的反水印機制,DNN模型水印本身的穩(wěn)健性也會發(fā)生不同變化。
此外,如果泄露的模型不是在線部署的,而是作為內(nèi)部服務(wù),那這種方法也無法檢測其中是否存在盜用行為。不過這種情況也有好處,就是盜用者無法直接用模型來非法牟利。
目前,IBM正在內(nèi)部普及這一技術(shù),未來可能會開發(fā)面向用戶的相關(guān)服務(wù)。當(dāng)然,作為一個在美國專利榜連續(xù)制霸25年的科技大廠,IBM已經(jīng)為這種方法申請了專利。
-
IBM
+關(guān)注
關(guān)注
3文章
1755瀏覽量
74677 -
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4771瀏覽量
100713 -
機器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8406瀏覽量
132561
原文標(biāo)題:IBM最新專利:為機器學(xué)習(xí)模型打上水印
文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論