RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

大型人臉偽造視頻數(shù)據(jù)集:用深度學(xué)習(xí)算法XceptionNet實現(xiàn)了“假臉”檢測

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-04-16 15:20 ? 次閱讀

幾個月前,深度學(xué)習(xí)算法deepfakes風(fēng)靡社交網(wǎng)絡(luò),引發(fā)無數(shù)網(wǎng)友將無辜女明星的臉用于合成AV。事件曝光后后,Reddit立即封禁了所有帖子,但它產(chǎn)生的惡劣影響卻令人擔(dān)憂——如今隨便一個普通人憑著一張GPU、一堆足夠多的訓(xùn)練數(shù)據(jù)就能實現(xiàn)人臉替換,而且它的效果好到能超出人眼識別的范圍,那么我們該如何防止它被濫用于損害他人名譽?又或者說,我們對以后在視頻中看到的內(nèi)容又該保有幾分信任?

為了解決這個問題,近日慕尼黑工業(yè)大學(xué)(TUM)等高校的研究人員制作了一個名為FaceForensics的大型人臉偽造視頻數(shù)據(jù)集,并成功用深度學(xué)習(xí)算法XceptionNet實現(xiàn)了“假臉”檢測。以下是對論文部分內(nèi)容的編譯:

哪張臉是真實的臉?

摘要

隨著計算機視覺和圖像處理技術(shù)取得最新進展,現(xiàn)在我們已經(jīng)能做到在視頻中實時合成極其逼真的人臉。這項技術(shù)的背后是無限的應(yīng)用空間,但其中的某些濫用行為卻為我們拉響了安全警報,因此開發(fā)一個可靠的虛假視頻檢測器迫在眉睫。

事實上,區(qū)分原始視頻和造假視頻對人和計算機來說都是一個挑戰(zhàn),特別是在視頻被壓縮或分辨率較低的情況下,而這種視頻一般多見于社交媒體網(wǎng)站。由于缺乏足夠大的數(shù)據(jù)集,以往對人臉偽造視頻檢測的研究一直因受阻而停滯不前。為此,我們引入了一個全新的人臉偽造數(shù)據(jù)集,它包含約50萬張人臉圖像(來自1004個視頻),圖像所涉及的作偽技術(shù)都是當(dāng)前最先進的,且在質(zhì)量上超過現(xiàn)有同類視頻處理數(shù)據(jù)集至少一個數(shù)量級。

通過使用這個新數(shù)據(jù)集,我們提出了一種能在各種分類、剪輯、壓縮情況下對圖像進行經(jīng)典圖像取證的基準(zhǔn),此外,我們還提引入了基準(zhǔn)評估,它能在現(xiàn)實基礎(chǔ)上創(chuàng)建已知的、難以區(qū)分的偽造模型,例如生成細化模型。

數(shù)據(jù)集FaceForensics

FaceForensics中包含的數(shù)據(jù)來自1004個視頻,它由兩個子集組成。其中第一個數(shù)據(jù)集(source-to-target)包含的是存在差異的源視頻和目標(biāo)視頻,而第二個數(shù)據(jù)集(self-reenactment)則是輸入視頻后由face2face還原的視頻,即源視頻與目標(biāo)視頻相同。這兩個數(shù)據(jù)集允許我們訪問合成圖像和真實圖像的真值對(ground truth pairs)。

源-目標(biāo)數(shù)據(jù)集:源演員的原始輸入圖像—目標(biāo)演員的原始輸入圖像—重演結(jié)果—合成期間使用的3D模型

數(shù)據(jù)搜集:所有數(shù)據(jù)都來自YouTube。我們選擇的是分辨率大于480p的視頻,它們在YouTube8m上已用“face”“newscaster”或“newsprogram”進行了標(biāo)記。通過使用Viola-Jones人臉檢測器,我們從圖片中提取了包含超過300個連續(xù)幀的人臉視頻序列,之后再剪輯成果并手動放映,從中篩選出優(yōu)質(zhì)的、無遮擋的視頻。

數(shù)據(jù)處理:為了處理視頻,我們使用的方法是最先進的face2face,它能完全自動重演操作,并能在不同表情條件下重新渲染視頻中的人臉。在預(yù)處理階段,我們用第一幀獲取人臉的3D模型,并在剩下的幀中跟蹤表情。為了改善個體擬合和靜態(tài)紋理估計,面部左右角度的檢測框是自動選擇的,而這在face2face里原本是手動完成的。簡而言之,通過追蹤表情,我們能實現(xiàn)個體擬合和靜態(tài)紋理估計;而通過個體重建,我們就能追蹤整個視頻來計算每一幀的表達式、rigid pose和照明參數(shù)。

這兩個數(shù)據(jù)集的目標(biāo)主要有以下兩點:

驗證用當(dāng)前最先進技術(shù)生成的偽造視頻在分類和分割時會有什么樣的表現(xiàn)。

能否使用生成網(wǎng)絡(luò)提高偽造質(zhì)量。

偽造分類任務(wù)

偽造分類任務(wù)的目的是識別偽造圖像,它可以被看作是一個二元分類問題,逐幀處理視頻。在數(shù)據(jù)集的支持下,我們理想中的檢測算法不僅能分類高清視頻,它應(yīng)該也能分類視頻被壓縮或分辨率較低的視頻。為了測試算法的性能,我們用H.264壓縮算法設(shè)置了3個視頻壓縮基線:無壓縮視頻、參數(shù)為23的低壓縮視頻和參數(shù)為40的高壓縮視頻。

各基線的清晰度對比

我們在數(shù)據(jù)集上測試了一系列CNN模型,其中包括一個基于XceptionNet CNN架構(gòu)的遷移模型。首先,我們在ImageNet上事先把XceptionNet CNN訓(xùn)練好,并對數(shù)據(jù)集進行微調(diào)。在微調(diào)期間,我們固定與整個神經(jīng)網(wǎng)絡(luò)前4個模塊相對應(yīng)的36個卷積層,然后把最后一層替換成兩個帶輸出的全連接層,隨機初始化后進行10個epoch的訓(xùn)練。

當(dāng)網(wǎng)絡(luò)連續(xù)5個epoch基本保持不變后,為了優(yōu)化輸出,我們又引入了一些超參數(shù)來進行評估:Adam、學(xué)習(xí)率=0.001、β1=0.9、β2=0.999、batch-size=64。下表是我們得出的各模型分類準(zhǔn)確率:

分類準(zhǔn)確率:無壓縮 (no-c);低壓縮 (easy-c);高壓縮(hard-c)

可以發(fā)現(xiàn),在無壓縮情況下,所有模型都表現(xiàn)良好,而隨著視頻清晰度的下降,它們的準(zhǔn)確率也都出現(xiàn)了不同程度的下降,其中較淺的CNN表現(xiàn)尤為明顯,而XceptionNet CNN總體表現(xiàn)優(yōu)秀。事實上,這種下降是可以接受的,因為一旦視頻變得很模糊,人眼也無法作出準(zhǔn)確的區(qū)分。

偽造分割任務(wù)

處理圖像的像素級分割是一項非常具有挑戰(zhàn)性的任務(wù),而對于圖像取證,最有效的一種方法是根據(jù)基于相機的偽像(如傳感器噪聲,去馬賽克)。但這種方法在我們的數(shù)據(jù)集上并沒有很好的表現(xiàn),即便是未壓縮的視頻,它的表現(xiàn)也很一般。所以我們還是得用深度學(xué)習(xí)方法,用數(shù)據(jù)集進行充分訓(xùn)練。

因為XceptionNet之前在分類任務(wù)中表現(xiàn)良好,所以這里我們還是把它作為對比模型之一。在測試時,神經(jīng)網(wǎng)絡(luò)的滑動窗口以128×128像素大小移動,步長16。每個圖像塊Wi計算出操作概率的估計值p?i= CNN(Wi),然后把它分配給中央的16×16區(qū)域。(詳細過程略)

同樣的,當(dāng)網(wǎng)絡(luò)連續(xù)5個epoch基本保持不變后,我們再次引入學(xué)習(xí)率=0.001、β1=0.9、β2=0.999進行優(yōu)化。因為要將和16個原圖像、偽造圖像相關(guān)的3個原圖像塊、偽圖像塊組合訓(xùn)練,這次的batch-size=96。

精度和召回率

偽造人臉分割結(jié)果

如上圖所示,這次我們沿用了之前的定量評估,發(fā)現(xiàn)隨著壓縮率的上升,各模型分割性能都出現(xiàn)了明顯下降。最終,在高壓縮視頻中,只有基于XceptionNet的模型給出了較好的輸出。

反向用于生成偽像

在我們的“偽造分類任務(wù)”中,實驗證明Face2Face可以從未壓縮的視頻中檢測到相當(dāng)多的數(shù)據(jù)信息,這就產(chǎn)生了一個問題,即這個數(shù)據(jù)集是否也能用于相反的目標(biāo)——進一步提升合成人訓(xùn)練的逼真程度。為了證實這一點,我們用包含521,406個目標(biāo)真值的第二個數(shù)據(jù)集做了一次監(jiān)督學(xué)習(xí)。

帶有skip connection的自動編碼器(AE)

作為基準(zhǔn),我們設(shè)計了一個帶有skip connection的自動編碼器CNN架構(gòu),它將128×128像素的圖像作為輸入,并預(yù)測具有相同分辨率的圖像(見上圖)。為了從人臉圖像中獲得有意義的特征,我們先使用VGGFace2數(shù)據(jù)集以無監(jiān)督學(xué)習(xí)的方式對自動編碼器網(wǎng)絡(luò)進行預(yù)訓(xùn)練。該數(shù)據(jù)集包含9131個類別的313萬幅圖像,比我們的數(shù)據(jù)集多,但沒有經(jīng)過標(biāo)記。我們禁用了skip connection,強迫神經(jīng)網(wǎng)絡(luò)完全依靠瓶頸層進行訓(xùn)練。

之后,我們又對FaceForensics中的368,135個訓(xùn)練圖像進行微調(diào),并把經(jīng)過預(yù)訓(xùn)練的自動編碼器網(wǎng)絡(luò)放在上面訓(xùn)練。我們輸入一張假臉,把監(jiān)督學(xué)習(xí)的loss設(shè)置成1,啟用skip connection,以便網(wǎng)絡(luò)能輸出更清晰的結(jié)果。

上圖展示了我們的成果。通過拉近特寫鏡頭,可以發(fā)現(xiàn)比起Face2Face,我們改進自動編碼器后生成的圖片能顯示更多細節(jié)。Face2Face在鼻孔、鼻子、下巴和臉頰周圍會生成大量偽影,我們的方法不僅讓這些區(qū)域的線條更清晰,還修改了人臉3D模型與背景之間的過渡錯誤。同時,它還改進了Face2Face由于照明參數(shù)估計錯誤導(dǎo)致的偽影問題。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:FaceForensics:一個用于人臉偽造檢測的大型視頻數(shù)據(jù)集

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    人臉檢測算法及新的快速算法

    人臉檢測算法及新的快速算法人臉識別設(shè)備憑借著便捷的應(yīng)用,以及更加新潮的技術(shù),俘獲不少人的好感。于是,它的應(yīng)用也在日益的變得更加的廣泛。由中國電子學(xué)會主辦的全國圖形圖像技術(shù)應(yīng)用大會,行
    發(fā)表于 09-26 15:13

    基于openCV的人臉檢測系統(tǒng)的設(shè)計

    通過對基于Adaboost人臉檢測算法的研究,利用該算法與計算機視覺類庫openCV進行人臉檢測系統(tǒng)的設(shè)計,
    發(fā)表于 12-23 14:19

    人臉識別經(jīng)典算法實現(xiàn)python

    opencv-python、numpy安裝完成后,可以編程,還是先說明一下需要的算法:特征子技術(shù)的基本思想是:從統(tǒng)計的觀點,尋找人臉圖像分布的基本元素,即
    發(fā)表于 05-04 17:25

    計算機視覺/深度學(xué)習(xí)領(lǐng)域常用數(shù)據(jù)匯總

    、定位、檢測等研究工作大多基于此數(shù)據(jù)展開。Imagenet數(shù)據(jù)文檔詳細,有專門的團隊維護,使用非常方便,在計算機視覺領(lǐng)域研究論文中應(yīng)用非
    發(fā)表于 08-29 10:36

    全網(wǎng)唯一一套labview深度學(xué)習(xí)教程:tensorflow+目標(biāo)檢測:龍哥教你學(xué)視覺—LabVIEW深度學(xué)習(xí)教程

    繁多且具有強烈的針對性,魯棒性差;多種算法計算量驚人且無法精確的檢測缺陷的大小和形狀。而深度學(xué)習(xí)可以直接通過學(xué)習(xí)
    發(fā)表于 08-10 10:38

    分享一款高速人臉檢測算法

    與MTCNN算法的準(zhǔn)確率相當(dāng),可以應(yīng)用將該算法部署在邊緣設(shè)備,進行人臉識別算法進行整體算法提速
    發(fā)表于 12-15 07:01

    人臉識別技術(shù)大火,深度學(xué)習(xí)做支撐

    人臉識別是當(dāng)下視覺領(lǐng)域人們應(yīng)用的重要技術(shù)支撐,每個環(huán)節(jié)都因為深度學(xué)習(xí)算法的推進實現(xiàn)更優(yōu)的計算結(jié)
    發(fā)表于 07-18 13:48 ?1090次閱讀

    一種新方法來檢測這些被操縱的換視頻的“跡象”

    利用深度學(xué)習(xí)“換”合成視頻的技術(shù)發(fā)展之快令人驚嘆,也令人深感不安。研究人員已經(jīng)研究出一種新方法來檢測
    的頭像 發(fā)表于 07-03 09:48 ?5787次閱讀

    人工智能如何避免深度偽造的出現(xiàn)

    采用深度偽造(Deepfake)生成的視頻和音頻,人工智能生成的文本、詩歌和歌詞,網(wǎng)站和假新聞進入人們的世界。
    發(fā)表于 02-28 11:41 ?2510次閱讀

    基于深度學(xué)習(xí)人臉識別算法與其網(wǎng)絡(luò)結(jié)構(gòu)

    基于深度學(xué)習(xí)人臉識別算法,如何讓神經(jīng)網(wǎng)絡(luò)從訓(xùn)練數(shù)據(jù)學(xué)習(xí)到有效、魯棒的生物特征是至關(guān)重要的。
    的頭像 發(fā)表于 03-12 11:13 ?3313次閱讀
    基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的<b class='flag-5'>人臉</b>識別<b class='flag-5'>算法</b>與其網(wǎng)絡(luò)結(jié)構(gòu)

    基于深度學(xué)習(xí)的快速人臉識別算法及模型

    的哈希算法計算人臉像相似度,并對多個哈希相似度值加權(quán)進行人臉匹配,是減少運算時間、實現(xiàn)快速人臉識別的可行方案。使用輕量化神經(jīng)網(wǎng)絡(luò)Mobile
    發(fā)表于 05-07 14:15 ?13次下載

    基于生成對抗網(wǎng)絡(luò)的深度偽造視頻綜述

    深度偽造的濫用,給囯家、社會和個人帶來了潛在威脅。首先,介紹深度偽造的概念和當(dāng)前發(fā)展趨勢,分析
    發(fā)表于 05-10 15:39 ?11次下載

    人工智能換為什么人臉轉(zhuǎn)到90度時會出現(xiàn)漏洞?

    視頻偽造是 Deepfake 技術(shù)最為主要的代表,其制作假視頻的技術(shù)也被稱為人工智能換(AI face swap)。一直以來,研究者發(fā)現(xiàn) DeepFake 存在著這樣一個漏洞:當(dāng)
    發(fā)表于 08-16 11:04 ?702次閱讀

    使用Pytorch和OpenCV實現(xiàn)視頻人臉替換

    本文將分成3個部分,第一部分從兩個視頻中提取人臉并構(gòu)建標(biāo)準(zhǔn)人臉數(shù)據(jù)。第二部分使用數(shù)據(jù)
    的頭像 發(fā)表于 09-15 10:26 ?686次閱讀
    使用Pytorch和OpenCV<b class='flag-5'>實現(xiàn)</b><b class='flag-5'>視頻</b><b class='flag-5'>人臉</b>替換

    深度偽造人臉檢測項目

    各位 AI 愛好者們,準(zhǔn)備好通過各種 AI 技術(shù)來應(yīng)對一個迫切需要被解決的全球問題了嗎?MathWorks 誠邀您參加 2025 IEEE Signal Processing Cup 挑戰(zhàn)賽:“野外深度偽造人臉檢測”(DFWil
    的頭像 發(fā)表于 10-17 10:46 ?319次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>偽造人臉</b><b class='flag-5'>檢測</b>項目
    RM新时代网站-首页