RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

用AI對抗AI——基于視頻人臉篡改的檢測

Hf1h_BigDataDig ? 來源:YXQ ? 2019-07-16 10:10 ? 次閱讀

還記得權力的游戲第八季么? Jon Snow也加入了千萬罵編劇的粉絲的陣營,并且因此向粉絲道歉。

這個視頻當然是假的,他嘴巴的移動方式看起來就很奇怪。

這是一個DeepFake生成的視頻,一個用來娛樂或欺騙大眾人工智能產(chǎn)物。

之前文摘菌也報道過,這項技術的上線后就廣受詬病,后來又有一個小團隊開發(fā)出一款新的應用DeepNude,可以一鍵實現(xiàn)脫衣,之后也因為反響惡劣而被迫下架。

人們對于無法分辨真假的恐懼是合理的,畢竟這種技術的出現(xiàn)將會滋生出許多想象不到的新的犯罪手段的誕生。

最近,南加州大學信息科學研究所計算機的研究人員發(fā)表一篇論文,研究通過訓練AI尋找視頻畫面中的不一致性來檢測AI生成的假視頻,論文同時也被提交到CVPR 2019。

用AI對抗AI,來看看如何實現(xiàn)

對于偽造生成的假視頻,研究人員發(fā)現(xiàn),用于生成虛假視頻的主流AI模型(以及其他方法,如2016年的Face2Face程序),都是通過逐幀修改視頻且并不注意時間的連貫性。這會使得生成視頻中的人物移動看起來非常笨拙,人們通常會注意到這類奇怪的動作。

為了實現(xiàn)找出奇怪動作這一過程的自動化,研究人員首先要訓練一個神經(jīng)網(wǎng)絡—這種人工智能程序以個人的海量視頻為基礎,可以用來“學習”人類在說話時如何移動的重要特征。

然后,研究人員使用這些參數(shù)將偽造視頻的堆疊幀輸入AI模型,以檢測視頻隨時間的不一致性。根據(jù)該論文,這種方法可以判斷“AI偽造視頻”,準確率超過90%。

研究人員使用的模型是一個遞歸卷積模型(Recurrent convolutional model),這個深度學習模型能夠很好的提取到視頻中的信息。

整個過程分為兩步:

將視頻中的人臉進行裁剪對齊

對于獲取人臉區(qū)域,研究人員使用由FaceForensics++提供的模型。

論文鏈接:

https://arxiv.org/abs/1901.08971

研究人員嘗試了兩種人臉對齊技術的結合:

顯式使用面部坐標對齊,在參考坐標系中,人的面部是先天決定的,所有的面孔是使用同一個參考坐標系;

隱式排列對齊,使用STN。

在后一種情況下,網(wǎng)絡根據(jù)輸入圖像預測對齊參數(shù),因此可能學會縮放人臉的特定部分,必要時可將訓練集中的預期損失最小化。

在這兩種情況下,核心思想都是我們希望循環(huán)卷積模型將人臉“tubelet”作為輸入,這是一個跨越視頻幀的時空緊密對齊的人臉序列。

所有篡改類型的檢測精度。結果表明,采用線性和雙向遞歸網(wǎng)絡的DenseNet性能最好

基于視頻人臉篡改的檢測

對于人臉篡改的檢測,我們使用一個類似于用于視覺識別的Long-term循環(huán)卷積網(wǎng)絡。

論文鏈接:

https://arxiv.org/abs/1411.4389

其中輸入是來自查詢視頻的幀序列,這個模型背后是在利用跨幀的時間差異。由于篡改是在逐幀的基礎上進行的,研究人員認為圖像中會存在時間差異。因此,由對人臉的篡改引起的低層次的差別則有可能表現(xiàn)為跨幀不一致特性的時間差異。

骨干網(wǎng)絡(Backbone encoding network)

在實驗中,研究人員探索了ResNet和DenseNet兩種架構作為模型的CNN分量。

無論采用何種架構,首先對主干網(wǎng)絡進行FF++訓練分割,使交叉熵損失最小化,進行二值分類,形成特征,從合成人臉中識別真實人臉。然后用RNN對Backbone進行擴展,最后在多種策略下形成端到端訓練。

RNN的訓練策略

研究人員使用放置在骨干網(wǎng)絡不同位置的多個循環(huán)模型進行實驗:用它將骨干網(wǎng)絡連接在一起,用來進行特征學習,將特征傳遞給隨時間推移聚合輸入的RNN。

在這里研究人員也嘗試了兩種策略:一是在骨干網(wǎng)的最終特性基礎上,簡單地使用單一的遞歸網(wǎng)絡;二是嘗試在骨干網(wǎng)結構的不同層次上訓練多個遞歸神經(jīng)網(wǎng)絡。

所有篡改類型的ROC曲線。每一行對應一個不同的篡改類型。左列為線性圖,右列為線性對數(shù)圖

希望能從源頭阻止deepfake假視頻

研究的共同作者Wael AbdAlmageed表示,這種模式可以被社交網(wǎng)站和視頻網(wǎng)站用于大規(guī)模識別deepfake假視頻,因為它不需要通過“學習”特定個體的關鍵特征來進行識別,而是通用的。

“我們的模型對于任何人來說都是通用的,因為我們不關注某個人的身份,而是關注面部運動的一致性,”AbdAlmageed說,“我們將發(fā)布自己的模型,所以社交網(wǎng)絡無需訓練新的模型。網(wǎng)站只需要在其平臺中加上該檢測軟件,以檢查上傳到平臺的視頻是否為deepfake生成的假視頻。”

機器學習的出現(xiàn)讓造假的成本逐漸變低,很多玩火不嫌事大的開發(fā)者還開發(fā)出許多不需要寫代碼直接可以造假的小軟件,盡管他們不一定是出于惡意,但是不排除軟件最后被用到“作惡”的地方。

雖然還有許多方法可以反“AI造假”(例如在拍攝圖片時生成"噪聲水印"),但利用AI來識別AI造假,并且將這項技術加載到視頻網(wǎng)站的審查過程中,那么從源頭大規(guī)模地阻止假視頻流向公眾,或許可以成為現(xiàn)實。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    30728

    瀏覽量

    268873
  • DeepFake
    +關注

    關注

    0

    文章

    15

    瀏覽量

    6677

原文標題:解鈴還須系鈴人!南加大訓練AI檢測Deepfake“假視頻”,準確率超90%

文章出處:【微信號:BigDataDigest,微信公眾號:大數(shù)據(jù)文摘】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    可靈AI全球首發(fā)視頻模型定制功能,助力AI視頻創(chuàng)作

    屬于自己的專屬人臉模型。在模型定制完成后,用戶可以基于該模型生成包含同一人物鏡頭的多個視頻內容,從而滿足用戶對于個性化視頻創(chuàng)作的多樣化需求。 此外,可靈AI還對其1.5模型進行了全面升
    的頭像 發(fā)表于 11-26 14:02 ?466次閱讀

    AI項目管理平臺怎么

    AI項目管理平臺是一種集成了項目管理工具、AI開發(fā)環(huán)境和數(shù)據(jù)分析能力的綜合性平臺。接下來,AI部落小編為您梳理AI項目管理平臺怎么。
    的頭像 發(fā)表于 11-13 09:38 ?196次閱讀

    AI for Science:人工智能驅動科學創(chuàng)新》第二章AI for Science的技術支撐學習心得

    非常高興本周末收到一本新書,也非常感謝平臺提供閱讀機會。 這是一本挺好的書,包裝精美,內容詳實,干活滿滿。 關于《AI for Science:人工智能驅動科學創(chuàng)新》第二章“AI
    發(fā)表于 10-14 09:16

    基于迅為RK3568/RK3588開發(fā)板的AI圖像識別方案

    01_官方模型測試 02_人臉識別 03_口罩檢測 04_工地防護 05_撲克牌識別 06_手掌關鍵點檢測 07_人臉特征點檢測
    發(fā)表于 08-28 09:50

    基于迅為RK3588開發(fā)板的AI圖像識別方案

    迅為RK3568/RK3588開發(fā)板AI識別演示方案包括 01_官方模型測試 02_人臉識別 03_口罩檢測 04_工地防護 05_撲克牌識別 06_手掌關鍵點檢測 07_
    發(fā)表于 08-13 11:26

    云開發(fā)AI助手

    AI
    草帽王路飛
    發(fā)布于 :2024年07月22日 14:41:54

    視頻3--場景自動化AI助手

    AI
    草帽王路飛
    發(fā)布于 :2024年07月22日 11:16:13

    視頻2--場景自動化AI助手

    AI
    草帽王路飛
    發(fā)布于 :2024年07月22日 11:15:34

    人臉檢測人臉識別的區(qū)別是什么

    檢測人臉識別的區(qū)別。 定義 人臉檢測是指在圖像或視頻中快速準確地找到人臉的位置,并將其從背景中
    的頭像 發(fā)表于 07-03 14:49 ?1165次閱讀

    防止AI大模型被黑客病毒入侵控制(原創(chuàng))聆思大模型AI開發(fā)套件評測4

    ,應用場景和安全需求會有所不同。我會幫助客戶構建安全的 AI 大模型。上面的只是一些基本的安全措施,在實際中我可以利用eFPGA芯片對上述的功能進行加速,下面我編寫一個加速代碼: // 這是一個FPGA
    發(fā)表于 03-19 11:18

    ai_reloc_network.h引入后,ai_datatypes_format.h和formats_list.h報錯的原因?

    當準備使用神經(jīng)網(wǎng)絡的relocatable方式,將ai_reloc_network.h頭文件加入程序編譯后,ai_datatypes_format.h在cubeIDE和Keilc里分別報如下錯誤
    發(fā)表于 03-14 06:23

    NanoEdge AI的技術原理、應用場景及優(yōu)勢

    ,可以減少數(shù)據(jù)在傳輸過程中被竊取或篡改的風險,提高數(shù)據(jù)安全性。 - 低能耗:通過優(yōu)化神經(jīng)網(wǎng)絡模型和硬件設計,NanoEdge AI 可以在有限的資源下實現(xiàn)高效的計算,降低設備的能耗。
    發(fā)表于 03-12 08:09

    Stability AI與Morph AI共同推出一體化AI視頻創(chuàng)作工具

    近日,業(yè)界領先的AI技術公司Stability AI與中國AI創(chuàng)業(yè)公司Morph AI達成重要合作。雙方宣布共同推出一款革新性的all-in-one(一體式)
    的頭像 發(fā)表于 03-05 10:44 ?874次閱讀

    AI視頻年大爆發(fā)!2023年AI視頻生成領域的現(xiàn)狀全盤點

    2023年,也是AI視頻元年。過去一年究竟有哪些爆款應用誕生,未來視頻生成領域面臨的難題還有哪些?
    的頭像 發(fā)表于 02-20 10:40 ?1207次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>視頻</b>年大爆發(fā)!2023年<b class='flag-5'>AI</b><b class='flag-5'>視頻</b>生成領域的現(xiàn)狀全盤點

    對基于 FPGA 的 AI 視覺應用進行基準測試

    ,這里沒有運行 NLP-SmartVision 或 AI。 操作系統(tǒng) 沒有人工智能 獨立式 31-64 PetaLinux GStreamer 140-190 USB攝像頭 操作系統(tǒng) 人臉檢測 物體
    發(fā)表于 02-02 10:26
    RM新时代网站-首页