小心!
別有用心的人,正在盯著你放在社交網(wǎng)絡(luò)上的美照,還可能已經(jīng)被Deepfake拿去生成果照。
最近,外媒The Verge曝光了這個(gè)現(xiàn)象:
在Telegram上,Deepfake機(jī)器人泛濫,隨便一張社交網(wǎng)絡(luò)上的照片,即可自動(dòng)生成開(kāi)車圖。
還可以直接攜圖分享。
跟日常我們發(fā)送圖片、接收?qǐng)D片一樣簡(jiǎn)單~
與此相關(guān)的數(shù)據(jù)令人咋舌。
關(guān)注Deepfake傳播的研究機(jī)構(gòu)「Sensity」發(fā)現(xiàn),截至到2020年7月,在Telegram公共頻道中已經(jīng)生成并分享了超過(guò)10萬(wàn)張。
這意味著,生成的圖片總數(shù),包括那些未曾分享過(guò)、或是7月以來(lái)制作的照片,是遠(yuǎn)遠(yuǎn)高于這個(gè)數(shù)字的。
Sensity表示,這些頻道中的大部分用戶,大概有70%來(lái)自俄羅斯和周邊國(guó)家。
目前,仍然有很多渠道處在活躍狀態(tài)中。
Deepfake機(jī)器人
這些機(jī)器人可以免費(fèi)使用,不過(guò)會(huì)生成帶有「FAKE」的紅色字樣水印,或只有部分果體的果體照片。
想要「升級(jí)」照片,用戶需要一定的費(fèi)用,來(lái)「揭開(kāi)」這些照片。
比如,「初級(jí)收費(fèi)」。
用戶需要支付100盧布,折合人民幣8.63元,就可以在7天內(nèi)生成100張、沒(méi)有水印的果體照。
說(shuō)到這里,是不是有人覺(jué)得很熟悉?
這像是去年夏天火爆網(wǎng)絡(luò),但幾天即下架的「DeepNude」。
對(duì)對(duì)對(duì),就是那個(gè)「一鍵脫衣」。
Sensity也表示,這是DeepNude經(jīng)過(guò)反向工程來(lái)打造的一款機(jī)器人。不同的是,這個(gè)機(jī)器人可以自動(dòng)處理收款。
當(dāng)然,這些果體照都是假的!
生成出來(lái)的果體照會(huì)存在斑點(diǎn)、像素化的現(xiàn)象,但也有些很容易被誤認(rèn)為是真實(shí)圖片。
按照去年我們的DeepNude實(shí)測(cè)結(jié)果,果體生成是有諸多「講究」的。
比如,穿的越少,效果越好。如果給了一個(gè)衣服特別多的圖片,處理效果非常暴力。
所以,總體來(lái)說(shuō),美照穿得越少,被生成那種照片的難度越小。
沒(méi)錯(cuò),技術(shù)被濫用,逼得互聯(lián)網(wǎng)也得“保守”。
「一鍵脫衣」原理
去年,就有人曾揭秘過(guò)DeepNude背后的技術(shù)原理。
DeepNude主要使用了計(jì)算機(jī)視覺(jué)領(lǐng)域的3項(xiàng)技術(shù)。
圖像修復(fù):Image Inpainting。
這是英偉達(dá)研究團(tuán)隊(duì)提出的一個(gè)模型,當(dāng)畫面被嚴(yán)重涂抹后,模型仍然能夠恢復(fù)出“原來(lái)”的圖像。此外,還可以做到去掉圖像中的某些物品。
Pix2Pix:使用條件對(duì)抗網(wǎng)絡(luò)作為圖像到圖像轉(zhuǎn)換問(wèn)題的通用解決方案。
以及2018年SIGGRAPH最佳博士論文獎(jiǎng)得主朱俊彥提出的CycleGAN。
CycleGAN使用循環(huán)一致性損失函數(shù)來(lái)實(shí)現(xiàn)訓(xùn)練,而無(wú)需配對(duì)數(shù)據(jù)。它可以在普通的馬和斑馬之間進(jìn)行轉(zhuǎn)換,也能把夏天的景色變成冬天的景色。
背后的隱憂
正如去年DeepNude所帶來(lái)的道德?tīng)?zhēng)議,Sensity對(duì)這個(gè)機(jī)器人表現(xiàn)出一定的擔(dān)憂。
曾經(jīng)一項(xiàng)民間調(diào)查顯示,近7成民眾更想要看「私人」的果體照(也就是不是大明星、模特的那種),當(dāng)中90%的用戶想要看現(xiàn)實(shí)生活中熟悉的女生。
那么,有了這個(gè)Telegam機(jī)器人,任何在社交網(wǎng)絡(luò)上自拍照的女生都可能成為潛在的受害者。
甚至,如果遇到被陌生人偷拍,拿去生成照片,那就更加不堪設(shè)想了。
The Verge和Sensity都聯(lián)系了Telegram,詢問(wèn)他們?yōu)楹卧试S在其應(yīng)用上發(fā)布這種內(nèi)容。
目前尚未得到回復(fù)。
而且對(duì)這種技術(shù)濫用,當(dāng)前似乎也沒(méi)有比較好的治理方法。
如果你有思考和建議,也歡迎分享~
責(zé)任編輯:lq
-
機(jī)器人
+關(guān)注
關(guān)注
211文章
28379瀏覽量
206908 -
計(jì)算機(jī)視覺(jué)
+關(guān)注
關(guān)注
8文章
1698瀏覽量
45970 -
DeepFake
+關(guān)注
關(guān)注
0文章
15瀏覽量
6677
原文標(biāo)題:小心,你放在社交網(wǎng)絡(luò)上的圖,正被Deepfake機(jī)器人用來(lái)生成果體照
文章出處:【微信號(hào):TheBigData1024,微信公眾號(hào):人工智能與大數(shù)據(jù)技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論