RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

DeepMind論文推出了一種新的神經(jīng)網(wǎng)絡(luò)——GQN

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-06-30 08:30 ? 次閱讀

編者按:今天,DeepMind的研究人員在Science上發(fā)表論文,推出了一種新的神經(jīng)網(wǎng)絡(luò)——GQN,只用幾張二維照片,就能重建全部的三維場景,可以說是計(jì)算機(jī)視覺領(lǐng)域的又一關(guān)鍵突破。

讓機(jī)器對空間環(huán)境進(jìn)行感知似乎一直是DeepMind研究的重點(diǎn),一個(gè)多月前我們曾報(bào)道過他們的另一項(xiàng)研究:DeepMind用AI解密大腦:當(dāng)你找路時(shí),大腦發(fā)生了什么??臻g感知對人類來說很簡單,例如當(dāng)我們第一次走進(jìn)一個(gè)房間,掃一眼就能知道屋里有哪些物品、它們都在哪個(gè)位置上。只看到桌子的三條腿,你也能推斷出第四條腿的大致位置和形狀。另外,即使你沒有熟悉屋里的每個(gè)角落,也能大概描繪出它的平面圖,或者能想象出從另一個(gè)角度看房間應(yīng)該是什么樣子的。

但是想讓人工智能系統(tǒng)做到上述行為的確很困難?,F(xiàn)在最先進(jìn)的計(jì)算機(jī)視覺系統(tǒng)仍需要在大型經(jīng)過標(biāo)注的數(shù)據(jù)集上進(jìn)行訓(xùn)練,而數(shù)據(jù)標(biāo)注又是一項(xiàng)費(fèi)時(shí)費(fèi)力的工作,所以每次模型只能捕捉一小部分場景。隨著網(wǎng)絡(luò)越來越復(fù)雜,想詳細(xì)了解的周圍環(huán)境也越復(fù)雜:最近的座位在哪?沙發(fā)是什么材質(zhì)的?所有影子的光源在哪?照明開關(guān)可能在哪?

在這次的研究中,DeepMind研究人員介紹了一種能感知周圍環(huán)境的框架——GQN(Generative Query Network)。和嬰兒或動(dòng)物一樣,GQN通過觀察周圍環(huán)境收集數(shù)據(jù),從而學(xué)習(xí),無需人類對場景進(jìn)行標(biāo)記,就能掌握大致空間結(jié)構(gòu)。

GQN模型由兩部分組成:一個(gè)表示網(wǎng)絡(luò)和一個(gè)生成網(wǎng)絡(luò)。表示網(wǎng)絡(luò)將智能體所觀察到的畫面作為輸入,生成一個(gè)表示(向量),描述了基本場景。之后,生成網(wǎng)絡(luò)從此前沒有觀察到的角度對場景進(jìn)行預(yù)測(或者說是“想象”)。

但是表示網(wǎng)絡(luò)并不知道生成網(wǎng)絡(luò)要從哪個(gè)視角預(yù)測場景,所以它必須找到一種高效、精確的描繪場景平面的方法。它通過捕捉最重要的元素,例如物體的位置、顏色和房間平面,進(jìn)行簡單表示。訓(xùn)練期間,生成器學(xué)習(xí)辨認(rèn)物體、特征、關(guān)系和環(huán)境的規(guī)律。這一套“共享”的概念讓表示網(wǎng)絡(luò)能用一種高度簡練、抽象的方式描繪場景,剩余的細(xì)節(jié)部分就由生成網(wǎng)絡(luò)補(bǔ)充。例如,表示網(wǎng)絡(luò)用一小串?dāng)?shù)字表示一個(gè)“藍(lán)色方塊”,生成網(wǎng)絡(luò)就知道從某個(gè)角度應(yīng)該如何用像素展現(xiàn)出來。

DeepMind研究人員在程序生成的虛擬3D環(huán)境中對GQN做了多次試驗(yàn),包括多種不同物體,被擺放在不同的位置,并且形狀、顏色、材質(zhì)都不相同,同時(shí)還改變了光線方向和遮擋程度。通過在這些環(huán)境上進(jìn)行訓(xùn)練,他們用GQN的表示網(wǎng)絡(luò)去生成一個(gè)從未見過的場景。在實(shí)驗(yàn)中人們發(fā)現(xiàn)GQN展現(xiàn)出了幾個(gè)重要特征:

GQN的生成網(wǎng)絡(luò)可以在全新視角“想象”出此前沒有見過的景象,精確度非常高。給定一個(gè)場景表示和新的相機(jī)角度,網(wǎng)絡(luò)不需要任何先前信息就能生成精確的圖像。所以生成網(wǎng)絡(luò)也可以近似看成是從數(shù)據(jù)中學(xué)習(xí)的渲染器:

GQN的表示網(wǎng)絡(luò)可以獨(dú)自學(xué)習(xí)算數(shù)、定位、分類物體。就算在小型表示上,GQN也能在具體視角上做出非常精準(zhǔn)的預(yù)測,和現(xiàn)實(shí)幾乎一模一樣。這說明了表示網(wǎng)絡(luò)觀察得非常仔細(xì),例如下面這個(gè)由幾個(gè)方塊堆疊起來的場景:

GQN可以表示、測量并且減少不確定性。即使在沒有完全看到所有場景的情況下,網(wǎng)絡(luò)也可以解釋其中的不確定之處。同時(shí)也能根據(jù)部分圖像拼成完整的場景。下面的第一人稱視角和自上而下的預(yù)測方法就是其中的“秘訣”。模型通過它預(yù)測的變化性表達(dá)不確定性,其中預(yù)測的變化性隨著不斷在迷宮中移動(dòng)減少(灰色三角是觀察位置)。

GQN表示支持穩(wěn)定、數(shù)據(jù)高效的強(qiáng)化學(xué)習(xí)。給定GQN表示后,目前頂尖的深度強(qiáng)化學(xué)習(xí)智能體就開始學(xué)習(xí)以數(shù)據(jù)有效的方式完成任務(wù)。對這些智能體來說,生成網(wǎng)絡(luò)中編入的信息可以看作是對環(huán)境固有的認(rèn)知:

利用GQN我們觀察到了更多數(shù)據(jù)有效的學(xué)習(xí),比通常只利用原始像素的方法快了近4倍達(dá)到收斂水平

相較于前人研究,GQN是一種全新的學(xué)習(xí)現(xiàn)實(shí)場景的簡單方法。重要的是,這種方法不需要對具體場景建模,或者花大量時(shí)間對內(nèi)容標(biāo)注,一個(gè)模型就能應(yīng)用多個(gè)場景。它還學(xué)習(xí)了一種強(qiáng)大的神經(jīng)渲染器,能夠在任意角度生成精確的場景圖像。

不過,與一些傳統(tǒng)計(jì)算機(jī)視覺技術(shù)相比,這次所提出的方法仍然有很多限制,并且目前也都是在虛擬的合成場景上訓(xùn)練的。不過,隨著更多可用數(shù)據(jù)的出現(xiàn)以及硬件的提升,研究人員希望進(jìn)一步套索GQN的可能性,比如將它應(yīng)用到現(xiàn)實(shí)場景中,同時(shí)提高成像分辨率。未來,研究GQN對更廣泛的場景理解非常重要,例如加入時(shí)間的維度,讓它學(xué)習(xí)對場景和移動(dòng)的理解,同時(shí)應(yīng)用到VR和AR技術(shù)中。盡管前路漫漫,這項(xiàng)工作對全自動(dòng)場景辨別來說是重要一步。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:DeepMind重磅論文:不用人類標(biāo)記,幾張圖片就能渲染出3D場景

文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    人工神經(jīng)網(wǎng)絡(luò)原理及下載

    人工神經(jīng)網(wǎng)絡(luò)是根據(jù)人的認(rèn)識(shí)過程而開發(fā)出的一種算法。假如我們現(xiàn)在只有些輸入和相應(yīng)的輸出,而對如何由輸入得到輸出的機(jī)理并不清楚,那么我們可以把輸入與輸出之間的未知過程看成是個(gè)“
    發(fā)表于 06-19 14:40

    【PYNQ-Z2試用體驗(yàn)】神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識(shí)

    學(xué)習(xí)和認(rèn)知科學(xué)領(lǐng)域,是一種模仿生物神經(jīng)網(wǎng)絡(luò)(動(dòng)物的中樞神經(jīng)系統(tǒng),特別是大腦)的結(jié)構(gòu)和功能的數(shù)學(xué)模型或計(jì)算模型,用于對函數(shù)進(jìn)行估計(jì)或近似。神經(jīng)網(wǎng)絡(luò)由大量的人工
    發(fā)表于 03-03 22:10

    【案例分享】ART神經(jīng)網(wǎng)絡(luò)與SOM神經(jīng)網(wǎng)絡(luò)

    一種常用的無監(jiān)督學(xué)習(xí)策略,在使用改策略時(shí),網(wǎng)絡(luò)的輸出神經(jīng)元相互競爭,每時(shí)刻只有個(gè)競爭獲勝的神經(jīng)
    發(fā)表于 07-21 04:30

    人工神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)方法有哪些?

    人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network,ANN)是一種類似生物神經(jīng)網(wǎng)絡(luò)的信息處理結(jié)構(gòu),它的提出是為了解決些非線性,非平穩(wěn),復(fù)雜的實(shí)際問題。那有哪些辦法能實(shí)現(xiàn)
    發(fā)表于 08-01 08:06

    神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索有什么優(yōu)勢?

    ,稍有不同就無法復(fù)現(xiàn)論文的結(jié)果。而網(wǎng)絡(luò)結(jié)構(gòu)作為一種特殊的超參數(shù),在深度學(xué)習(xí)整個(gè)環(huán)節(jié)中扮演著舉足輕重的角色。在圖像分類任務(wù)上大放異彩的ResNet、在機(jī)器翻譯任務(wù)上稱霸的Transformer等
    發(fā)表于 09-11 11:52

    如何構(gòu)建神經(jīng)網(wǎng)絡(luò)

    原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡(luò)一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預(yù)測的計(jì)算系統(tǒng)。如何構(gòu)建神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反
    發(fā)表于 07-12 08:02

    一種基于綜合幾何特征和概率神經(jīng)網(wǎng)絡(luò)的HGU軸軌識(shí)別方法

    摘要故障診斷是保證水輪發(fā)電機(jī)組安全運(yùn)行的重要環(huán)節(jié)。軸心軌跡辨識(shí)是HGU故障診斷的一種有效方法。提出了一種基于綜合幾何特征和概率神經(jīng)網(wǎng)絡(luò)(CGC-PNN)的HGU軸軌識(shí)別方法。該方法從結(jié)
    發(fā)表于 09-15 08:18

    一種基于高效采樣算法的時(shí)序圖神經(jīng)網(wǎng)絡(luò)系統(tǒng)介紹

    成為了非常重要的問題。 基于以上問題,本文提出了一種基于高效采樣算法的時(shí)序圖神經(jīng)網(wǎng)絡(luò)系統(tǒng) 。首先我們介紹用于時(shí)序圖神經(jīng)網(wǎng)絡(luò)采樣的高效采樣方法。采樣常常被用于深度學(xué)習(xí)中以降低模型的訓(xùn)練時(shí)
    發(fā)表于 09-28 10:34

    一種基于PID神經(jīng)網(wǎng)絡(luò)的解耦控制方法的研究

    為了消除造紙工業(yè)抄紙過程中存在的解耦問題,提出了一種基于PID 神經(jīng)網(wǎng)絡(luò)的解耦方法。文章在介紹PID 神經(jīng)網(wǎng)絡(luò)原理的基礎(chǔ)上,給出了二變量PI
    發(fā)表于 06-15 10:10 ?19次下載

    一種基于人工神經(jīng)網(wǎng)絡(luò)的秘密共享方案

    本文首先分析了人工神經(jīng)網(wǎng)絡(luò)和秘密共享的相通之處,闡明了用人工神經(jīng)網(wǎng)絡(luò)來實(shí)現(xiàn)秘密共享是可能的;其次給出了一種基于人工神經(jīng)網(wǎng)絡(luò)的秘密共享的門限方
    發(fā)表于 08-15 09:54 ?15次下載

    一種改進(jìn)的BP神經(jīng)網(wǎng)絡(luò)調(diào)制分類器

    本文致力于基于神經(jīng)網(wǎng)絡(luò)的通信信號(hào)調(diào)制類型識(shí)別器設(shè)計(jì)研究。論文出了一種改進(jìn)的BP神經(jīng)網(wǎng)絡(luò)分類器,它采用7個(gè)特征參數(shù),可以對CW、2FSK、4
    發(fā)表于 08-29 10:22 ?10次下載

    Google AI子公司開發(fā)出個(gè)神經(jīng)網(wǎng)絡(luò)GQN,其組成部分介紹

    Google AI 子公司 DeepMind 開發(fā)出個(gè)神經(jīng)網(wǎng)絡(luò),能根據(jù)張 2D 圖像“想象出”它的 3D 場景。該系統(tǒng)被稱為Generative Query Network (
    的頭像 發(fā)表于 06-29 16:54 ?6882次閱讀
    Google AI子公司開發(fā)出<b class='flag-5'>一</b>個(gè)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b><b class='flag-5'>GQN</b>,其組成部分介紹

    一種新型神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu):膠囊網(wǎng)絡(luò)

    膠囊網(wǎng)絡(luò)是 Geoffrey Hinton 提出的一種新型神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),為了解決卷積神經(jīng)網(wǎng)絡(luò)(ConvNets)的些缺點(diǎn),提
    的頭像 發(fā)表于 02-02 09:25 ?5860次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn) 卷積神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)的區(qū)別

    深度神經(jīng)網(wǎng)絡(luò)一種基于神經(jīng)網(wǎng)絡(luò)的機(jī)器學(xué)習(xí)算法,其主要特點(diǎn)是由多層神經(jīng)元構(gòu)成,可以根據(jù)數(shù)據(jù)自動(dòng)調(diào)整神經(jīng)元之間的權(quán)重,從而實(shí)現(xiàn)對大規(guī)模數(shù)據(jù)進(jìn)行預(yù)
    發(fā)表于 08-21 17:07 ?4087次閱讀

    人工神經(jīng)網(wǎng)絡(luò)模型是一種什么模型

    人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,簡稱ANNs)是一種受生物神經(jīng)網(wǎng)絡(luò)啟發(fā)而產(chǎn)生的數(shù)學(xué)模型,用于模擬人腦處理信息的方式。它由大量的節(jié)點(diǎn)(或稱為神經(jīng)元)相
    的頭像 發(fā)表于 07-04 16:57 ?919次閱讀
    RM新时代网站-首页