RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

介紹一種對標(biāo)Tesla Occupancy的開源3D語義場景補全?法

3D視覺工坊 ? 來源:曠視研究院 ? 2023-03-08 16:44 ? 次閱讀

一、背景

在 2022 年的 Tesla AI Day 上, Tesla 將 Bev(鳥瞰圖) 感知進(jìn)?步升級,提出了基于 Occupancy Network 的感知?法。這種基于 Occupancy Grid Mapping 的表示?法,?叫體素(Voxel)占據(jù),在 3D 重建任務(wù)中已經(jīng)是一個“老熟人”了。

它將世界劃分成為?系列 3D ?格單元,然后定義哪個單元被占?,哪個單元是空閑的,并且每個占據(jù)單元同時也包含分類信息,?如路?、?輛、建筑物、樹?等。在?動駕駛感知中,相?普通的 3D 檢測?法,這種基于體素的表示可以幫助預(yù)測更精細(xì)的異形物體。如下圖 Tesla Demo 中所展示的那樣,對于空間感知更精細(xì)。

3d581470-bbd6-11ed-bfe3-dac502259ad0.jpg

左圖:使用固定的矩形框標(biāo)記車輛;右圖:使用體素占據(jù)來精細(xì)表示車輛

在這種在線重建的?法中,?般使? SSC ( Semantic Scene Completion)任務(wù)評判預(yù)測的準(zhǔn)確性,即利?圖像、點云或者其他 3D 數(shù)據(jù)作為輸?,預(yù)測空間中的體素占據(jù)和類別信息,并與 GT 標(biāo)注相?較。在權(quán)威的?動駕駛 Semantic-Kitti SSC 任務(wù)中,可以根據(jù)輸?分成純圖像和基于 3D (點云、 TSDF、體素等)的兩類不同的?法。

使?純圖像?案恢復(fù) 3D 結(jié)構(gòu)是?個?較困難的問題,曠視研究院提出了 OccDepth 的?法,將純圖像輸??法的精度?幅提升,獲得了視覺?法的 SOTA,其中 SC IOU 從 34.2 增?為 45.1, mIOU 從 11.1 增?為15.9。同時可視化結(jié)果表明 OccDepth 可以更好地重建出近處和遠(yuǎn)處的?何結(jié)構(gòu)。下?將帶?家介紹 OccDepth 具體的?法。

3d6dbac8-bbd6-11ed-bfe3-dac502259ad0.gif

二、任務(wù)困難和解決動機

僅從視覺圖像估計場景中完整的?何結(jié)構(gòu)和語義信息,這是?項具有挑戰(zhàn)性的任務(wù),其中準(zhǔn)確的深度信息對于恢復(fù) 3D?何結(jié)構(gòu)是?關(guān)重要的。之前的很多?作,都是利?點云、 RGBD 、TSDF[1]等其他 2.5D 、3D 形式[2-8]作為輸?,來預(yù)測體素占據(jù),這也需要較昂貴的設(shè)備來采集 3D 信息?;诩儓D像的?案更便宜,同時也可以提供更為豐富且稠密場景表示, MonoScene[9]提出了純視覺的 Baseline。但相較于上述的 3D ?法,在?何結(jié)構(gòu)恢復(fù)??,表現(xiàn)有?定的差距。

本項工作借鑒了“人類使用雙眼能比單眼更好地感知3D世界中的深度信息”的思想,提出了名為 OccDepth 的語義場景補全?法。它分別顯式和隱式地利?圖像中含有的深度信息,以幫助恢復(fù)良好的 3D ?何結(jié)構(gòu)。在 SemanticKITTI 和 NYUv2 等數(shù)據(jù)集上的?量實驗表明,與當(dāng)前基于純視覺的 SSC ?法相?,我們提出的 OccDepth ?法均達(dá)到了 SOTA,在 SemanticKITTI 上整體實現(xiàn)了+4.82% mIoU 的提升,其中+2.49% mIoU 的提升來?隱式的深度優(yōu)化,+2.33% mIoU 提升來?于顯式的深度蒸餾。在NYUv2 數(shù)據(jù)集上,與當(dāng)前基于純視覺的 SSC ?法相?, OccDepth 實現(xiàn)了+4.40% mIoU 的提升。甚?相?于所有 2.5D 、3D 的?法, OccDepth 仍然實現(xiàn)了 +1.70% mIoU 的提升。

三、具體方法

3e5e7e86-bbd6-11ed-bfe3-dac502259ad0.png

上圖是 OccDepth 的主要流程。3D 場景語義補全可以根據(jù)輸?的雙?圖像所推理出來,其中連接了?個雙?特征軟融合(Stereo-SFA )模塊?于隱式地將特征提升到 3D 空間,?個占?深度感知(OAD) 模塊?于顯式地增強深度預(yù)測,后續(xù)接上 3D U-Net ?于提取?何和語義信息。其中雙?深度?絡(luò)僅在訓(xùn)練的時候使?,?蒸餾的?法幫助 OAD 模塊提升深度預(yù)測能?。

雙目特征軟融合模塊

3e71950c-bbd6-11ed-bfe3-dac502259ad0.png


pYYBAGQIS5eAd4BjAAI9peXdUek057.jpg

3e81adac-bbd6-11ed-bfe3-dac502259ad0.png

pYYBAGQIS6uAWfU7AABY6tg2mpg965.jpg

占用感知的深度蒸餾模塊

3e90fd48-bbd6-11ed-bfe3-dac502259ad0.png

poYBAGQIS7-ADJ4nAAJnOwNjQGI870.jpg

3ea11570-bbd6-11ed-bfe3-dac502259ad0.png

poYBAGQIS9SAQe6QAAFAFmh55fQ770.jpg

四、實驗

指標(biāo)對比

3ebf5544-bbd6-11ed-bfe3-dac502259ad0.png

pYYBAGQIS-iAdk6DAAJdWQ8bkTo046.jpg

3ecffe08-bbd6-11ed-bfe3-dac502259ad0.png

在不同數(shù)據(jù)集上和 2.5D/3D 數(shù)據(jù)作為輸入的方法的對比表。OccDepth 的結(jié)果在一些室內(nèi)場景上和 2.5D/3D 的方法接近甚至有所超越,在室外場景上和某些 2.5D/3D 方法相媲美。"*" 表示結(jié)果引用自 MonoScene?!?”表示缺失結(jié)果。

我們還將 OccDepth 與原始 2.5D/3D 作為輸入的基礎(chǔ)方法進(jìn)行了比較,結(jié)果列在上表中。在 SemanticKITTI 數(shù)據(jù)集的隱藏測試集中,雖然 OccDepth 只使用水平視野比激光雷達(dá)( 82°vs. 180°)小得多的雙目圖像,但 OccDepth 取得了和使用 2.5D/3D 基礎(chǔ)方法可比的結(jié)果 。

這個結(jié)果表明 OccDepth 具有相對較好的補全能力。在 NYUv2 的測試集中,因為沒有雙目圖像,我們的 OccDepth 將 RGB 圖像和深度圖生成虛擬雙目圖像作為輸入。結(jié)果顯示, OccDepth 取得了比所有 2.5D/3D 方法更好的 mIoU 和 IoU([+0.8 IoU,+1.7 mIoU])。

在提出的仿真數(shù)據(jù)集 SemanticTartanAir 的測試集中,我們在這里使用深度真值作為這些 2.5D/3D 方法的輸入,所以 2.5D/3D 方法的準(zhǔn)確率非常高。另一方面,與 2.5D/3D 輸入方法相比, OccDepth 具有較為接近的 mIoU 結(jié)果,并且 OccDepth 沒有使用深度真值。與 純視覺推理的方法相比,OccDepth 具有更高的 IoU 和 mIoU ([+17.6 IoU, +10.9 mIoU])。

定性對比

3ee8a520-bbd6-11ed-bfe3-dac502259ad0.png

在 SemanticTartanAir 和SemanticKITTI 上的可視化結(jié)果。最左側(cè)是輸入的圖像,最右側(cè)是語義體素真值,中間為各種方法的可視化結(jié)果。這里顯示了 OccDepth 在兩個數(shù)據(jù)集中有較好結(jié)果場景。

在室內(nèi)場景 SemanticTartanAir 數(shù)據(jù)集上,雖然所有方法都正確獲得了正確的場景表示,但 OccDepth 對物體邊緣具有更好的還原效果,例如沙發(fā)(圖(a)的第 1 行)和天花板燈(圖(a)的第 2 行) 和地毯(圖(a)的第 3 行)。而在室外場景的 SemanticKITTI 數(shù)據(jù)集上,與基礎(chǔ)方法相比,OccDepth 的空間和語義預(yù)測結(jié)果明顯更好。例如,通過 OccDepth 可以實現(xiàn)路標(biāo)(圖(b)的第 1 行)、樹干(圖(b)的第 2 行)、車輛(圖(b)的第 2 行)和道路(圖(b)的第 3 行)的準(zhǔn)確識別。

消融實驗

3f3406c8-bbd6-11ed-bfe3-dac502259ad0.png

對提出的模塊進(jìn)行消融實驗。(a) Stereo-SFA 模塊的消融實驗。(b) OAD 模塊中深度蒸餾數(shù)據(jù)源的消融實驗。(c)OAD 模塊中深度蒸餾數(shù)據(jù)源的消融實驗。“w/o Depth”表示不使用深度蒸餾,Lidar depth 是指激光雷達(dá)點云生成的深度圖,Stereo Depth 是指 LEAStereo 模型生成的深度圖。以上實驗都在 SemanticKITTI 的 08 號軌跡上進(jìn)行測試。(a),(b),(c)的消融實驗結(jié)果證明了提出的每個模塊的有效性。

五、總結(jié)

在這項工作中,我們提出了一種有效利用深度信息的 3D 語義場景補全方法,我們將其命名為 OccDepth 。我們在 SemanticKITTI(室外場景)和 NYUv2(室內(nèi)場景)數(shù)據(jù)集等公共數(shù)據(jù)集上訓(xùn)練了 OccDepth, 實驗結(jié)果表明,本工作提出的 OccDepth 在室內(nèi)場景和室外場景上都可與某些以 2.5D/3D 數(shù)據(jù)作為輸入的方法相媲美。特別地是,OccDepth 在所有場景體素類別分類上都優(yōu)于當(dāng)前基于純視覺推理的方法。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • RGB
    RGB
    +關(guān)注

    關(guān)注

    4

    文章

    798

    瀏覽量

    58461
  • ssc
    ssc
    +關(guān)注

    關(guān)注

    0

    文章

    24

    瀏覽量

    11205
  • 激光雷達(dá)
    +關(guān)注

    關(guān)注

    968

    文章

    3967

    瀏覽量

    189824

原文標(biāo)題:OccDepth:對標(biāo) Tesla Occupancy 的開源 3D 語義場景補全?法

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    HT for Web (Hightopo) 使用心得(4)- 3D 場景 Graph3dView 與 Obj 模型

    這里我們通過代碼建立3D 場景并添加個 Obj 模型來介紹下 HT for Web 在
    的頭像 發(fā)表于 11-20 11:05 ?767次閱讀
    HT for Web (Hightopo) 使用心得(4)- <b class='flag-5'>3D</b> <b class='flag-5'>場景</b> Graph<b class='flag-5'>3</b>dView 與 Obj 模型

    什么叫3D微波技術(shù)

    當(dāng)3D電影已成為影院觀影的首選,當(dāng)3D打印已普及到雙耳無線藍(lán)牙耳機,一種叫“3D微波”的技術(shù)也悄然而生。初次聽到“3D微波”,你可能會
    發(fā)表于 07-02 06:30

    建立元件3D圖形的方法介

    使用 Altium Desinger繪制的PCB封裝默認(rèn)情況下為平面,也就是將其切換到 3D 視圖時,只能看到的是封裝的形狀,并不是元件的外觀,這里給大家介紹建立元件3D圖形的方法
    發(fā)表于 07-12 07:37

    一種非接觸式3D指紋識別系統(tǒng)的設(shè)計方案

    為什么要設(shè)計一種雙目視角的非接觸式3D指紋識別系統(tǒng) ? 與傳統(tǒng)指紋識別系統(tǒng)相比,3D指紋識別系統(tǒng)有什么優(yōu)勢? 怎樣去設(shè)計一種雙目視角的非接觸式3D
    發(fā)表于 04-19 07:10

    如何去實現(xiàn)一種基于codesys平臺的3d打印機設(shè)計?

    初始化應(yīng)該包括哪些內(nèi)容?如何去實現(xiàn)一種基于codesys平臺的3d打印機設(shè)計?
    發(fā)表于 07-05 08:02

    怎樣去設(shè)計一種基于3D打印機的Delta機械臂

    怎樣去設(shè)計一種基于3D打印機的Delta機械臂?有哪些操作步驟?
    發(fā)表于 10-11 08:17

    分享開源3D打印創(chuàng)新

    嵌入式頂級程序員 開源繼續(xù)推動3D打印行業(yè)的快速創(chuàng)新。 如果您停下來想想,這很有道理-存在3D打印機可以做其他事情。 將這理念與免費軟件
    發(fā)表于 12-21 07:27

    如何使用一種形式化方法的3D虛擬祭祀場景建模語言與環(huán)境

    針對現(xiàn)有三維(3D場景建模方法普遍存在著業(yè)務(wù)耦合度高,復(fù)雜場景對象屬性和特征描述能力不強、不豐富,不能很好地解決3D虛擬祭祀場景建模的問題
    發(fā)表于 01-02 14:13 ?9次下載
    如何使用<b class='flag-5'>一種</b>形式化方法的<b class='flag-5'>3D</b>虛擬祭祀<b class='flag-5'>場景</b>建模語言與環(huán)境

    帶你了解3D微波技術(shù)及其應(yīng)用場景

    3D電影已成為影院觀影的首選,當(dāng)3D打印已普及到雙耳無線藍(lán)牙耳機,一種叫“3D微波”的技術(shù)也悄然而生。初次聽到3D微波”,你可能會
    發(fā)表于 07-24 10:26 ?0次下載
    帶你了解<b class='flag-5'>3D</b>微波技術(shù)及其應(yīng)用<b class='flag-5'>場景</b>

    什么是3D場景式消費,新興技術(shù)如何助力發(fā)展

    隨著5G、AI和3D等新興技術(shù)的發(fā)展,3D場景式消費將作為一種全新的購物體驗進(jìn)入人們的日常生活中,從傳統(tǒng)的實體店到現(xiàn)在的電商平臺,線下體驗線上下單,以及全新的
    的頭像 發(fā)表于 07-08 11:50 ?2738次閱讀

    ThingJS平臺推出3D場景本地緩存技術(shù)

    腳本創(chuàng)建和操作,使用JSON數(shù)據(jù)格式。下面詳細(xì)介紹IndexedDB本地緩存技術(shù),作為一種瀏覽器數(shù)據(jù)存儲方案,對場景項目開發(fā)有極大的意義。 ① ?本地緩存技術(shù)提升用戶訪問體驗 ThingJS平臺支持在線開發(fā)面向物聯(lián)網(wǎng)的
    發(fā)表于 03-13 11:19 ?1803次閱讀

    VR全景看房3D場景的制作方法

    技術(shù)構(gòu)建的VR房地產(chǎn)展示VR全景看房3D場景可視化制作解決方案,創(chuàng)建3D虛擬現(xiàn)實世界體驗的展示,運用先進(jìn)技術(shù)生成的一種模擬環(huán)境多信息化融合、交互式的三維動態(tài)
    發(fā)表于 04-23 10:21 ?9957次閱讀

    HarmonyOS 3D渲染引擎介紹

    隨著3D技術(shù)的應(yīng)用普及,越來越多的場景都能看到3D的身影,比如充電動效、3D壁紙、游戲等等,給用戶帶來了更有趣、更豐富的體驗。要滿足用戶的3D
    的頭像 發(fā)表于 12-23 09:49 ?4354次閱讀
    HarmonyOS <b class='flag-5'>3D</b>渲染引擎<b class='flag-5'>介紹</b>

    介紹一種高效的線云重建算法ELSR

    提出了一種高效的線云重建方法,稱為ELSR,其利用了城市場景中常見的場景平面和稀疏的3D
    的頭像 發(fā)表于 03-29 18:14 ?914次閱讀

    介紹一種使用2D材料進(jìn)行3D集成的新方法

    美國賓夕法尼亞州立大學(xué)的研究人員展示了一種使用2D材料進(jìn)行3D集成的新穎方法。
    的頭像 發(fā)表于 01-13 11:37 ?1058次閱讀
    RM新时代网站-首页