RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

一個用于周視語義占用網(wǎng)格感知的基準測試

3D視覺工坊 ? 來源:點云PCL ? 2023-08-14 09:37 ? 次閱讀

摘要

語義占用網(wǎng)格感知對于自動駕駛至關(guān)重要,因為自動駕駛車輛需要對3D城市場景進行細粒度感知。然而,現(xiàn)有的相關(guān)基準測試在城市場景的多樣性方面存在不足,并且僅評估前視預測感知。為了全面評估周視感知算法,我們提出了OpenOccupancy,這是第一個用于周視語義占用網(wǎng)格感知的基準測試方法。在OpenOccupancy基準測試中,我們通過添加稠密的語義占用網(wǎng)格標注來擴展大規(guī)模的nuScenes數(shù)據(jù)集。以前的標注依賴于LiDAR點云的疊加,由于LiDAR數(shù)據(jù)的稀疏,導致一些占用標簽被遺漏。為了緩解這個問題,我們引入了增強與凈化(AAP)流程,將標注密度提高了約2倍,其中涉及約4000個人工小時的標注過程。此外為OpenOccupancy基準測試建立了基于攝像頭、LiDAR和多模態(tài)的基線模型。此外考慮到周視占用感知的復雜性在于高分辨率3D預測的計算負擔,我們提出了級聯(lián)占用網(wǎng)絡(CONet)來改進粗糙預測,相對于基線模型提高了約30%的性能。我們希望OpenOccupancy基準測試能促進周視占用感知算法的發(fā)展。

主要貢獻

盡管目前對于語義占用網(wǎng)格感知越來越受到關(guān)注,但大多數(shù)相關(guān)基準都是針對室內(nèi)場景設計的,SemanticKITTI 將占用感知擴展到駕駛場景,但其數(shù)據(jù)集規(guī)模相對較小且多樣性有限,這影響了開發(fā)占用感知算法的泛化和評估。此外,SemanticKITTI只評估前視圖的占用網(wǎng)格結(jié)果,而對于安全駕駛而言,周視感知更為關(guān)鍵。為解決這些問題,我們提出了OpenOccupancy,這是第一個用于周視語義占用感知的基準。在OpenOccupancy基準中引入了nuScenes-Occupancy,它將大規(guī)模的nuScenes數(shù)據(jù)集與密集的語義占用標注相結(jié)合。

6498e2c2-3a2e-11ee-9e74-dac502259ad0.png

如表1所示,nuScenes-Occupancy標注的場景和幀數(shù)比多約40倍和20倍。值得注意的是,通過人工直接標注大規(guī)模的占用標簽幾乎是不現(xiàn)實的。因此引入了Augmenting And Purifying (AAP)流程,以高效地標注和稠密的占用標簽。

64b7a02c-3a2e-11ee-9e74-dac502259ad0.png

圖1:nuScenes-Occupancy為nuScenes數(shù)據(jù)集中的所有關(guān)鍵幀提供了稠密的語義占用網(wǎng)格標簽,在這里展示了標注的地面真值,體積大小為(40 × 512 × 512),網(wǎng)格大小為0.2米。

圖1展示了稠密標注的可視化效果。為了促進未來研究,我們在OpenOccupancy基準中建立了基于相機、基于LiDAR和多模式的基線。實驗結(jié)果顯示,基于相機的方法在小物體(如自行車、行人、摩托車)方面表現(xiàn)更好,而基于LiDAR的方法在大型結(jié)構(gòu)區(qū)域(如行駛表面、人行道)方面表現(xiàn)更優(yōu)。值得注意的是,多模式基線通過自適應融合兩種模態(tài)的中間特征,相對提高了基于相機和基于LiDAR方法的整體性能,分別提升了47%和29%。考慮到周圍占用感知的計算負擔,所提出的基線只能生成低分辨率的預測。為了實現(xiàn)高效的占用感知,我們提出了級聯(lián)占用網(wǎng)絡(CONet),在所提出的基線之上構(gòu)建了一個從粗糙到精細的流程,相對提高了性能約30%。主要貢獻總結(jié)如下:

提出了OpenOccupancy,這是第一個針對駕駛場景中周圍占用感知的基準。

通過nuScenes數(shù)據(jù)集引入了AAP流程,它高效地標注和稠密化了周圍語義占用標簽,結(jié)果形成了第一個用于周圍語義占用分割的數(shù)據(jù)集nuScenes-Occupancy。

我們在OpenOccupancy基準上建立了基于相機、基于LiDAR和多模式的基線。此外,我們引入了CONet來減輕高分辨率占用預測的計算負擔,相對提高了基線性能約30%。

主要內(nèi)容

周視語義占用網(wǎng)格感知

周視語義占用感知是指生成場景的完整3D表示,包括體積占用和語義標簽,與前視圖感知的單目范例不同,周視占用感知算法旨在在周圍視圖的駕駛場景中生成語義占用,具體而言,給定360度的輸入Xi(例如LiDAR掃描或周圍視圖圖像),感知算法需要預測周圍的占用標簽F(Xi) ∈ R D×H×W,其中D、H、W是整個場景的體積大小。值得注意的是,周視圖的輸入范圍比前視覺傳感器覆蓋的范圍大約多了5倍,因此,周視占用網(wǎng)格感知的核心挑戰(zhàn)在于高效構(gòu)建高分辨率的占用表示。

nuScenes-Occupancy

SemanticKITTI 是首個用于室外占據(jù)感知的數(shù)據(jù)集,但在駕駛場景方面缺乏多樣性,并且僅評估前視感知,為了創(chuàng)建一個大規(guī)模的環(huán)境占據(jù)感知數(shù)據(jù)集,我們引入了nuScenes-Occupancy,它在nuScenes數(shù)據(jù)集的基礎上添加了稠密的語義占用標注。作者引入了AAP(Augmenting And Purifying)流程來高效地標注和密集化占據(jù)標簽。

整個AAP流程如算法1所示。

64e757e0-3a2e-11ee-9e74-dac502259ad0.png

如圖2所示,偽標簽對初始標注是補充的,而增強和純化標簽更密集和精確,值得注意的是增強和純化標注中每個幀中約有40萬個占據(jù)體素,比初始標注密集了約2倍??傊?,nuScenes-Occupancy包含28130個訓練幀和6019個驗證幀,在每個幀中對占據(jù)的體素分配了17個語義標簽。

65176872-3a2e-11ee-9e74-dac502259ad0.png

圖2:初始標注、偽標注和增強純化標注之間的對比,紅圈和藍圈突出顯示增強標注更加密集和準確的區(qū)域。

OpenOccupancy基線

大多數(shù)現(xiàn)有的占據(jù)感知方法都是為前視感知而設計的,為了將這些方法擴展到周圍的占據(jù)感知,需要對每個相機視角的輸入進行單獨處理,這是低效的。此外,兩個相鄰輸出的重疊區(qū)域可能存在不一致性,為了緩解這些問題,我們建立了一致地從360度輸入(例如LiDAR掃描或環(huán)視圖像)中學習周圍語義占據(jù)的基線,具體而言,為OpenOccupancy基準提出了基于相機的、基于LiDAR的和多模態(tài)的基線,如圖3所示。

6535c9b6-3a2e-11ee-9e74-dac502259ad0.png

圖3:三種提出的基線的整體架構(gòu),LiDAR分支利用3D編碼器提取體素化的LiDAR特征,相機分支使用2D編碼器學習環(huán)視圖特征,然后將其轉(zhuǎn)換為生成3D相機體素特征,在多模態(tài)分支中,自適應融合模塊動態(tài)地集成兩種模態(tài)的特征。所有三個分支都利用3D解碼器和占據(jù)頭來產(chǎn)生語義占據(jù),在占據(jù)結(jié)果圖中,紅色和紫色圈圈標示出多模態(tài)分支可以生成更完整和準確的預測。

實驗

在OpenOccupancy基準測試中,基于nuScenes-Occupancy評估周圍語義占據(jù)感知性能,對提出的基線、CONet和現(xiàn)代占據(jù)感知算法進行全面實驗。所有模型在8個A100 GPU上以8個批次大小進行訓練,共訓練24個時期。利用OpenOccupancy基準測試,我們分析了六種現(xiàn)代方法(MonoScene ,TPVFormer,3DSketch ,AICNet ,LMSCNet,JS3C-Net )以及提出的基線和CONet的周圍占據(jù)感知性能,從表2的結(jié)果可以看出:

與單視圖方法相比,周圍占據(jù)感知范式表現(xiàn)出更好的性能。

提出的基線對周圍占據(jù)感知具有適應性和可擴展性。

相機和LiDAR的信息相互補充,多模態(tài)基線顯著提高了性能。

周視占據(jù)感知的復雜性在于高分辨率3D預測的計算負擔,這可以通過提出的CONet來減輕。

657dcea0-3a2e-11ee-9e74-dac502259ad0.png

這里提供可視化結(jié)果(見圖5)來驗證CONet可以基于粗糙預測生成精細的占據(jù)網(wǎng)格結(jié)果。

65a2f45a-3a2e-11ee-9e74-dac502259ad0.png

圖5:語義占據(jù)預測的可視化,第1行是周視圖像。第2行和第3行顯示了由多模態(tài)基線和多模態(tài)CONet生成的相機視圖的粗糙和精細占據(jù),第4行比較了它們的全局視圖預測。

總結(jié)

本文提出了OpenOccupancy,這是首個用于駕駛場景中周視語義占據(jù)感知的基準測試,具體而言引入了nuScenes-Occupancy,它基于提出的AAP流水線擴展了nuScenes數(shù)據(jù)集,帶有稠密的語義占據(jù)標注,在OpenOccupancy基準測試中建立了基于相機、基于LiDAR和多模態(tài)的基線。此外還提出了CONet來減輕高分辨率占據(jù)預測的計算負擔。在OpenOccupancy基準測試中進行了全面的實驗,結(jié)果顯示基于相機和基于LiDAR的基線相互補充,而多模態(tài)基線進一步提高了性能,分別提高了47%和29%。此外所提出的CONet相對于基線提高了約30%,并且延遲開銷最小。我們希望OpenOccupancy基準測試對于周視語義占據(jù)感知的發(fā)展有所幫助。






審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2550

    文章

    51035

    瀏覽量

    753073
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3638

    瀏覽量

    134426
  • 視覺傳感器
    +關(guān)注

    關(guān)注

    3

    文章

    249

    瀏覽量

    22872
  • 自動駕駛
    +關(guān)注

    關(guān)注

    784

    文章

    13784

    瀏覽量

    166385
  • LiDAR芯片
    +關(guān)注

    關(guān)注

    1

    文章

    17

    瀏覽量

    3211

原文標題:OpenOccupancy:一個用于周視語義占用網(wǎng)格感知的基準測試

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    未來已來,多傳感器融合感知是自動駕駛破局的關(guān)鍵

    識別率,為車廠增加智能駕駛的核心競爭力。 此外, 多維像素還可以直接高效支持“占用網(wǎng)絡” (Occupancy Network)算法。 占用網(wǎng)格是指將感知空間劃分為
    發(fā)表于 04-11 10:26

    集成語義和多Agent 的網(wǎng)格資源發(fā)現(xiàn)模型

    將P2P技術(shù)應用到網(wǎng)格環(huán)境中,可為網(wǎng)格的可擴展性提供更好的解決方案。該文提出種基于P2P模式的網(wǎng)格資源發(fā)現(xiàn)模型,將資源的發(fā)現(xiàn)分為2 階段
    發(fā)表于 04-22 09:37 ?9次下載

    基于感知網(wǎng)格的無線傳感器網(wǎng)絡動態(tài)采樣策略_趙意

    基于感知網(wǎng)格的無線傳感器網(wǎng)絡動態(tài)采樣策略_趙意
    發(fā)表于 03-19 19:25 ?0次下載

    基于語義與事務屬性的QoS感知的服務優(yōu)化選擇

    服務級別協(xié)議(SLA)等級感知的服務選擇是NP難題。針對服務選擇中維度與粒度方面的問題,提出結(jié)合語義與事務屬性的服務質(zhì)量( QoS)感知的服務優(yōu)化選擇模型。該模型從語義鏈接匹配度、Qo
    發(fā)表于 12-14 10:16 ?0次下載
    基于<b class='flag-5'>語義</b>與事務屬性的QoS<b class='flag-5'>感知</b>的服務優(yōu)化選擇

    基于語義的文本語義分析

    ,利用HowNet提供的情感詞詞典來進行文本的語義分析,對文本短語或詞逐賦予情感值,然后用語義和義元相似度計算的方法,計算文本中詞語的
    發(fā)表于 12-15 16:35 ?6次下載

    文看懂單電壓基準與雙電壓基準區(qū)別

    本文主要詳解單電壓基準與雙電壓基準區(qū)別,分別從三拓撲結(jié)構(gòu),性能方面的不同以及占用的空間和成本方面來詳細的解說。
    發(fā)表于 04-16 10:57 ?2w次閱讀
    <b class='flag-5'>一</b>文看懂單電壓<b class='flag-5'>基準</b>與雙電壓<b class='flag-5'>基準</b>區(qū)別

    套全新的手機系統(tǒng)測試基準

    同心協(xié)力的議題,卻往往最具爭議性,這實在是很諷刺的狀況;在那些議題中,爭議性最大的又莫過于性能基準測試(performance benchmarking)。幸好,我們正緩慢地朝正確的方向前進,但還需要
    發(fā)表于 09-16 15:47 ?414次閱讀

    如何使用語義感知來進行圖像美學質(zhì)量評估的方法

    當前圖像美學質(zhì)量評估的研究主要基于圖像的視覺內(nèi)容來給出評價結(jié)果,忽視了美感是人的認知活動的事實,在評價時沒有考慮用戶對圖像語義信息的理解。為了解決這問題,提出了種基于語義
    發(fā)表于 11-16 15:37 ?11次下載
    如何使用<b class='flag-5'>語義</b><b class='flag-5'>感知</b>來進行圖像美學質(zhì)量評估的方法

    MySQL基準測試和sysbench工具

    、基準測試簡介 1、什么是基準測試 數(shù)據(jù)庫的基準測試
    的頭像 發(fā)表于 01-06 16:01 ?1676次閱讀
    MySQL<b class='flag-5'>基準</b><b class='flag-5'>測試</b>和sysbench工具

    結(jié)合監(jiān)督學習的多層感知機模型

    現(xiàn)有的網(wǎng)格簡化算法通常要求人為給定模型整體簡化率或者設置幾何、顏色、紋理等屬性的約束,如何合理地設置這些閾值對沒有經(jīng)驗的用戶來說比較困難。文中結(jié)合監(jiān)督學習的方法,構(gòu)建多層感知機模型
    發(fā)表于 05-11 15:06 ?3次下載

    地平線推出業(yè)內(nèi)首個感知NOA方案Pilot 3

    為了更好地提升智能駕駛體驗,地平線推出了業(yè)內(nèi)首個可對客戶大規(guī)模交付的感知NOA方案——Horizon Matrix? Pilot 3 (以下簡稱Pilot 3),方案基于3顆高性能的征程3芯片
    的頭像 發(fā)表于 05-06 14:23 ?2419次閱讀

    介紹JavaScript數(shù)據(jù)網(wǎng)格組件

    FusionGrid是高度直觀且可自定義的JavaScript數(shù)據(jù)網(wǎng)格組件,適用于網(wǎng)絡和移動應用程序。它允許您在儀表板中構(gòu)建數(shù)據(jù)網(wǎng)格,與
    的頭像 發(fā)表于 08-20 16:37 ?1035次閱讀

    語義分割數(shù)據(jù)集:從理論到實踐

    語義分割是計算機視覺領域中的重要問題,它的目標是將圖像或視頻中的語義信息(如人、物、場景等)從背景中分離出來,以便于進行目標檢測、識別和分類等任務。
    的頭像 發(fā)表于 04-23 16:45 ?927次閱讀

    自動駕駛中基于網(wǎng)格的交通場景感知介紹

    本文介紹了自動駕駛中基于網(wǎng)格的交通場景感知:研究綜述?;?b class='flag-5'>網(wǎng)格感知是移動機器人感知和導航的關(guān)鍵領域。
    發(fā)表于 08-03 11:51 ?545次閱讀
    自動駕駛中基于<b class='flag-5'>網(wǎng)格</b>的交通場景<b class='flag-5'>感知</b>介紹

    MLCommons推出AI基準測試0.5版

    開放式機器學習工程聯(lián)盟 MLCommons 在美國加州當?shù)貢r間公布推出適用于消費類 PC 的 AI 性能的 MLPerf Client 基準測試的 0.5 版,這是該測試的第
    的頭像 發(fā)表于 12-12 16:47 ?284次閱讀
    RM新时代网站-首页