RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

建筑物邊緣感知和邊緣融合的多視圖立體三維重建方法

新機(jī)器視覺 ? 來源:數(shù)智地球 ? 2024-11-07 10:16 ? 次閱讀

轉(zhuǎn)載自:數(shù)智地球

航空建筑深度估計是三維數(shù)字城市重建中的一項重要任務(wù),基于深度學(xué)習(xí)的多視圖立體(MVS)方法在該領(lǐng)域取得了較好的成果。目前的主要方法通過修改MVS 框架實(shí)現(xiàn)建筑物的深度估計,缺乏對建筑物內(nèi)在結(jié)構(gòu)的考慮,易導(dǎo)致精度不足等問題。

本文提出了一種新穎的由粗到細(xì)的多視圖立體三維重建框架 EG-MVSNet,利用邊緣信息感知抽取機(jī)制以及邊緣信息多維融合機(jī)制實(shí)現(xiàn)了建筑物邊緣信息指導(dǎo)的深度估計,使得模型能夠估計準(zhǔn)確的建筑物深度圖,進(jìn)而實(shí)現(xiàn)高精度的建筑物三維點(diǎn)云重建。

我們分別在WHU-MVS 數(shù)據(jù)集和LuoJia-MVS 數(shù)據(jù)集上進(jìn)行大量實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明我們的方法達(dá)到了最佳水平,并具有在其他領(lǐng)域推廣使用的潛力。本文相關(guān)科研成果已于2023年12月被ISPRS期刊接收。

背景介紹

近年來,MVSNet通過構(gòu)建基于CNN特征的代價體,并使用3D CNN對其進(jìn)行正則化,在獲取深度圖等任務(wù)中表現(xiàn)出色。一些研究人員嘗試將該方法應(yīng)用于基于航空圖像的大規(guī)模航空MVS重建,如 RED-Net、MS-REDNet 和 HDC-MVSNet,卻未考慮建筑物體本身結(jié)構(gòu)特征,導(dǎo)致重建精度較低。

具體來說,航拍視角通常會將建筑物與相鄰地形緊緊相連,因此當(dāng)航拍圖像采用傾斜攝影、照明不足或圖像分辨率較低時,較難分辨出建筑物與地形的邊緣,導(dǎo)致相鄰地形的邊緣干擾建筑物表面深度值的分布,我們將該現(xiàn)象定義為深度粘連。該問題會導(dǎo)致航拍建筑物深度估計不準(zhǔn)確,進(jìn)一步影響到建筑物的精確重建。

如圖1中(b)所示,可以清楚地觀察到,不考慮建筑物邊緣信息的通用方法在航空建筑物圖像深度估計結(jié)果中容易出現(xiàn)前景(建筑物)與背景(地形)之間深度粘連的問題。

wKgaoWcsIw6AKA6iAACW1anHSlA856.jpg

圖1 深度粘連問題的對比結(jié)果

在邊緣檢測領(lǐng)域,邊緣信息明確對應(yīng)著劇烈的梯度變化,因此融合邊緣信息有助于獲得更精確、更銳利的遮罩,緩解深度粘連問題。如圖1中(c)和(d)所示,在引入邊緣特征信息后可獲得更加精確的結(jié)果。綜上所述,如何提取有效的建筑物邊緣信息,同時將其融合至MVSNet網(wǎng)絡(luò)框架中是本文的主要研究內(nèi)容。

方法介紹

2.1 整體框架

wKgZoWcsIw6AHb4uAAFJ2ozWgiw122.jpg

圖2 EG-MVSNet框架。網(wǎng)絡(luò)由兩部分組成,分別獲得邊緣圖、粗深度圖和精深度圖(紅框中展示了各圖的細(xì)節(jié)對比)。圖中粗體部分為提出的模塊,SFENet和代價體正則化網(wǎng)絡(luò)的架構(gòu)源自RED-Net。

網(wǎng)絡(luò)流程描述:

(1)建筑物邊緣特征提?。?/strong>第一部分的目的是獲取精確可靠的建筑邊緣特征,以便實(shí)現(xiàn)特征融合。具體來說,為了有效編碼邊緣特征,我們提出了一個邊緣感知網(wǎng)絡(luò)(Edge-Sensitive Network, ESNet)。基于提取的邊緣特征,可以通過可微的單映性變換構(gòu)建邊緣特征體 ,該特征體可以和標(biāo)準(zhǔn)代價體進(jìn)行融合,從而在第二部分對深度估計隱式地三維引導(dǎo)正則化。為確保 ESNet 主要關(guān)注建筑邊緣特征而非其他無關(guān)特征,我們利用類似于 UNet 的邊緣預(yù)測分支(EPB)預(yù)測邊緣圖 ,并利用建筑邊緣深度損失(BED-Loss)計算邊緣圖與生成的GT真實(shí)邊緣圖之間的損失,從而實(shí)現(xiàn)對于邊緣提取分支的約束。

(2)建筑物邊緣特征融合:第二部分旨在將建筑邊緣特征融合至標(biāo)準(zhǔn)MVS框架,即分別從2D和3D兩個維度對深度圖預(yù)測進(jìn)行引導(dǎo)。為了實(shí)現(xiàn)隱式的三維引導(dǎo),設(shè)計體間自適應(yīng)融合模塊(Inter-volume Adaptive Fusion Module, IAFM)融合邊緣特征體和標(biāo)準(zhǔn)代價體,從而得到邊緣引導(dǎo)代價體,進(jìn)一步通過3D-UNet來預(yù)測粗深度圖。為了實(shí)現(xiàn)顯式的2D引導(dǎo),設(shè)計邊緣深度細(xì)化模塊(EDRM),利用邊緣特征來細(xì)化粗糙深度圖,得到細(xì)化的深度圖。

2.2 邊緣感知網(wǎng)絡(luò)(ESNet)

為提取精確的建筑物邊緣特征我們提出ESNet 。目前的邊緣檢測網(wǎng)絡(luò)缺乏識別航空圖像中建筑物邊緣的能力,因此ESNet 的設(shè)計考慮到了建筑物和MVSNet的特點(diǎn)。具體來說,由于索貝爾算子在經(jīng)典的邊緣檢測算法中被廣泛用于獲取線性信息,因此為了捕捉建筑物的剛性結(jié)構(gòu),我們將傳統(tǒng)的索貝爾算子轉(zhuǎn)化為動態(tài)的索貝爾核(DSK),如圖3所示。

wKgZoWcsIw6AP-64AAD9HKFBTzI924.jpg

圖3 不同形式的索貝爾算子和可學(xué)習(xí)索貝爾核的圖示。(a) 顯示了四種不同形式的不可學(xué)習(xí)索貝爾算子。(b) 顯示參數(shù)化后的可微分索貝爾核

基于上述動態(tài)的索貝爾核,可以將索貝爾算子轉(zhuǎn)換為可學(xué)習(xí)的卷積核實(shí)現(xiàn)模型優(yōu)化,提高模型對于線性特征的編碼能力。線性特征是由水平線、垂直線和斜線組成的,如果僅使用單一方向的線性特征提取 DSK(如 0° DSK 或 90° DSK),提取的斜線特征往往不夠充分。因此,我們將上述不同的 DSK 組合至同一層中,實(shí)現(xiàn)對任意方向的線性特征進(jìn)行編碼,有效捕捉了建筑物的邊緣結(jié)構(gòu)。

wKgaoWcsIw6AXTzMAADztDIk0Dw992.jpg

圖4 ESNet圖示。左圖:ESNet 由三個級聯(lián) DSK卷積組成。右圖:每個DSK卷積層的四路DSK

DSK 卷積層示意圖如圖4所示,使用四個不同方向的可微分DSK構(gòu)建 DSK卷積層從而實(shí)現(xiàn)對于復(fù)雜建筑的邊緣感知,進(jìn)一步將每個分支提取的特征圖串聯(lián)起來,得到最終的建筑物邊緣特征圖。每個分支分別對應(yīng) 0° DSK、45° DSK、90° DSK 和 135° DSK,每個分支使用不同類型的可微分 DSK 來提取線性特征。使用兩個卷積層對特征進(jìn)行去噪和降采樣,融合各分支提取的特征之后,得到最終的建筑邊緣特征圖。DSK卷積層的公式定義如下:

wKgaoWcsIw6AZTVCAACB8DR8JMo747.jpg

其中,[·]表示連接操作,wbi 分別代表各分支的卷積權(quán)重。

2.3 邊緣預(yù)測網(wǎng)絡(luò)(EPB)

基于ESNet提取的邊緣特征,我們提出了一個類似于UNet的邊緣預(yù)測分支。通過對邊緣特征進(jìn)行回歸,約束ESNet,使網(wǎng)絡(luò)重點(diǎn)關(guān)注建筑物邊緣特征,同時減少對其他無關(guān)特征的提取??紤]到邊緣圖預(yù)測類似于語義分割任務(wù),且UNet在語義分割任務(wù)中已經(jīng)取得了巨大成功,因此我們考慮在UNet的基礎(chǔ)上設(shè)計我們的邊緣圖預(yù)測分支,對邊緣特征進(jìn)行回歸以生成邊緣圖用于損失計算。EPB的整體架構(gòu)如圖2右上角所示。

具體來說,EPB使用2D UNet網(wǎng)絡(luò)回歸參考圖像邊緣特征,得到邊緣圖。EPB采用了編碼器-解碼器結(jié)構(gòu),可以有效地從寬廣的感受野中收集鄰近信息,而不會產(chǎn)生過多的內(nèi)存和計算消耗。在下采樣階段,邊緣特征被逐步下采樣為對應(yīng)于不同尺度的四個邊緣中間特征圖。隨后,解碼器對邊緣中間特征圖進(jìn)行上采樣,以恢復(fù)原始圖像大小,獲得邊緣圖。

EPB明確利用邊緣特征,同時隱式地優(yōu)化了深度圖,有效減輕了深度粘連問題。這一預(yù)測過程提高了邊緣特征的準(zhǔn)確性和可靠性,而邊緣特征在我們的整體框架中發(fā)揮著關(guān)鍵作用。此外,EPB提供可視化結(jié)果,對于驗(yàn)證方法的有效性并確保其達(dá)到預(yù)期目標(biāo)至關(guān)重要。

2.4 體間自適應(yīng)融合模塊(IAFM)

IAFM 的設(shè)計目的是將第1部分提取的2D建筑邊緣特征融入到MVS框架中,以此來指導(dǎo)3D代價體的正則化。因此需要將2D邊緣特征轉(zhuǎn)換為3D特征,以實(shí)現(xiàn)這種結(jié)合。MVSNet中的3D代價體是通過匹配不同深度、不同視圖以及不同空間位置的2D特征點(diǎn)之間的相似性來構(gòu)建的。受這一機(jī)制的啟發(fā),我們也采用了可微分單映性變換(differentiable homography warping)來構(gòu)建3D邊緣特征體,變換公式如下所示:

wKgaoWcsIw6AbSgwAAATsq4Jqhg512.jpg

式中,T, K 分別代表相機(jī)的內(nèi)外參數(shù)。通過上述操作,我們將2D邊緣特征轉(zhuǎn)換至3D域。然而,在構(gòu)建的邊緣特征體中,并非所有的邊緣匹配信息都是有效的,我們的目標(biāo)是在融合過程中只將有效信息有選擇地融合到3D代價體中,而忽略無關(guān)信息。直接求和可能會導(dǎo)致邊緣特征體中的無效代價信息影響到代價體中的有效代價信息,如表面代價信息。因此,如果能自適應(yīng)地將有效的邊緣代價信息整合到代價體中,就能減輕無效代價信息的影響。

受啟發(fā)于注意力機(jī)制,我們提出了一種基于注意力機(jī)制的體間自適應(yīng)融合模塊(IFAM),通過利用注意力機(jī)制(由多個疊加卷積構(gòu)建)來增強(qiáng)邊緣代價信息,抑制非邊緣代價信息,從而增強(qiáng)邊緣特征體與代價體的融合。我們的IFAM 結(jié)構(gòu)如圖5所示。

wKgaoWcsIw6AX6edAADm5QdgwUQ772.jpg

圖5 IFAM圖示

具體來說,IFAM 通過應(yīng)用多個帶跳轉(zhuǎn)連接的疊加卷積來計算邊緣特征體的邊緣增強(qiáng)體。同樣,標(biāo)準(zhǔn)代價體的信息增強(qiáng)體也通過類似的機(jī)制獲得。IFAM 通過元素相加的方式實(shí)現(xiàn)融合,在兩個卷積層之后得到最終的邊緣引導(dǎo)代價體。因此,IFAM可以定義成如下公式:

wKgZoWcsIw6AHbl9AAAuUWQx2H0419.jpg

綜上,IAFM即可通過使用邊緣特征引導(dǎo)標(biāo)準(zhǔn)代價體,進(jìn)而獲得更精確、更有效的深度圖。

2.5 邊緣深度細(xì)化模塊(EDRM)

然從概率體中得到深度圖是一個有效的輸出,但由于正則化過程中涉及到較大的感受野,可能會出現(xiàn)深度邊界過度平滑或模糊等問題,這是語義分割和圖像去噪任務(wù)中的一個常見問題。因此,可以在粗深度圖中加入邊緣特征,以獲得更詳細(xì)的邊緣信息并明確深度邊界,進(jìn)而緩解上述問題。

受此啟發(fā),通過探索使用2D邊緣特征完善初始粗深度圖,進(jìn)而增強(qiáng)建筑邊緣深度估計結(jié)果并提高深度圖的整體質(zhì)量。因此提出邊緣深度細(xì)化模塊(EDRM),利用提取的參考邊緣特征來優(yōu)化深度圖。

EDRM的結(jié)構(gòu)見圖2右下方。在該模塊中,我們首先將粗深度圖Dc與邊緣特征Fe0連接起來,然后將通過應(yīng)用于粗深度圖的兩個卷積層獲得的邊緣殘差信息納入其中。這一聚合過程能夠整合邊緣信息,并生成邊緣增強(qiáng)深度圖。最后,使用四個卷積層對邊緣增強(qiáng)深度圖進(jìn)行過濾,生成細(xì)化深度圖Dr。EDRM的公式可以定義為:

wKgZoWcsIw6AZmZ0AAAU5j-8IDo159.jpg

實(shí)驗(yàn)結(jié)果

3.1 WHU-MVS數(shù)據(jù)集

EG-MVSNet在WHU-MVS數(shù)據(jù)集上的結(jié)果如下表1所示:

wKgZoWcsIw6AT8rrAAMI-RjFyCI451.png

表1 EG-MVSNet在WHU-MVS數(shù)據(jù)集定量分析

我們在WHU-MVS數(shù)據(jù)集上與現(xiàn)有最優(yōu)方法的定量對比如上表所示。我們具體對比了兩種視圖作為輸入(三視圖和五視圖)的結(jié)果,從結(jié)果上可以看出我們的方法都取得了最優(yōu)性能。其中,我們的方法在MAE指標(biāo)上,在三視圖上得到了0.097的結(jié)果,在五視圖上得到了0.081的結(jié)果,相較其他方法均得到了顯著提升。

EG-MVSNet在WHU-MVS數(shù)據(jù)集上深度估計對比圖如下圖6所示:

wKgaoWcsIw6ARogLAAJQeQlUTLs644.jpg

圖6 EG-MVSNet在WHU-MVS數(shù)據(jù)集深度估計對比圖

圖6展示了EG-MVSNet與大多數(shù)最優(yōu)方法的定性結(jié)果對比。如圖中邊緣圖的結(jié)果可以看出,我們的方法能夠準(zhǔn)確的估計出建筑物的邊緣圖。對比圖中局部細(xì)節(jié)的深度圖結(jié)果可以看出,我們的方法能夠估計出更加準(zhǔn)確的深度結(jié)果,有效的解決了深度粘連的問題。

3.2 LuoJia-MVS數(shù)據(jù)集

EG-MVSNet在Luo-Jia-MVS數(shù)據(jù)集上的結(jié)果如下表2所示:

wKgaoWcsIw6AcigbAAHQl7EcfrM221.png

表2 EG-MVSNet在LuoJia-MVS數(shù)據(jù)集定量分析

表2展示了我們的模型的其他地物要素類型數(shù)據(jù)集上的泛化能力。從上表可以看出無論是在三視圖估計亦或五視圖的深度估計上,我們的模型均可以取得相對不錯的效果。

EG-MVSNet在LuoJia-MVS數(shù)據(jù)集上可視化效果對比圖如下圖7所示:

wKgZoWcsIw6AX545AAH-bheaqRg130.jpg

圖7 EG-MVSNet 在LuoJia-MVS數(shù)據(jù)集上可視化效果對比圖

從圖7可以看出,相比較于其他方法深度估計結(jié)果所展現(xiàn)出的深度粘連問題,我們的方法得益于能夠準(zhǔn)確的估計出建筑物的深度圖并且進(jìn)行充分的融合,能夠有效的解決深度粘連的問題,進(jìn)一步的提升了模型深度估計的質(zhì)量。

3.3 邊緣特征可視化

wKgZoWcsIw6ADiIrAARVPGeRJng055.jpg

圖8 邊緣特征可視化結(jié)果

圖8為模型提取的邊緣特征圖可視化結(jié)果,觀察可知基于DSK卷積層,模型提取了十分準(zhǔn)確的建筑邊緣線性特征。從圖中右側(cè)部分可以看出模型估計的邊緣圖和原始圖像中建筑物的邊緣十分貼合,進(jìn)一步證明了模型估計邊緣的準(zhǔn)確性。

3.4 重建結(jié)果

如圖9所示是我們的模型對于城市區(qū)域的點(diǎn)云重建結(jié)果:

wKgaoWcsIw6AGuo5AAQmWAuLwJY071.jpg

圖9 城市區(qū)域點(diǎn)云重建實(shí)驗(yàn)結(jié)果

如圖9所示,EG-MVSNet通過引入建筑物邊緣信息,基于高精度深度圖,較好地完成了城市區(qū)域的點(diǎn)云重建任務(wù)。

結(jié)論

我們提出了一種用于大規(guī)模航空建筑物多視圖立體的邊緣信息引導(dǎo)深度推理網(wǎng)絡(luò) EG-MVSNet,通過引入建筑物邊緣特征信息緩解深度粘連的問題,從而進(jìn)一步提高了估計深度圖的精度。

該網(wǎng)絡(luò)包括用于提取建筑物邊緣特征的邊緣感知網(wǎng)絡(luò)(ESNet)、用于建筑物邊緣預(yù)測網(wǎng)絡(luò)(EPB)和用于邊緣信息融合的體間自適應(yīng)融合模塊(IAFM)以及邊緣深度細(xì)化模塊(EDRM)。

實(shí)驗(yàn)結(jié)果表明,我們提出的方法達(dá)到了最先進(jìn)的性能,與所有列出的方法相比,具有極強(qiáng)的泛化能力。此外通過額外的定性實(shí)驗(yàn)以及可視化展示證明了我們的方法能夠有效的提取建筑物的邊緣信息,有效的解決了深度粘連的問題。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 航空
    +關(guān)注

    關(guān)注

    2

    文章

    790

    瀏覽量

    27337
  • 三維重建
    +關(guān)注

    關(guān)注

    0

    文章

    26

    瀏覽量

    9919
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5500

    瀏覽量

    121111

原文標(biāo)題:建筑物邊緣感知和邊緣融合的多視圖立體三維重建方法

文章出處:【微信號:vision263com,微信公眾號:新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    大型水利水電工程建筑物三維可視化建模技術(shù)研究

    或部件;能夠通過獨(dú)立的數(shù)學(xué)描述各模塊的特征。三維可視化模型模塊之間的關(guān)系決定,對建筑物實(shí)體的描述可以通過以下方法實(shí)現(xiàn):針對單純以簡單物體粘合形式構(gòu)成的物體可以通過空間分割描述,如長方體、圓柱體等;針對
    發(fā)表于 10-22 08:09

    怎樣去設(shè)計一種基于RGB-D相機(jī)的三維重建無序抓取系統(tǒng)?

    為什么要開發(fā)一種三維重建無序抓取系統(tǒng)?三維重建無序抓取系統(tǒng)是由哪些部分組成的?三維重建無序抓取系統(tǒng)有哪些關(guān)鍵技術(shù)和創(chuàng)新點(diǎn)?
    發(fā)表于 07-02 06:29

    如何去開發(fā)一款基于RGB-D相機(jī)與機(jī)械臂的三維重建無序抓取系統(tǒng)

    基于RGB-D相機(jī)與機(jī)械臂的三維重建無序抓取系統(tǒng)有哪些關(guān)鍵技術(shù)?如何去開發(fā)一款基于RGB-D相機(jī)與機(jī)械臂的三維重建無序抓取系統(tǒng)?基于RGB-D相機(jī)與機(jī)械臂的三維重建無序抓取系統(tǒng)是由哪些部分組成的?
    發(fā)表于 09-08 06:12

    仿古建筑南普陀寺三維重建方法研究

    本文以廈門南普陀寺內(nèi)的大雄寶殿為虛擬建模對象,研究了結(jié)合3DS MAX 和MultiGen Creator對古建筑三維重建的新技術(shù)方法,解決了虛擬古建筑
    發(fā)表于 12-19 14:08 ?13次下載

    MC三維重建算法的二義性消除研究

    面繪制法進(jìn)行三維重建三維重建技術(shù)的主要方法,Marching Cubes(移動立方體)算法是經(jīng)典的面繪制法。本文在剖析了MC 算法的基礎(chǔ)上,針對其存在的二義性問題,給出了消除二義性
    發(fā)表于 01-22 12:02 ?21次下載

    基于FPGA的醫(yī)學(xué)圖像三維重建系統(tǒng)設(shè)計與實(shí)現(xiàn)

    目前大部分的醫(yī)學(xué)圖像三維重建過程都是在PC機(jī)上完成的,由于PC機(jī)本身性能的限制和重建算法的復(fù)雜性,使得重建效率不高。針對這個問題,設(shè)計與實(shí)現(xiàn)了一個基于FPGA(Field Programmable Gate Array,現(xiàn)場可編
    發(fā)表于 03-15 13:52 ?44次下載

    三維建筑物精細(xì)模型重建

    基于單幅圖像的城市建筑物建模是計算機(jī)圖形學(xué)和計算機(jī)視覺的一個研究熱點(diǎn).針對具有顯著重復(fù)結(jié)構(gòu)特征的單幅城市建筑物輸入圖像,提出了一種通過簡單交互方便、快速地生成建筑物三維模型中精細(xì)細(xì)節(jié)結(jié)
    發(fā)表于 01-08 16:17 ?0次下載

    AI+AR將用于智能三維重建領(lǐng)域

    AI與AR的關(guān)系日漸微妙,正在不斷融合、相互促進(jìn)。在計算機(jī)視覺中, 三維重建是指根據(jù)單視圖或者視圖的二
    發(fā)表于 09-21 10:33 ?4616次閱讀

    NVIDIA Omniverse平臺助力三維重建服務(wù)協(xié)同發(fā)展

    計算機(jī)視覺的進(jìn)步為元宇宙的數(shù)字孿生應(yīng)用打下堅實(shí)基礎(chǔ)。在計算機(jī)視覺中,三維重建是指根據(jù)單視圖或者視圖的圖像重建
    的頭像 發(fā)表于 10-13 09:45 ?1171次閱讀

    深度學(xué)習(xí)背景下的圖像三維重建技術(shù)進(jìn)展綜述

    根據(jù)三維模型的表示形式可以將圖像三維重建方法分類為基于體素的三維重建、基于點(diǎn)云的三維重建和基于網(wǎng)格的三維
    的頭像 發(fā)表于 01-09 14:26 ?2511次閱讀

    NerfingMVS:引導(dǎo)優(yōu)化神經(jīng)輻射場實(shí)現(xiàn)室內(nèi)視角三維重建

    既然Nerf可以表示場景的三維信息,一個自然的想法是能不能將NeRF應(yīng)用到室內(nèi)場景三維重建任務(wù)中呢。NeRF有著一些優(yōu)勢:相較于傳統(tǒng)的MVS,SfM算法,NeRF蘊(yùn)含了整個場景的信息,所以有潛力重建出低紋理區(qū)域的
    的頭像 發(fā)表于 02-13 11:20 ?3032次閱讀

    三維重建:從入門到入土

    經(jīng)典三維重建系統(tǒng)的整個pipeline從相機(jī)標(biāo)定、基礎(chǔ)矩陣與本質(zhì)矩陣估計、特征匹配到運(yùn)動恢復(fù)結(jié)構(gòu)(SFM),從SFM到稠密點(diǎn)云重建、表面重建、紋理貼圖。熟悉SFM的工程師已經(jīng)是行業(yè)內(nèi)的佼佼者,能掌握
    的頭像 發(fā)表于 03-03 10:17 ?1183次閱讀

    如何實(shí)現(xiàn)整個三維重建過程

    在計算機(jī)視覺中,三維重建是指根據(jù)單視圖或者視圖的圖像重建三維信息的過程。由于單視頻的信息不完全
    發(fā)表于 09-01 11:06 ?1648次閱讀
    如何實(shí)現(xiàn)整個<b class='flag-5'>三維重建</b>過程

    基于光學(xué)成像的物體三維重建技術(shù)研究

    三維重建的一種重要方法,具有成本低、精度高等優(yōu)點(diǎn),因此越來越受到人們的關(guān)注和青睞。本文就基于光學(xué)成像的物體三維重建技術(shù)進(jìn)行研究和探討。
    的頭像 發(fā)表于 09-15 09:29 ?884次閱讀
    基于光學(xué)成像的物體<b class='flag-5'>三維重建</b>技術(shù)研究

    留形科技借助NVIDIA平臺提供高效精確的三維重建解決方案

    本案例中,留形科技借助 NVIDIA Jetson 和 Omniverse 平臺,實(shí)現(xiàn)邊緣設(shè)備上的實(shí)時、全彩、無損三維重建,從而在建筑細(xì)節(jié)捕捉、大型基礎(chǔ)設(shè)施的數(shù)字孿生等應(yīng)用中,大幅提升三維
    的頭像 發(fā)表于 09-09 09:42 ?445次閱讀
    RM新时代网站-首页