RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

middlebury數(shù)據(jù)集是什么

3D視覺工坊 ? 來源:3D視覺工坊 ? 2023-09-10 11:29 ? 次閱讀

Middlebury立體測評網(wǎng)站是計(jì)算機(jī)視覺領(lǐng)域的重要資源,它為研究人員和工程師提供了一個評估和比較立體視覺算法的標(biāo)準(zhǔn)化平臺。無論你是學(xué)術(shù)界的研究者還是工業(yè)界的從業(yè)者,通過使用Middlebury立體測評網(wǎng)站,你可以在算法開發(fā)中更好地了解和改進(jìn)立體匹配算法。本文將為你提供關(guān)于Middlebury立體測評網(wǎng)站的詳細(xì)使用指南,幫助你充分利用該平臺。

一、middlebury數(shù)據(jù)集是什么?

Middlebury數(shù)據(jù)集是用于立體視覺算法評估的一系列標(biāo)準(zhǔn)化數(shù)據(jù)集,由Middlebury大學(xué)維護(hù)。立體視覺是計(jì)算機(jī)視覺領(lǐng)域中的一個重要研究方向,其目標(biāo)是從不同角度獲取的圖像中,恢復(fù)出場景中物體的三維信息,即深度或視差圖。

Middlebury數(shù)據(jù)集的設(shè)計(jì)旨在提供一組公共標(biāo)準(zhǔn),讓研究者和開發(fā)者能夠在相同的基準(zhǔn)下比較和評估他們開發(fā)的立體視覺算法。這些數(shù)據(jù)集涵蓋了多個任務(wù),包括立體圖像重建、立體匹配、光流估計(jì)等。

Middlebury數(shù)據(jù)集是圖像計(jì)算領(lǐng)域中廣為使用的一系列立體和光流圖像數(shù)據(jù)集。它是由Middlebury計(jì)算機(jī)視覺研究組織創(chuàng)建和維護(hù)的,旨在為研究者和開發(fā)者提供可靠的圖像數(shù)據(jù),以評估和比較不同的計(jì)算機(jī)視覺算法。

其中,立體圖像數(shù)據(jù)集包含由兩個或多個攝像機(jī)捕獲的圖像對,用于生成立體深度地圖。光流圖像數(shù)據(jù)集則包含了連續(xù)幀之間的像素位移信息,用于分析和推斷對象在時間上的運(yùn)動。

Middlebury數(shù)據(jù)集以其高質(zhì)量的標(biāo)注和真實(shí)場景的代表性而聞名。這些數(shù)據(jù)集經(jīng)過仔細(xì)設(shè)計(jì)和選取,以提供豐富的挑戰(zhàn)性問題和復(fù)雜的圖像場景,以促進(jìn)對計(jì)算機(jī)視覺算法的真實(shí)性能評估。

對于研究者和開發(fā)者來說,Middlebury數(shù)據(jù)集是一份寶貴的資源,可以用于測試自己的算法、比較不同算法的性能,并為新算法的開發(fā)提供可靠的基準(zhǔn)。大量的研究論文和學(xué)術(shù)會議都使用Middlebury數(shù)據(jù)集作為他們算法的評估標(biāo)準(zhǔn)。

Middlebury數(shù)據(jù)集可以通過Middlebury計(jì)算機(jī)視覺研究組織的官方網(wǎng)站免費(fèi)獲取。研究者和開發(fā)者可以根據(jù)自己的需求和興趣,在這些數(shù)據(jù)集上進(jìn)行各種圖像計(jì)算任務(wù)的研究和實(shí)驗(yàn)。

二、middlebury網(wǎng)址是什么?

https://vision.middlebury.edu/

32c675aa-37d3-11ee-9e74-dac502259ad0.png

根據(jù) vision.middlebury.edu 網(wǎng)站的介紹,這是一個計(jì)算機(jī)視覺評估和數(shù)據(jù)集的存儲庫。網(wǎng)站包含以下內(nèi)容:

Middlebury立體視覺頁面:用于評估密集的雙幀立體視覺算法(詳細(xì)介紹見IJCV 2002)。

多視圖立體頁面:用于評估多視圖立體視覺算法(CVPR 2006上發(fā)布)。

MRF頁面:用于評估用于馬爾可夫隨機(jī)場的能量最小化方法(ECCV 2006上發(fā)布)。

光流頁面:用于評估光流算法(ICCV 2007上發(fā)布)。

色彩頁面:提供用于評估數(shù)字相機(jī)色彩處理的數(shù)據(jù)集(BMVC 2009上發(fā)布)

三、middlebury立體測評?

https://vision.middlebury.edu/stereo/

3300c25a-37d3-11ee-9e74-dac502259ad0.png

https://vision.middlebury.edu/stereo/ 是Middlebury立體視覺頁面的鏈接,在這個頁面上,你可以找到關(guān)于立體視覺算法的評估和數(shù)據(jù)集的詳細(xì)信息。

Middlebury立體視覺頁面是用于評估密集的兩幀立體視覺算法的平臺。它包括了:

當(dāng)前算法的在線排名

許多具有地面實(shí)況差異的立體數(shù)據(jù)集

一個離線腳本,評估立體聲算法

一個在線提交腳本,評估立體聲算法

在這個頁面上,你可以找到每個數(shù)據(jù)集的詳細(xì)描述,包括數(shù)據(jù)集的來源、圖像數(shù)量、分辨率和深度圖等。此外,頁面還提供了一些參考算法和評價標(biāo)準(zhǔn),用于幫助評估和比較不同算法的性能。該頁面還包含了一些用于可視化和比較算法結(jié)果的工具和軟件。你可以使用這些工具來直觀地呈現(xiàn)立體視覺算法的輸出,并與其他算法進(jìn)行比較。

3.1 當(dāng)前算法的在線排名

33251bdc-37d3-11ee-9e74-dac502259ad0.png

該頁面包含了一個交互式的表格,用于展示不同數(shù)據(jù)集和評估指標(biāo)的結(jié)果。你可以通過鼠標(biāo)懸停在表格單元格上,查看生成的視差圖。同時,點(diǎn)擊單元格可以切換顯示地面真實(shí)值以進(jìn)行比較。你還可以通過點(diǎn)擊頁面上的鏈接,切換表格類型或了解新功能的描述。

Set: 設(shè)置或數(shù)據(jù)集的不同類型。在這種情況下,可能有以下設(shè)置/數(shù)據(jù)集:

test: 測試集

densetest: 密集測試集

sparsetraining: 稀疏訓(xùn)練集

densetraining: 密集訓(xùn)練集

sparse: 稀疏數(shù)據(jù)

Metric: 表示用于對視差圖進(jìn)行評估的不同指標(biāo)。在這種情況下,可能有以下指標(biāo):

bad 0.5: 視差值誤差小于等于0.5的比例

bad 1.0: 視差值誤差小于等于1.0的比例

bad 2.0: 視差值誤差小于等于2.0的比例

bad 4.0: 視差值誤差小于等于4.0的比例

avgerr: 平均誤差

rms: 均方根誤差

A50: 視差誤差小于等于50%的比例

A90: 視差誤差小于等于90%的比例

A95: 視差誤差小于等于95%的比例

A99: 視差誤差小于等于99%的比例

time: 執(zhí)行時間

time/MP: 每百萬像素的執(zhí)行時間

time/GD: 每個視差的執(zhí)行時間

Mask: 掩碼或遮擋的類型。在這種情況下,可能有以下類型:

nonocc: 非遮擋的區(qū)域

all: 所有區(qū)域(包括遮擋區(qū)域和非遮擋區(qū)域)

3.2 許多具有地面實(shí)況差異的立體數(shù)據(jù)集

337bb884-37d3-11ee-9e74-dac502259ad0.png

在該頁面上,你可以找到middleburry提供的多個立體數(shù)據(jù)集的詳細(xì)信息和下載鏈接。這些數(shù)據(jù)集包含了成對的左右圖像,以及對應(yīng)的地面真實(shí)視差圖。這些數(shù)據(jù)集的制作遵循一定的標(biāo)準(zhǔn)和規(guī)范,廣泛應(yīng)用于立體視覺算法的訓(xùn)練和評估。

頁面上列出的數(shù)據(jù)集包括了各種場景和復(fù)雜度,并標(biāo)注了不同數(shù)據(jù)集的特點(diǎn)和用途。你可以瀏覽不同數(shù)據(jù)集的描述,了解其特點(diǎn)以及適用的應(yīng)用場景。同時,你也可以點(diǎn)擊鏈接下載對應(yīng)數(shù)據(jù)集的圖像和視差文件。

3.3 一個離線腳本,評估立體聲算法

33c05aca-37d3-11ee-9e74-dac502259ad0.png

cvkit是一個輕量級的圖像處理工具包,可用于處理各種格式的圖像,包括.pfm格式的視差圖。它由Heiko Hirschmüller開發(fā)。源代碼在Github上維護(hù);在這里,作者還提供了針對Linux/Mac和Windows最近發(fā)布版本的鏈接:

最新版本:https://github.com/roboception/cvkit

該代碼包含了名為"sv"的輕量級圖像查看器,具有有用的可視化功能,并且包含了"plyv",一個快速的網(wǎng)格查看器,也可以在3D中呈現(xiàn).pfm的視差圖。有關(guān)更多信息,請參閱USAGE.md。這里也推薦「3D視覺工坊」新課程《徹底剖析激光-視覺-IMU-GPS融合SLAM算法:理論推導(dǎo)、代碼講解和實(shí)戰(zhàn)》

3.4 一個在線提交腳本,評估立體聲算法

33e67868-37d3-11ee-9e74-dac502259ad0.png

調(diào)整 SDK 以運(yùn)行算法或手動創(chuàng)建 zip 文件后,您可以上傳結(jié)果。您可以根據(jù)需要多次上傳和評估訓(xùn)練集上的結(jié)果。與之前版本的立體評估一樣,您將在臨時表中看到您的結(jié)果與訓(xùn)練集上所有其他提交的結(jié)果的比較情況。獲得最終結(jié)果集后,您可以將結(jié)果上傳到訓(xùn)練集和測試集上,并請求發(fā)布這兩組結(jié)果。為了防止擬合測試數(shù)據(jù),我們只允許每個方法這樣做一次,并且在測試結(jié)果發(fā)布之前,您將無法看到測試結(jié)果。請僅上傳“最終”結(jié)果(已發(fā)表或即將提交給會議或期刊)。請注意,我們只允許表中每個發(fā)布有一個結(jié)果。如果您有多個算法變體,則可以在訓(xùn)練集上評估它們,但應(yīng)僅選擇并上傳一個結(jié)果進(jìn)行發(fā)布。

審核編輯:彭菁

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1083

    瀏覽量

    40449
  • 網(wǎng)站
    +關(guān)注

    關(guān)注

    2

    文章

    258

    瀏覽量

    23157
  • 計(jì)算機(jī)視覺
    +關(guān)注

    關(guān)注

    8

    文章

    1698

    瀏覽量

    45972
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1208

    瀏覽量

    24689

原文標(biāo)題:總結(jié)!Middlebury立體測評網(wǎng)站使用指南

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    請問NanoEdge AI數(shù)據(jù)該如何構(gòu)建?

    我想用NanoEdge來識別異常的聲音,但我目前沒有辦法生成模型,我感覺可能是數(shù)據(jù)的問題,請問我該怎么構(gòu)建數(shù)據(jù)?或者生成模型失敗還會有哪些原因?
    發(fā)表于 05-28 07:27

    自己數(shù)據(jù)如何制作tfrecords格式數(shù)據(jù)

    自己數(shù)據(jù)制作tfrecords格式的數(shù)據(jù)
    發(fā)表于 05-13 15:18

    Netflix Prize數(shù)據(jù)講解

    Netflix Prize數(shù)據(jù)詳解
    發(fā)表于 06-01 17:28

    多維數(shù)據(jù)是什么

    使用多維數(shù)據(jù)向?qū)?,可以?SQL Server 2005 中輕松定義簡單的多維數(shù)據(jù)。該向?qū)Э梢詭椭鸀槎嗑S數(shù)據(jù)
    的頭像 發(fā)表于 02-24 10:48 ?9642次閱讀
    多維<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>集</b>是什么

    基于非對稱空間金字塔池化模型的CNN結(jié)構(gòu)

    網(wǎng)絡(luò),以獲取更詳細(xì)的圖像特征信息。分別疊加卷積核為3×3和1×1的卷積層,用于融合多尺度信息和提升網(wǎng)絡(luò)收斂速度,同時將網(wǎng)絡(luò)結(jié)構(gòu)由4層增加至7層,以提高匹配精度。在KIT和 Middlebury數(shù)據(jù)上進(jìn)行視差預(yù)測,實(shí)驗(yàn)結(jié)果表明,
    發(fā)表于 03-30 11:16 ?16次下載
    基于非對稱空間金字塔池化模型的CNN結(jié)構(gòu)

    基于非對稱空間金字塔池化模型的CNN結(jié)構(gòu)

    網(wǎng)絡(luò),以獲取更詳細(xì)的圖像特征信息。分別疊加卷積核為3×3和1×1的卷積層,用于融合多尺度信息和提升網(wǎng)絡(luò)收斂速度,同時將網(wǎng)絡(luò)結(jié)構(gòu)由4層增加至7層,以提高匹配精度。在KIT和 Middlebury數(shù)據(jù)上進(jìn)行視差預(yù)測,實(shí)驗(yàn)結(jié)果表明,
    發(fā)表于 03-30 11:16 ?11次下載
    基于非對稱空間金字塔池化模型的CNN結(jié)構(gòu)

    HMC648數(shù)據(jù)

    HMC648數(shù)據(jù)
    發(fā)表于 04-23 18:56 ?0次下載
    HMC648<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>集</b>

    HMC524數(shù)據(jù)

    HMC524數(shù)據(jù)
    發(fā)表于 05-19 16:42 ?0次下載
    HMC524<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>集</b>

    HMC265數(shù)據(jù)

    HMC265數(shù)據(jù)
    發(fā)表于 05-21 09:10 ?15次下載
    HMC265<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>集</b>

    HMC263數(shù)據(jù)

    HMC263數(shù)據(jù)
    發(fā)表于 05-26 19:08 ?1次下載
    HMC263<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>集</b>

    950602數(shù)據(jù)

    950602 數(shù)據(jù)
    發(fā)表于 05-05 18:57 ?0次下載
    950602<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>集</b>

    最全自動駕駛數(shù)據(jù)分享系列一:目標(biāo)檢測數(shù)據(jù)

    自動駕駛數(shù)據(jù)分享是整數(shù)智能推出的一個全新分享系列,在這個系列中,我們將介紹目前為止各大科研機(jī)構(gòu)和企業(yè)推出的所有公開自動駕駛數(shù)據(jù)。數(shù)據(jù)
    發(fā)表于 06-06 11:15 ?2次下載
    最全自動駕駛<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>集</b>分享系列一:目標(biāo)檢測<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>集</b>

    950602數(shù)據(jù)

    950602 數(shù)據(jù)
    發(fā)表于 06-26 18:47 ?0次下載
    950602<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>集</b>

    大模型數(shù)據(jù):力量的源泉,進(jìn)步的階梯

    一、引言 在? ? 的繁榮發(fā)展中,大模型數(shù)據(jù)的作用日益凸顯。它們?nèi)琮嫶蟮闹R庫,為AI提供了豐富的信息和理解能力。本文將用一種獨(dú)特的風(fēng)格來探討大模型數(shù)據(jù)的魅力和潛力。 二、大模型
    的頭像 發(fā)表于 12-07 17:18 ?677次閱讀

    PyTorch如何訓(xùn)練自己的數(shù)據(jù)

    PyTorch是一個廣泛使用的深度學(xué)習(xí)框架,它以其靈活性、易用性和強(qiáng)大的動態(tài)圖特性而聞名。在訓(xùn)練深度學(xué)習(xí)模型時,數(shù)據(jù)是不可或缺的組成部分。然而,很多時候,我們可能需要使用自己的數(shù)據(jù)
    的頭像 發(fā)表于 07-02 14:09 ?1632次閱讀
    RM新时代网站-首页