RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于DPU的Ceph存儲(chǔ)解決方案

DPU高性能云異構(gòu)算力解決方案 ? 來源:DPU高性能云異構(gòu)算力解決 ? 作者:DPU高性能云異構(gòu)算 ? 2024-07-15 13:44 ? 次閱讀

1. 方案背景和挑戰(zhàn)

Ceph是一個(gè)高度可擴(kuò)展、高性能的開源分布式存儲(chǔ)系統(tǒng),設(shè)計(jì)用于提供優(yōu)秀的對(duì)象存儲(chǔ)、塊存儲(chǔ)和文件存儲(chǔ)服務(wù)。它的幾個(gè)核心特點(diǎn)是:

彈性擴(kuò)展:Ceph能夠無縫地水平擴(kuò)展存儲(chǔ)容量和性能,只需添加新的存儲(chǔ)節(jié)點(diǎn)即可,無需重新配置現(xiàn)有系統(tǒng),非常適合云環(huán)境的動(dòng)態(tài)需求;

自我修復(fù):通過副本或糾刪碼技術(shù),Ceph能夠自動(dòng)檢測(cè)并修復(fù)數(shù)據(jù)損壞或丟失,保證數(shù)據(jù)的高可用性和持久性;

統(tǒng)一接口Ceph提供RADOS GW(對(duì)象存儲(chǔ)網(wǎng)關(guān))、RBD(塊設(shè)備映射)和CephFS(文件系統(tǒng))三種接口,滿足不同存儲(chǔ)需求,且這些接口可以同時(shí)在一個(gè)集群中使用。

在Kubernetes(K8s)架構(gòu)下,Ceph可以作為一個(gè)強(qiáng)大的存儲(chǔ)后端,為容器化的應(yīng)用提供持久化存儲(chǔ)解決方案。Kubernetes通過存儲(chǔ)卷插件與外部存儲(chǔ)系統(tǒng)集成,Ceph正是通過這樣的插件(如RBD插件)與K8s集成,實(shí)現(xiàn)存儲(chǔ)資源的動(dòng)態(tài)分配和管理。
架構(gòu)如下圖所示:

wKgaomZ-Z-SAIQl3AAB-zBso3Kg572.png

在傳統(tǒng)方式下使用Ceph作為存儲(chǔ)解決方案,會(huì)遇到一些局限性和挑戰(zhàn),尤其是在與現(xiàn)代云原生環(huán)境如Kubernetes集成時(shí),這些問題可能會(huì)更加突出,具體表現(xiàn)為以下幾個(gè)方面:

RBD客戶端運(yùn)行于Host,消耗計(jì)算資源:傳統(tǒng)部署模式下,Ceph的RBD(RADOS Block Device)客戶端運(yùn)行在宿主機(jī)(Host)層面,而非直接在容器內(nèi)部。這意味著所有與Ceph交互的計(jì)算任務(wù),包括I/O請(qǐng)求處理、錯(cuò)誤恢復(fù)等,都需要宿主機(jī)的CPU資源來完成。在高負(fù)載情況下,這些額外的計(jì)算需求可能會(huì)對(duì)宿主機(jī)的資源分配產(chǎn)生壓力,影響到運(yùn)行在相同宿主機(jī)上的其他容器應(yīng)用的性能。

使用RBD協(xié)議連接后端存儲(chǔ),性能受限:RBD協(xié)議雖然成熟且穩(wěn)定,但在某些場(chǎng)景下,其性能表現(xiàn)可能不盡人意,尤其是在需要大量小I/O操作或高帶寬傳輸?shù)那闆r下。這是因?yàn)镽BD協(xié)議在設(shè)計(jì)上更多考慮了數(shù)據(jù)的可靠性和一致性,而非極致的性能。這導(dǎo)致數(shù)據(jù)傳輸延遲較高,影響到依賴快速存儲(chǔ)響應(yīng)的應(yīng)用性能,如數(shù)據(jù)庫服務(wù)或大數(shù)據(jù)處理系統(tǒng)。

在Kubernetes架構(gòu)下,無法直接利用DPU實(shí)現(xiàn)卸載和加速:隨著DPU(Data Processing Unit)等硬件加速技術(shù)的興起,其在數(shù)據(jù)處理、網(wǎng)絡(luò)和存儲(chǔ)任務(wù)中的加速能力備受矚目。然而,在傳統(tǒng)的Ceph與Kubernetes集成方案中,缺乏直接利用DPU卸載存儲(chǔ)相關(guān)處理的能力,導(dǎo)致無法充分利用DPU提供的硬件加速優(yōu)勢(shì),限制了存儲(chǔ)性能的進(jìn)一步提升和資源的高效利用。

鑒于以上挑戰(zhàn),探索和實(shí)施針對(duì)Kubernetes環(huán)境優(yōu)化的Ceph部署方案,如通過專門的Ceph CSI(Container Storage Interface)插件支持DPU卸載,或是利用Ceph的其他高級(jí)功能與現(xiàn)代硬件加速技術(shù)緊密結(jié)合,成為了提升云原生應(yīng)用存儲(chǔ)性能和效率的關(guān)鍵方向。

2. 方案介紹

2.1. 整體架構(gòu)

本方案采用云原生架構(gòu),引入DPU作為Kubernetes集群的Node,為集群之上的容器、虛機(jī)和裸金屬實(shí)例提供存儲(chǔ)服務(wù)的卸載和加速。整體架構(gòu)如下所示:

wKgZomZ-Z_KAd7y-AAD2ZMBjKHw774.png

本方案將K8s node分為不同的角色(node-role),不同的組件分別部署在不同的node,主要包含:

Master Node上,部署csi的控制器csi-controller,用于創(chuàng)建volume和NVMe-oF target;

Host Node上,部署csi-node-host,配合csi-node-dpu,通過volumeattachment發(fā)現(xiàn)DPU掛載的NVMe盤,然后執(zhí)行綁定或者格式化;裸機(jī)場(chǎng)景沒有這個(gè)組件;

DPU上,部署csi-node-dpu,volume-attacher和opi-bridge。opi-bridge是卡對(duì)opi-api存儲(chǔ)的實(shí)現(xiàn),volume-attacher是對(duì)DPU存儲(chǔ)相關(guān)方法的封裝;csi-node-dpu 調(diào)用volume-attacher給host掛盤;

Storage上,部署Ceph和GATEWAY,GATEWAY是對(duì)SPDK封裝的一個(gè)服務(wù),用于本地連接rbd image,暴露成NVMe-oF target。

2.2. 方案描述

本方案主要由csi-framework、opi-framework和storage三個(gè)部分組成,下面將對(duì)這三個(gè)部分進(jìn)行介紹。

2.2.1. csi-framework

通過csi-framework我們能快速的接入第三方的存儲(chǔ),讓第三方存儲(chǔ)很方便的使用DPU的能力。其包括csi-controller、csi-node-host和csi-node-dpu,主要職責(zé)是為K8s的負(fù)載提供不同的存儲(chǔ)能力。

2.2.1.1. csi-controller

Csi-controller以deployment的形式部署在master節(jié)點(diǎn),其架構(gòu)如下圖所示:

wKgZomZ-aASAPVloAAElgQ2sx4o654.png

在csi-controller pod中,包含對(duì)接存儲(chǔ)的csi-controller容器,主要用于在對(duì)接存儲(chǔ)上創(chuàng)建卷,除此之外,為了讓對(duì)接存儲(chǔ)也能用nvmeof的方式,本架構(gòu)也開發(fā)了對(duì)應(yīng)的插件系統(tǒng),由插件負(fù)責(zé)NVMe-oF target的管理。

結(jié)合K8s csi的external plugin,csi-controller主要實(shí)現(xiàn)以下兩類功能:

針對(duì)pvc,調(diào)用第三方的controller,創(chuàng)建卷,創(chuàng)建快照和擴(kuò)容等;

針對(duì)pod(本質(zhì)上volumeattachment,簡稱va),兩種連接模式,AIO和NVMe-oF(因?yàn)閛pi目前只支持這兩種)。如果是NVMe-oF,則調(diào)用不同的plugin在GATEWAY上創(chuàng)建NVMe-oF target;相關(guān)的target參數(shù)會(huì)持久化到va的status,此時(shí)va的狀態(tài)變?yōu)閍ttached=true。

2.2.1.2. csi-node

Csi-node以daemonset的形式,部署在所有節(jié)點(diǎn),其架構(gòu)如下圖所示:

wKgaomZ-aDiAWEEkAAFn8qQohVk656.png

在csi-node的架構(gòu)中,沒有整合第三方的csi-node,是因?yàn)榈谌絚si-node往往是針對(duì)非DPU的場(chǎng)景,所以在本框架中,也是使用插件系統(tǒng),對(duì)接不同的第三方存儲(chǔ)。插件系統(tǒng)主要用于直連存儲(chǔ),比如通過RBD或者ISCSI,會(huì)在本地生成一個(gè)塊設(shè)備,最后把這個(gè)塊設(shè)備再以AIO的方式掛載到PCIE上;如果是使用本框架的NVMe-oF的方式,由csi-node-dpu負(fù)責(zé)從va獲取對(duì)應(yīng)的連接信息,連接NVMe-oF target。

Csi-node按node角色分為csi-node-dpu、csi-node-host和csi-node-default,不同角色的csi-node功能不同,下面分別加以說明:

csi-node-dpu需要處理host和DPU側(cè)的掛盤請(qǐng)求,待csi-node-dpu根據(jù)不同的連接模式(AIO或者NVMe-oF),連接遠(yuǎn)程存儲(chǔ);在pf或者vf上掛載磁盤后,會(huì)把掛盤的信息添加到va的annotation;

csi-node-host就能根據(jù)va的annotation找到掛載的disk,進(jìn)行下一步操作;

csi-node-default 也就是默認(rèn)的工作模式,同非DPU場(chǎng)景的csi-node工作方式。

2.2.2. opi-framework

主要用來兼容不同卡的功能,對(duì)上提供統(tǒng)一的接口;通過opi-framework,我們能將第三方存儲(chǔ)快速對(duì)接到其他DPU。不同DPU通過opi-bridge對(duì)接到opi框架,再由volume-attacher提供opi框架沒有的功能,其架構(gòu)如下圖所示:

wKgZomZ-aEGAaBIXAAGLkXGr1zk888.png

Opi-framewark包括volume-attacher、opi-yusur-bridge、opi-nvidia-bridge和SPDK,提供存儲(chǔ)卸載和加速能力。

volume-attacher是bridge之上的一層封裝,其主要作用有三個(gè):

參數(shù)計(jì)算,比如掛載那個(gè)vf,使用那個(gè)nsid等;同時(shí)保證相同的盤,掛載到相同的掛載點(diǎn);

因?yàn)閛pi-bridge和SPDK都沒有數(shù)據(jù)持久化,所以一旦opi-bridge或者SPDK重啟之后,需要volume-attacher進(jìn)行數(shù)據(jù)恢復(fù)

從上我們知道,opi框架提供的能力有限,比如backend,只支持AIO和NVMe-oF;一旦要使用其他的bdev,比如lvol,此時(shí)就沒法通過opi-bridge操作,所以volume-attacher還封裝了對(duì)底層SPDK的操作。

opi-bridge是對(duì)opi標(biāo)準(zhǔn)的實(shí)現(xiàn),不同的卡會(huì)有不同的bridge,存儲(chǔ)方面主要包括對(duì)接SPDK的三類接口(frontendmiddleendbackend)。

SPDK是卡上的服務(wù),除了原生SPDK的功能外,主要作用是在pf或者vf上掛載bdev。

2.2.3. storage

除了第三方或者開源的存儲(chǔ)系統(tǒng)之外,還提供一個(gè)GATEWAY,GATEWAY的能力就是在靠近存儲(chǔ)的地方(所以往往和存儲(chǔ)系統(tǒng)部署在一起),把卷通過NVMe-oF target的方法是暴露出去;同時(shí)支持NVMe-oF multipath實(shí)現(xiàn)高可用。

3. 方案測(cè)試結(jié)果

3.1. Pod掛盤

首先創(chuàng)建pvc,然后在pod的volumes中以Block或者Filesystem的方式使用pvc,關(guān)鍵參數(shù)如下所示:

##pvc-xxx.yaml 關(guān)鍵參數(shù) storageClassName: class-ceph ## 通過不同的storageclass,使用AIO或者nvmeof的方式

創(chuàng)建后,相關(guān)資源信息如下:

HOST側(cè),使用nvme list和nvme list-subsys可查看對(duì)應(yīng)的disk和system,如下圖所示:

wKgZomZ-aISAVxajAABxBf4sQUo811.png

DPU側(cè),使用rpc.py查看對(duì)應(yīng)的bdev,nvme_ns, nvme_ctrl

wKgaomZ-aI-AC8RHAAC4KDFxsyA221.png

查看對(duì)應(yīng)的bdev,如下所示:

wKgaomZ-ddGAfOgcAABcF7l_TwI961.png

GATEWAY側(cè),使用rpc.py查看nvme_subsystem,bdev

查看對(duì)應(yīng)的bdev,如下所示:

wKgaomZ-ddeACJS3AABam7VQrwo780.png

3.2. 性能對(duì)比

本方案基于單節(jié)點(diǎn)ceph創(chuàng)建單副本存儲(chǔ)池,在以下測(cè)試場(chǎng)景與傳統(tǒng)ceph方案進(jìn)行對(duì)比:

AIO:DPU上通過RBD協(xié)議連接存儲(chǔ),然后把/dev/rbd0通過AIO給到Host;

Host-RBD:測(cè)試節(jié)點(diǎn)上用RBD 協(xié)議連接存儲(chǔ),也是傳統(tǒng)ceph方案的方式;

LOCAL-RBD:存儲(chǔ)節(jié)點(diǎn)上用RBD協(xié)議連接存儲(chǔ),用于對(duì)比Host-RBD;

Host-NVMe-CLI/TCP:測(cè)試節(jié)點(diǎn)上通過NVMe-CLI以NVMe/TCP的方式連接存儲(chǔ)上的GATEWAY,用來對(duì)比卸載模式的性能;

Host-NVMe-CLI/RDMA:測(cè)試節(jié)點(diǎn)上通過NVMe-CLI以NVMe/RDMA方式連接存儲(chǔ)上的GATEWAY,用來對(duì)比卸載模式的性能;

NVMe/TCP:DPU上直接TCP協(xié)議連接GATEWAY,是本方案的一種連接方式;

NVMe/RDMA:DPU上直接通過RDMA協(xié)議連接GATEWAY,是本方案的一種連接方式。

測(cè)試不同blocksize下的隨機(jī)讀寫指標(biāo)包括iops,吞吐,延遲和Host CPU消耗。

3.2.1. 存儲(chǔ)IOPS

測(cè)試結(jié)果如下:

wKgaomZ-dd2AGADpAAMmrTt49NM314.png

從上圖我們可以得出以下結(jié)論:

AIO性能最差,是因?yàn)锳IO是通過DPU里面librbd連接存儲(chǔ),受限于DPU的資源;

LOCAL-RBD的性能較Host-RBD低,是因?yàn)楸镜販y(cè)試時(shí),內(nèi)核RBD模塊與osd存在資源競(jìng)爭,導(dǎo)致ceph-osd的CPU上不去,在950%左右,但是在Host-RBD測(cè)試時(shí)ceph-osd的CPU在1050%左右;

NVMe/TCP的性能較Host-NVMe-CLI/TCP和Host-NVMe-CLI/RDMA稍高,是因?yàn)閮烧叩穆窂讲灰粯?,有可能是DPU的SPDK服務(wù)帶來的加速效果;

NVMe/RDMA與NVMe/TCP基本持平,是因?yàn)槠款i在ceph,這個(gè)會(huì)基于裸盤給出結(jié)論

NVMe/RDMA,NVMe/TCP,Host-NVMe-CLI/TCP和Host-NVMe-CLI/RDMA,高于Host-RBD,是因?yàn)镚ATEWAY的加速作用,能把ceph-osd的CPU進(jìn)一步提高到1150%左右。

隨機(jī)讀iops如下圖所示:

wKgZomZ-deSALRh-AAK3wU8Dq7A873.png

如上圖所示,可以得出如下結(jié)論:

NVMe/TCP的性能與Host-NVMe-CLI/TCP基本持平,好于Host-RBD;

NVMe/RDMA的性能較NVMe/TCP的稍低,有可能是在隨機(jī)讀場(chǎng)景下RDMA協(xié)議的損耗導(dǎo)致。

3.2.2. 存儲(chǔ)延遲

測(cè)試結(jié)果如下:

wKgaomZ-deqAQtSrAAJ-iD7MGW0633.png

如上圖所示,可以得出如下結(jié)論:

RDMA的延遲要好于TCP;

HOST-RBD好于其他非本地場(chǎng)景,是因?yàn)檎wio路徑較其他的短。

隨機(jī)讀場(chǎng)景下的延遲,如下所示:

wKgZomZ-dfCAI2lEAAJ0yKLki98182.png

3.2.3. CPU消耗

測(cè)試結(jié)果如下:

wKgaomZ-dfeAVFlBAAG5P1qZ2_o695.png

如上圖所示,可以得出如下結(jié)論:

基于傳統(tǒng)的Ceph解決方案,消耗Host CPU在400%-600%之間,其資源消耗在內(nèi)核模塊RBD;

使用Host-NVMe-CLI/TCP的方式,消耗Host CPU在70%-200%之間, 其資源消耗在內(nèi)核模塊NVMe/TCP;

使用Host-NVMe-CLI/RDMA的方式,其資源消耗和卸載模式相當(dāng);

基于DPU的ceph解決方案,NVMe/TCP和NVMe/RDMA的Host CPU消耗很低。

隨機(jī)讀場(chǎng)景下的資源消耗,如下所示:

wKgZomZ-df2AdrKNAAHH0q8L6OY991.png

4. 總結(jié)

4.1. 方案優(yōu)勢(shì)

基于DPU(Data Processing Unit)的Ceph存儲(chǔ)解決方案,為云原生存儲(chǔ)領(lǐng)域帶來了顯著的資源優(yōu)化,在性能上也有一定改善,具體優(yōu)勢(shì)體現(xiàn)在以下幾個(gè)方面:

1. 資源效率大幅提升:通過將Ceph的控制面和數(shù)據(jù)面操作下沉至DPU處理,顯著減輕了宿主機(jī)(Host)的資源消耗。測(cè)試結(jié)果顯示,在并行度為8的場(chǎng)景下,blocksize為4KB時(shí),宿主機(jī)CPU資源的使用率明顯下降,從502%的消耗,降低到了僅45%,這意味著在實(shí)際應(yīng)用場(chǎng)景中,將大大節(jié)省了寶貴的CPU資源,讓這些資源能夠被應(yīng)用服務(wù)更高效地利用。

2. 性能保持與優(yōu)化:在對(duì)比分析中,基于DPU的Ceph解決方案不僅保持了與傳統(tǒng)Ceph部署在性能上的競(jìng)爭力,而且還展示了顯著的提升潛力。通過對(duì)比使用Host-NVMe-CLI(分別通過TCP和RDMA協(xié)議)、NVMe/TCP和NVMe/RDMA的傳統(tǒng)Ceph性能數(shù)據(jù),發(fā)現(xiàn)基于DPU的方案并未降低原有的Ceph性能表現(xiàn),反而在某些指標(biāo)上有所增強(qiáng)。特別是當(dāng)直接對(duì)比基于Host的RBD訪問、NVMe/TCP和NVMe/RDMA的性能時(shí),DPU方案展現(xiàn)出了超越這些傳統(tǒng)訪問方式的性能提升,這表明DPU不僅有效卸載了存儲(chǔ)處理任務(wù),還通過其硬件加速特性提升了存儲(chǔ)I/O性能。

3. 填補(bǔ)Kubernetes生態(tài)空白:在Kubernetes(K8s)生態(tài)系統(tǒng)中,雖然有多種存儲(chǔ)解決方案和插件,但之前缺乏針對(duì)DPU優(yōu)化的存儲(chǔ)卸載和加速服務(wù)。這一自研的基于DPU的Ceph解決方案,填補(bǔ)了這一技術(shù)空白,為Kubernetes環(huán)境下的應(yīng)用提供了更高效、低延遲的存儲(chǔ)支持。通過集成DPU加速能力,不僅增強(qiáng)了云原生應(yīng)用的存儲(chǔ)性能,還為用戶提供了更多選擇和優(yōu)化存儲(chǔ)配置的靈活性,有助于提升整個(gè)云平臺(tái)的運(yùn)行效率和成本效益。

綜上所述,基于DPU的Ceph存儲(chǔ)解決方案通過自研的Kubernetes組件、引入DPU深度優(yōu)化存儲(chǔ)處理流程,顯著降低了宿主機(jī)資源消耗,保持甚至提升了存儲(chǔ)性能,同時(shí)為Kubernetes生態(tài)引入了創(chuàng)新的存儲(chǔ)加速服務(wù),是面向未來云原生架構(gòu)的重要技術(shù)進(jìn)步。

本方案來自于中科馭數(shù)軟件研發(fā)團(tuán)隊(duì),團(tuán)隊(duì)核心由一群在云計(jì)算、數(shù)據(jù)中心架構(gòu)、高性能計(jì)算領(lǐng)域深耕多年的業(yè)界資深架構(gòu)師和技術(shù)專家組成,不僅擁有豐富的實(shí)戰(zhàn)經(jīng)驗(yàn),還對(duì)行業(yè)趨勢(shì)具備敏銳的洞察力,該團(tuán)隊(duì)致力于探索、設(shè)計(jì)、開發(fā)、推廣可落地的高性能云計(jì)算解決方案,幫助最終客戶加速數(shù)字化轉(zhuǎn)型,提升業(yè)務(wù)效能,同時(shí)降低運(yùn)營成本。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 云計(jì)算
    +關(guān)注

    關(guān)注

    39

    文章

    7774

    瀏覽量

    137350
  • 存儲(chǔ)
    +關(guān)注

    關(guān)注

    13

    文章

    4296

    瀏覽量

    85798
  • DPU
    DPU
    +關(guān)注

    關(guān)注

    0

    文章

    357

    瀏覽量

    24169
  • Ceph
    +關(guān)注

    關(guān)注

    1

    文章

    22

    瀏覽量

    9401
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    emc存儲(chǔ)解決方案的優(yōu)勢(shì)

    在當(dāng)今這個(gè)數(shù)據(jù)驅(qū)動(dòng)的時(shí)代,企業(yè)對(duì)于數(shù)據(jù)存儲(chǔ)的需求日益增長。EMC,作為全球領(lǐng)先的數(shù)據(jù)存儲(chǔ)解決方案提供商,以其創(chuàng)新的技術(shù)、高性能的產(chǎn)品和全面的服務(wù),幫助企業(yè)實(shí)現(xiàn)數(shù)據(jù)的高效管理和利用。 1. 高性能和可
    的頭像 發(fā)表于 11-01 15:16 ?340次閱讀

    基于DPU的OpenStack裸金屬服務(wù)快速部署及存儲(chǔ)解決方案

    Openstack作為開源云計(jì)算領(lǐng)域的領(lǐng)軍項(xiàng)目,憑借其強(qiáng)大的功能、靈活的架構(gòu)以及活躍的社區(qū)支持,在全球范圍內(nèi)得到了廣泛的采用。通過Openstack,企業(yè)和云服務(wù)提供商可以更加高效地管理和利用計(jì)算資源、存儲(chǔ)資源和網(wǎng)絡(luò)資源,實(shí)現(xiàn)業(yè)務(wù)的快速部署和靈活擴(kuò)展,從而贏得市場(chǎng)競(jìng)爭的先機(jī)。
    的頭像 發(fā)表于 09-29 14:24 ?380次閱讀
    基于<b class='flag-5'>DPU</b>的OpenStack裸金屬服務(wù)快速部署及<b class='flag-5'>存儲(chǔ)</b><b class='flag-5'>解決方案</b>

    基于分布式存儲(chǔ)系統(tǒng)醫(yī)療影像數(shù)據(jù)存儲(chǔ)解決方案

    基于分布式存儲(chǔ)系統(tǒng)醫(yī)療影像數(shù)據(jù)存儲(chǔ)解決方案
    的頭像 發(fā)表于 09-14 09:53 ?303次閱讀
    基于分布式<b class='flag-5'>存儲(chǔ)</b>系統(tǒng)醫(yī)療影像數(shù)據(jù)<b class='flag-5'>存儲(chǔ)</b><b class='flag-5'>解決方案</b>

    基于CSS融合存儲(chǔ)系統(tǒng)的自動(dòng)化制造服務(wù)平臺(tái)存儲(chǔ)解決方案

    基于CSS融合存儲(chǔ)系統(tǒng)的自動(dòng)化制造服務(wù)平臺(tái)存儲(chǔ)解決方案
    的頭像 發(fā)表于 09-10 10:15 ?336次閱讀
    基于CSS融合<b class='flag-5'>存儲(chǔ)</b>系統(tǒng)的自動(dòng)化制造服務(wù)平臺(tái)<b class='flag-5'>存儲(chǔ)</b><b class='flag-5'>解決方案</b>

    液氮罐運(yùn)輸和存儲(chǔ)溫度監(jiān)測(cè)解決方案

    在上篇文章中,我們提到評(píng)估液氮罐的尺寸和靜態(tài)持續(xù)時(shí)間的重要性不能被低估。接下來讓我們進(jìn)一步了解在液氮罐運(yùn)輸充滿各種挑戰(zhàn)的情況下,如何超越傳統(tǒng)溫度監(jiān)測(cè)解決方案,提供高精度和可靠性?液氮罐運(yùn)輸和存儲(chǔ)溫度
    的頭像 發(fā)表于 07-26 14:28 ?381次閱讀
    液氮罐運(yùn)輸和<b class='flag-5'>存儲(chǔ)</b>溫度監(jiān)測(cè)<b class='flag-5'>解決方案</b>

    IaaS+on+DPU(IoD)+下一代高性能算力底座技術(shù)白皮書

    、VMware、Palo Alto 等公司紛紛推出相關(guān)解決方案。這些方案背后共同的本質(zhì)思想是:將云計(jì)算的 IaaS 層組件從服務(wù)器側(cè)卸載后圍繞 DPU 構(gòu)筑高性能算力底座,與 AWS、阿里云的技術(shù)路線不謀而合
    發(fā)表于 07-24 15:32

    憶聯(lián)SSD存儲(chǔ)解決方案亮相2024中國國際金融展

    7月19日,為期三天的2024中國國際金融展(簡稱:金融展)在北京國家會(huì)議中心開幕。作為國內(nèi)領(lǐng)先的存儲(chǔ)解決方案提供商,憶聯(lián)攜其最新一代PCIe Gen5企業(yè)級(jí)SSD及全場(chǎng)景解決方案亮相,并將以“金融
    的頭像 發(fā)表于 07-22 10:52 ?669次閱讀
    憶聯(lián)SSD<b class='flag-5'>存儲(chǔ)</b><b class='flag-5'>解決方案</b>亮相2024中國國際金融展

    黑龍江電力高性能WDS分布式存儲(chǔ)系統(tǒng)解決方案

    黑龍江電力高性能WDS分布式存儲(chǔ)系統(tǒng)解決方案
    的頭像 發(fā)表于 07-01 09:54 ?364次閱讀
    黑龍江電力高性能WDS分布式<b class='flag-5'>存儲(chǔ)</b>系統(tǒng)<b class='flag-5'>解決方案</b>

    明天線上見!DPU構(gòu)建高性能云算力底座——DPU技術(shù)開放日最新議程公布!

    技術(shù)在不同行業(yè)中的應(yīng)用解決方案有哪些?能帶來怎樣的業(yè)務(wù)效果? 3月29日本周五,中科馭數(shù)集結(jié)產(chǎn)品大咖及解決方案專家團(tuán),誠邀您參加以“DPU構(gòu)建高性能云算力底座”為主題的線上DPU技術(shù)開
    的頭像 發(fā)表于 04-03 18:12 ?1001次閱讀

    中科馭數(shù)DPU技術(shù)開放日秀“肌肉”:云原生網(wǎng)絡(luò)、RDMA、安全加速、低延時(shí)網(wǎng)絡(luò)等方案組團(tuán)亮相

    DPU技術(shù)開放日既是對(duì)DPU技術(shù)應(yīng)用的典型方案展示,也是DPU技術(shù)在重要細(xì)分場(chǎng)景走向成熟的標(biāo)志。
    的頭像 發(fā)表于 04-01 11:48 ?777次閱讀
    中科馭數(shù)<b class='flag-5'>DPU</b>技術(shù)開放日秀“肌肉”:云原生網(wǎng)絡(luò)、RDMA、安全加速、低延時(shí)網(wǎng)絡(luò)等<b class='flag-5'>方案</b>組團(tuán)亮相

    NVMe Host Controller IP實(shí)現(xiàn)高性能存儲(chǔ)解決方案

    電子發(fā)燒友網(wǎng)站提供《NVMe Host Controller IP實(shí)現(xiàn)高性能存儲(chǔ)解決方案.pdf》資料免費(fèi)下載
    發(fā)表于 02-21 14:28 ?2次下載

    IBM積極推進(jìn)Ceph擴(kuò)展,以打造AI領(lǐng)域的底層數(shù)據(jù)存儲(chǔ)基石

    BM正著手?jǐn)U展Ceph的塊和文件存儲(chǔ)功能,希望將其定位為Storage Scale并行文件系統(tǒng)之下面向AI工作負(fù)載的后端數(shù)據(jù)存儲(chǔ)。
    發(fā)表于 02-20 16:15 ?399次閱讀

    星云智聯(lián)為金山云打造裸金屬服務(wù)器DPU解決方案,助力高端用戶實(shí)現(xiàn)更強(qiáng)大更高效的上云體驗(yàn)

    國內(nèi)領(lǐng)先的DPU和智能網(wǎng)卡芯片與解決方案提供商星云智聯(lián)近日宣布,與中國知名云服務(wù)商金山云共同開發(fā)了基于星云智聯(lián)NebulaMatrix DPU解決方案的金山云裸金屬產(chǎn)品,滿足用戶對(duì)高性
    的頭像 發(fā)表于 02-20 09:06 ?618次閱讀

    請(qǐng)問怎樣使用cephadm部署ceph集群呢?

    從紅帽ceph5開始使用cephadm代替之前的ceph-ansible作為管理整個(gè)集群生命周期的工具,包括部署,管理,監(jiān)控。
    的頭像 發(fā)表于 01-16 09:32 ?1453次閱讀
    請(qǐng)問怎樣使用cephadm部署<b class='flag-5'>ceph</b>集群呢?

    《數(shù)據(jù)處理器:DPU編程入門》DPU計(jì)算入門書籍測(cè)評(píng)

    實(shí)踐 最后一部分是數(shù)據(jù)加速應(yīng)用的落地: 基于各個(gè)平臺(tái)的算力解決方案 推薦的存儲(chǔ)解決方案 邊緣計(jì)算方案 網(wǎng)絡(luò)平臺(tái)與融合加速技術(shù) 本書不能幫你完全入門DOCA和相關(guān)的
    發(fā)表于 12-24 10:54
    RM新时代网站-首页