RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何快速下載OpenVINO Notebooks中的AI大模型

SDNLAB ? 來(lái)源:SDNLAB ? 2023-12-12 14:40 ? 次閱讀

01

OpenVINO Notebooks簡(jiǎn)介

OpenVINO Notebooks是Jupyter Notebook形式的OpenVINO范例程序大集合,方便開發(fā)者快速學(xué)習(xí)并掌握OpenVINO推理程序,并通過Copy&Paste方式將范例中的關(guān)鍵程序應(yīng)用到自己的AI軟件中去。

wKgZomV4AICAG-SuAACo6KXDNi4851.jpg

02

運(yùn)行AI大模型的挑戰(zhàn)

OpenVINO Notebooks提供了非常豐富的AI大模型范例程序,例如:Dolly2、Stable Diffusion、LLama2、ChatGLM2等等,方便廣大開發(fā)者學(xué)習(xí)并應(yīng)用AI大模型。

但運(yùn)行AI大模型范例程序時(shí),由于眾所周知的原因,通常會(huì)遇到因無(wú)法從HuggingFace下載模型,導(dǎo)致范例程序無(wú)法運(yùn)行的情況。

以240-dolly-2-instruction-following.ipynb為例,運(yùn)行“Download and Convert Model”代碼時(shí)會(huì)收到報(bào)錯(cuò)信息,如下圖所示:

wKgZomV4AICADAF1AAClHKdDUYs473.jpg

03

解決AI大模型下載問題

>解決方案一:命令行模式

從https://hf-mirror.com/用命令行手動(dòng)下載。

第一步,安裝下載工具:

pip install -U huggingface_hub hf_transfer

第二步,設(shè)置環(huán)境變量

Linux中,執(zhí)行:

export HF_HUB_ENABLE_HF_TRANSFER=1

export HF_ENDPOINT=https://hf-mirror.com

在Windows中,執(zhí)行:

SET HF_HUB_ENABLE_HF_TRANSFER=1

SET HF_ENDPOINT=https://hf-mirror.com

第三步:運(yùn)行下載命令,下載模型到本地

huggingface-cli download --resume-download databricks/dolly-v2-3b --local-dir dolly-v2-3b

wKgZomV4AIKADmzuAATjgiQnKM4732.jpg

>解決方案二:命令行模式

在模型頁(yè)面:https://hf-mirror.com/databricks/dolly-v2-3b/tree/main,右鍵菜單啟動(dòng):“多選下載模式”,如下圖所示。

wKgaomV4AICAK5axAAL4ikXTrd4773.jpg

然后選擇所有要下載的文件,最后按“Enter”啟動(dòng)下載。

wKgaomV4AICAeJJRAARfofVk4Gk686.jpg

實(shí)際測(cè)試,迅雷下載的方式,速度最快,平均在6MB/s左右

wKgaomV4AICALILzAAEV7VxJebw215.jpg

04

從本地加載AI大模型模型

將AI大模型下載到本地后,在,把model_id改為model_local_path, 讓程序從本地加載AI大模型,例如:

model_id ="databricks/dolly-v2-3b"

model_local_path ="D:/dolly-v2-3b"

tokenizer =AutoTokenizer.from_pretrained(model_local_path,local_file_only=True)

ov_model =OVModelForCausalLM.from_pretrained(model_local_path, device=current_device, export=True, ov_config=ov_config, load_in_8bit=False,local_file_only=True)

在240-dolly-2-instruction-following.ipynb中“Download and Convert Model”代碼塊更改如下所示:

frompathlib importPath

fromtransformers importAutoTokenizer

fromoptimum.intel.openvino importOVModelForCausalLM

model_id ="databricks/dolly-v2-3b"

model_local_path ="D:/dolly-v2-3b"

model_path =Path("dolly-v2-3b")

tokenizer =AutoTokenizer.from_pretrained(model_local_path,local_file_only=True)

current_device =device.value

ov_config ={'PERFORMANCE_HINT': 'LATENCY', 'NUM_STREAMS': '1', "CACHE_DIR": ""}

ifmodel_path.exists():

ov_model =OVModelForCausalLM.from_pretrained(model_path, device=current_device, ov_config=ov_config)

else:

ov_model =OVModelForCausalLM.from_pretrained(model_local_path, device=current_device, export=True, ov_config=ov_config, load_in_8bit=False,local_file_only=True)

ov_model.half()

ov_model.save_pretrained(model_path)

240-dolly-2-instruction-following.ipynb從本地加載模型的運(yùn)行效果,如下圖所示:

9dd3f766-98b6-11ee-8b88-92fbcf53809c.png ?

總結(jié):在遇到AI大模型無(wú)法下載時(shí),可以選擇用命令行的方式,或者下載器的方式,手動(dòng)從HuggingFace鏡像網(wǎng)站下載,然后修改加載模型的參數(shù),從本地加載模型,實(shí)現(xiàn)OpenVINO Notebooks的范例代碼順利運(yùn)行。







審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • Linux
    +關(guān)注

    關(guān)注

    87

    文章

    11292

    瀏覽量

    209323
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2423

    瀏覽量

    2640
  • OpenVINO
    +關(guān)注

    關(guān)注

    0

    文章

    92

    瀏覽量

    196
  • AI大模型
    +關(guān)注

    關(guān)注

    0

    文章

    315

    瀏覽量

    305

原文標(biāo)題:快速下載 OpenVINO Notebooks 中的 AI 大模型

文章出處:【微信號(hào):SDNLAB,微信公眾號(hào):SDNLAB】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    如何使用OpenVINO C++ API部署FastSAM模型

    象的位置和邊界。本文將介紹如何使用 OpenVINO C++ API 部署 FastSAM 模型,以實(shí)現(xiàn)快速高效的語(yǔ)義分割。在前文中我們發(fā)表了《基于 OpenVINO Python A
    的頭像 發(fā)表于 11-17 09:53 ?913次閱讀
    如何使用<b class='flag-5'>OpenVINO</b> C++ API部署FastSAM<b class='flag-5'>模型</b>

    快速下載OpenVIN NotebooksAI模型

    OpenVINO Notebooks 是 Jupyter Notebook 形式的 OpenVINO 范例程序大集合,方便開發(fā)者快速學(xué)習(xí)并掌握 Op
    的頭像 發(fā)表于 12-16 10:22 ?1082次閱讀
    <b class='flag-5'>快速</b><b class='flag-5'>下載</b>OpenVIN <b class='flag-5'>Notebooks</b><b class='flag-5'>中</b>的<b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>

    如何將PyTorch模型OpenVINO trade結(jié)合使用?

    無(wú)法確定如何轉(zhuǎn)換 PyTorch 掩碼 R-CNN 模型以配合OpenVINO?使用。
    發(fā)表于 08-15 07:04

    在LabVIEW調(diào)用OpenVINO? 模型

    自帶機(jī)器視覺函數(shù)庫(kù),并提供OpenCV接口庫(kù),開發(fā)機(jī)器視覺與自動(dòng)化應(yīng)用程序速度快使用LabVIEW調(diào)用OpenVINO IR模型,可以快速完成深度學(xué)習(xí)項(xiàng)目開發(fā)與交付。
    的頭像 發(fā)表于 03-21 10:05 ?3723次閱讀

    在C++中使用OpenVINO工具包部署YOLOv5模型

    下載并轉(zhuǎn)換YOLOv5預(yù)訓(xùn)練模型的詳細(xì)步驟,請(qǐng)參考:《基于OpenVINO?2022.2和蝰蛇峽谷優(yōu)化并部署YOLOv5模型》,本文所使用的Open
    的頭像 發(fā)表于 02-15 16:53 ?4646次閱讀

    AI愛克斯開發(fā)板上用OpenVINO?加速YOLOv8分類模型

    本系列文章將在 AI 愛克斯開發(fā)板上使用 OpenVINO 開發(fā)套件依次部署并測(cè)評(píng) YOLOv8 的分類模型、目標(biāo)檢測(cè)模型、實(shí)例分割模型和人
    的頭像 發(fā)表于 05-05 11:47 ?1050次閱讀
    在<b class='flag-5'>AI</b>愛克斯開發(fā)板上用<b class='flag-5'>OpenVINO</b>?加速YOLOv8分類<b class='flag-5'>模型</b>

    AI愛克斯開發(fā)板上用OpenVINO?加速YOLOv8目標(biāo)檢測(cè)模型

    《在 AI 愛克斯開發(fā)板上用 OpenVINO 加速 YOLOv8 分類模型》介紹了在 AI 愛克斯開發(fā)板上使用 OpenVINO 開發(fā)套件
    的頭像 發(fā)表于 05-12 09:08 ?1311次閱讀
    在<b class='flag-5'>AI</b>愛克斯開發(fā)板上用<b class='flag-5'>OpenVINO</b>?加速YOLOv8目標(biāo)檢測(cè)<b class='flag-5'>模型</b>

    自訓(xùn)練Pytorch模型使用OpenVINO?優(yōu)化并部署在AI愛克斯開發(fā)板

    本文章將依次介紹如何將 Pytorch 自訓(xùn)練模型經(jīng)過一系列變換變成 OpenVINO IR 模型形式,而后使用 OpenVINO Python API 對(duì) IR
    的頭像 發(fā)表于 05-26 10:23 ?926次閱讀
    自訓(xùn)練Pytorch<b class='flag-5'>模型</b>使用<b class='flag-5'>OpenVINO</b>?優(yōu)化并部署在<b class='flag-5'>AI</b>愛克斯開發(fā)板

    AI愛克斯開發(fā)板上使用OpenVINO加速YOLOv8目標(biāo)檢測(cè)模型

    《在AI愛克斯開發(fā)板上用OpenVINO加速YOLOv8分類模型》介紹了在AI愛克斯開發(fā)板上使用OpenVINO 開發(fā)套件部署并測(cè)評(píng)YOLO
    的頭像 發(fā)表于 05-26 11:03 ?1238次閱讀
    <b class='flag-5'>AI</b>愛克斯開發(fā)板上使用<b class='flag-5'>OpenVINO</b>加速YOLOv8目標(biāo)檢測(cè)<b class='flag-5'>模型</b>

    AI愛克斯開發(fā)板上用OpenVINO?加速YOLOv8-seg實(shí)例分割模型

    《在 AI 愛克斯開發(fā)板上用 OpenVINO 加速 YOLOv8 目標(biāo)檢測(cè)模型》介紹了在 AI 愛克斯開發(fā)板上使用 OpenVINO 開發(fā)
    的頭像 發(fā)表于 06-05 11:52 ?999次閱讀
    在<b class='flag-5'>AI</b>愛克斯開發(fā)板上用<b class='flag-5'>OpenVINO</b>?加速YOLOv8-seg實(shí)例分割<b class='flag-5'>模型</b>

    沒有“中間商賺差價(jià)”, OpenVINO? 直接支持 PyTorch 模型對(duì)象

    隨著 OpenVINO 2023.0 版本的發(fā)布,OpenVINO 工具庫(kù)預(yù)置了全新的 PyTorch 前端,為開發(fā)者們提供了一條全新的 PyTorch 模型支持路徑,帶來(lái)更友好的用
    的頭像 發(fā)表于 06-27 16:39 ?754次閱讀
    沒有“中間商賺差價(jià)”, <b class='flag-5'>OpenVINO</b>? 直接支持 PyTorch <b class='flag-5'>模型</b>對(duì)象

    AI愛克斯開發(fā)板上用OpenVINO?加速YOLOv8-seg實(shí)例分割模型

    《在 AI 愛克斯開發(fā)板上用 OpenVINO 加速 YOLOv8 目標(biāo)檢測(cè)模型》介紹了在 AI 愛克斯開發(fā)板上使用 OpenVINO 開發(fā)
    的頭像 發(fā)表于 06-30 10:43 ?903次閱讀
    在<b class='flag-5'>AI</b>愛克斯開發(fā)板上用<b class='flag-5'>OpenVINO</b>?加速YOLOv8-seg實(shí)例分割<b class='flag-5'>模型</b>

    使用OpenVINO優(yōu)化并部署訓(xùn)練好的YOLOv7模型

    在《英特爾銳炫 顯卡+ oneAPI 和 OpenVINO 實(shí)現(xiàn)英特爾 視頻 AI 計(jì)算盒訓(xùn)推一體-上篇》一文,我們?cè)敿?xì)介紹基于英特爾 獨(dú)立顯卡搭建 YOLOv7 模型的訓(xùn)練環(huán)境,并
    的頭像 發(fā)表于 08-25 11:08 ?1511次閱讀
    使用<b class='flag-5'>OpenVINO</b>優(yōu)化并部署訓(xùn)練好的YOLOv7<b class='flag-5'>模型</b>

    OpenVINO賦能BLIP實(shí)現(xiàn)視覺語(yǔ)言AI邊緣部署

    ,使用 OpenVINO 輕松文生圖》,我們介紹了利用 OpenVINO 運(yùn)行 Stable Diffusion 模型,快速實(shí)現(xiàn)文生圖應(yīng)用
    的頭像 發(fā)表于 09-01 10:26 ?2386次閱讀

    OpenVINO? 賦能 BLIP 實(shí)現(xiàn)視覺語(yǔ)言 AI 邊緣部署

    圖》,我們介紹了利用OpenVINO運(yùn)行StableDiffusion模型,快速實(shí)現(xiàn)文生圖應(yīng)用。讓人人可以成為繪畫大師,利用AI隨心作畫。
    的頭像 發(fā)表于 09-04 16:21 ?698次閱讀
    <b class='flag-5'>OpenVINO</b>? 賦能 BLIP 實(shí)現(xiàn)視覺語(yǔ)言 <b class='flag-5'>AI</b> 邊緣部署
    RM新时代网站-首页