以下文章來源于英特爾物聯(lián)網(wǎng) ,作者武卓
作者:英特爾AI軟件布道師 武卓 博士
在人工智能的飛速發(fā)展中,大語言模型,如Stable-Zephyr-3b,已成為研究和應(yīng)用的熱點。這些模型以其強大的文本理解和生成能力在多個領(lǐng)域大放異彩。然而,大多數(shù)高性能模型通常需要昂貴的計算資源,使得它們的應(yīng)用受限于有限的環(huán)境。本文將探討在OpenVINO的賦能下,如何在不足千元的AI開發(fā)板上部署Stable-Zephyr-3b模型,構(gòu)建聊天機器人,成為實現(xiàn)AI無處不在愿景的重要組成部分之一。
Stable Zephyr 3B是一個先進的大語言模型,擁有30億參數(shù),它在多個語言處理任務(wù)上顯示出了優(yōu)異的性能。這個模型特別是在大小相對較小的情況下,比許多流行模型都要出色,這表明了它高效的參數(shù)使用和強大的學習能力。該模型的訓練靈感來自于HugginFaceH4的Zephyr 7B訓練管道,這是一個專注于高效訓練和性能優(yōu)化的系統(tǒng)。Stable Zephyr 3B是在混合的數(shù)據(jù)集上進行訓練的,包括了公開可用的數(shù)據(jù)集和通過直接偏好優(yōu)化(DPO)技術(shù)生成的合成數(shù)據(jù)集。DPO是一種優(yōu)化技術(shù),它直接在模型的偏好上施加約束,以產(chǎn)生更高質(zhì)量的數(shù)據(jù)供模型學習。
該模型的性能評估是基于MT Bench和Alpaca Benchmark,這兩個基準都是在業(yè)界公認的,用以衡量語言模型在多種任務(wù)上的效能。通過這些嚴格的評估,Stable Zephyr 3B展現(xiàn)了其在理解和生成語言方面的卓越能力。更多關(guān)于模型的架構(gòu)、訓練過程、使用的數(shù)據(jù)集以及在各項評估中的表現(xiàn)的信息可以在模型卡片中找到。
此文使用了研揚科技針對邊緣AI行業(yè)開發(fā)者推出了哪吒(Nezha)開發(fā)套件以信用卡大?。?5 x 56mm)的開發(fā)板-哪吒(Nezha)為核心,哪吒采用Intel N97處理器(Alder Lake-N),最大睿頻3.6GHz,IntelUHD Graphics內(nèi)核GPU,可實現(xiàn)高分辨率顯示;板載LPDDR5內(nèi)存、eMMC存儲及TPM 2.0,配備GPIO接口,支持Windows和Linux操作系統(tǒng),這些功能和無風扇散熱方式相結(jié)合,為各種應(yīng)用程序構(gòu)建高效的解決方案,適用于如自動化、物聯(lián)網(wǎng)網(wǎng)關(guān)、數(shù)字標牌和機器人等應(yīng)用。
要在這些資源有限的設(shè)備上運行如Stable-Zephyr-3b這樣的大型模型,模型的壓縮和優(yōu)化是關(guān)鍵。借助OpenVINO提供的模型優(yōu)化工具NNCF,可以將模型量化壓縮為INT4精度的模型,從而可以大幅度減少模型的大小和計算需求,而保持相對較高的性能。接下來,就讓我們通過我們常用的OpenVINO Notebooks倉庫中關(guān)于Stable Zephyr 3B模型的Jupyter Notebook代碼和拆解,來進一步了解具體步驟吧。(Jupyter notebook代碼地址:
https://github.com/openvinotoolkit/openvino_notebooks/tree/main/notebooks/273-stable-zephyr-3b-chatbot )
第一步:安裝相應(yīng)工具包
為了方便模型轉(zhuǎn)換步驟和模型性能評估,我們將使用llm_bench(https://github.com/openvinotoolkit/openvino.genai/tree/master/llm_bench/python )工具,該工具提供了一種統(tǒng)一的方法來估計大語言模型(LLM)的性能。它基于由Optimum-Intel提供的管道,并允許使用幾乎相同的代碼來估計Pytorch和OpenVINO模型的性能。
首先git clone llm_bench所在的代碼倉庫:
from pathlibimport Path
import sys
genai_llm_bench = Path("openvino.genai/llm_bench/python")
ifnot genai_llm_bench.exists():
!git clone https://github.com/openvinotoolkit/openvino.genai.git
sys.path.append(str(genai_llm_bench))
并進行相關(guān)Python包的安裝:
%pip uninstall -q -y optimum-intel optimum
%pip install -q --extra-index-url https://download.pytorch.org/whl/cpu -r ./openvino.genai/llm_bench/python/requirements.txt
%pip uninstall -q -y openvino openvino-dev openvino-nightly
%pip install -q openvino-nightly
第二步:將模型轉(zhuǎn)換為OpenVINO IR格式,并利用NNCF將模型權(quán)重壓縮為INT4精度
llm_bench提供了一個轉(zhuǎn)換腳本,用于將大語言模型轉(zhuǎn)換為與Optimum-Intel兼容的OpenVINO IR格式。它還允許使用NNCF將模型權(quán)重壓縮為INT8或INT4精度。要啟用INT4的權(quán)重壓縮,我們應(yīng)該使用--compress_weights 4BIT_DEFAULT 參數(shù)。權(quán)重壓縮算法旨在壓縮模型的權(quán)重,并可用于優(yōu)化大模型的占用空間和性能。與INT8壓縮相比,INT4壓縮進一步提高了性能,但會引入輕微的預(yù)測質(zhì)量下降。
model_path = Path("stable-zephyr-3b/pytorch/dldt/compressed_weights/OV_FP16-4BIT_DEFAULT")
convert_script = genai_llm_bench / "convert.py"
!python $convert_script --model_id stabilityai/stable-zephyr-3b --precision FP16 --compress_weights 4BIT_DEFAULT --output stable-ze
第三步:評估模型性能
openvino.genai / llm_bench / python / benchmark.py腳本允許在特定輸入提示上估計文本生成管道的推理,給定最大生成分詞的數(shù)量。模型性能評估以時延為主。
benchmark_script = genai_llm_bench /"benchmark.py"
!python $benchmark_script -m $model_path -ic512 -p"Tell me story about cats"
運行結(jié)果如下:
第四步:應(yīng)用狀態(tài)變換來自動處理模型狀態(tài)
Stable Zephyr是一種自回歸的解碼器變換器模型,它通過緩存先前計算的隱藏狀態(tài)來優(yōu)化生成過程和內(nèi)存使用,避免每次生成新令牌時重復計算。隨著模型和注意力塊的增大,處理長序列的緩存策略可能對內(nèi)存系統(tǒng)構(gòu)成挑戰(zhàn)。因此,OpenVINO提出了一種轉(zhuǎn)換策略,將緩存邏輯內(nèi)置于模型中以降低內(nèi)存消耗并優(yōu)化性能。您可以通過在轉(zhuǎn)換步驟中使用--stateful標志添加有狀態(tài)轉(zhuǎn)換來估計模型性能。
stateful_model_path = Path("stable-zephyr-3b-stateful/pytorch/dldt/compressed_weights/OV_FP16-4BIT_DEFAULT")
!python $convert_script --model_id stabilityai/stable-zephyr-3b --precision FP16 --compress_weights 4BIT_DEFAULT --output stable-zephyr-3b-stateful --force_convert --stateful
第五步:利用Optimum-Intel加載模型并在基于Gradio搭建的用戶界面上運行模型
同樣地,這個模型也可以用Optimum-Intel工具包里定義的OVModelForCausalLM 流水線來加載模型和運行推理,代碼如下:
from utils.ov_model_classesimport register_normalized_configs
from optimum.intel.openvinoimport OVModelForCausalLM
from transformers import AutoConfig
# Load model into Optimum Interface
register_normalized_configs()
ov_model = OVModelForCausalLM.from_pretrained(model_path, compile=False, config=AutoConfig.from_pretrained(stateful_model_path, trust_remote_code=True), stateful=True)
和我們的很多大預(yù)言模型和生成式AI的Notebook示例代碼一樣,在這個Notebook中,我們也提供了基于Gradio編寫的用戶友好的使用界面。最終在我們的哪吒開發(fā)板上運行該模型的推理。
整個的步驟就是這樣!現(xiàn)在就開始跟著我們提供的代碼和步驟,動手試試用OpenVINO在哪吒開發(fā)板上運行基于大語言模型的聊天機器人吧。
-
AI
+關(guān)注
關(guān)注
87文章
30728瀏覽量
268882 -
人工智能
+關(guān)注
關(guān)注
1791文章
47183瀏覽量
238241 -
OpenVINO
+關(guān)注
關(guān)注
0文章
92瀏覽量
196
發(fā)布評論請先 登錄
相關(guān)推薦
評論