RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA加速微軟最新的Phi-3 Mini開源語言模型

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來源:NVIDIA英偉達(dá)企業(yè)解決方案 ? 2024-04-28 10:36 ? 次閱讀

NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開源語言模型。TensorRT-LLM 是一個開源庫,用于優(yōu)化從 PC 到云端的 NVIDIA GPU 上運行的大語言模型推理。

Phi-3 Mini 與 10 倍之于其大小的模型能力不相上下。不同于僅用于研究的 Phi-2,Phi-3 Mini 不僅可以用于研究,同時還可以用于多種商業(yè)用途。搭載 NVIDIA RTX GPU 的工作站或搭載 GeForce RTX GPU 的 PC 可以使用 Windows DirectML 或 TensorRT-LLM 在本地運行該模型。

該模型有 38 億個參數(shù),在 512 個 NVIDIA Tensor Core GPU 上使用 3.3 萬億個 token 訓(xùn)練而成,僅耗時七天時間。

Phi-3 Mini 有兩個版本,一個版本支持 4K token,另一個版本支持 128K token,是同類模型中第一個支持超長上下文的模型。因此,開發(fā)者在向該模型提問時,可以使用 128,000 個 token(模型能夠處理的最小語言單位),使模型能夠做出更加符合現(xiàn)實的回答。

開發(fā)者可以在 ai.nvidia.com上試用帶有 128K 上下文窗口的 Phi-3 Mini。該模型被打包成 NVIDIA NIM,這是一項帶有標(biāo)準(zhǔn)應(yīng)用編程接口的微服務(wù),可以部署在任何位置。

在邊緣高效運行

自主機器人和嵌入式設(shè)備開發(fā)者可以通過社區(qū)教程(如 Jetson AI Lab)學(xué)習(xí)創(chuàng)建和部署生成式 AI,并在 NVIDIA Jetson 上部署 Phi-3。

Phi-3 Mini 模型只有 38 億個參數(shù),非常小巧緊湊,可以在邊緣設(shè)備上高效運行。參數(shù)就像內(nèi)存中的旋鈕,可在模型訓(xùn)練過程中進(jìn)行精確的調(diào)整,使模型能夠?qū)斎氲奶崾咀龀龈叨葴?zhǔn)確的響應(yīng)。

Phi-3 可以在成本和資源受限的用例中提供幫助,尤其是較簡單的任務(wù)。該模型在關(guān)鍵語言基準(zhǔn)測試中的表現(xiàn)優(yōu)于一些較大的模型,同時在滿足延遲要求的情況下給出結(jié)果。

TensorRT-LLM 將支持 Phi-3 Mini 的長上下文窗口,并使用 LongRoPE、FP8/飛行批處理等眾多優(yōu)化措施和內(nèi)核來提高推理吞吐量,減少延遲。TensorRT-LLM 的應(yīng)用很快將在 GitHub 上的示例文件夾中提供。

開發(fā)者可以轉(zhuǎn)換為 TensorRT-LLM 檢查點格式,該格式針對推理進(jìn)行了優(yōu)化,可以輕松地與 NVIDIA Triton 推理服務(wù)器一起部署。

開發(fā)開放式系統(tǒng)

NVIDIA 是開源生態(tài)系統(tǒng)的積極貢獻(xiàn)者,已經(jīng)發(fā)布了 500 多個帶有開源許可證的項目。

NVIDIA 為 JAX、Kubernetes、OpenUSD、PyTorch 和 Linux 內(nèi)核等眾多外部項目做出了貢獻(xiàn),還為各種開源基金會和標(biāo)準(zhǔn)機構(gòu)提供支持。

此次發(fā)布建立在 NVIDIA 與微軟深厚的合作基礎(chǔ)上,雙方的合作為加速 DirectML、Azure 云、生成式 AI 研究以及醫(yī)療和生命科學(xué)等領(lǐng)域的創(chuàng)新鋪平了道路。



審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器人
    +關(guān)注

    關(guān)注

    211

    文章

    28379

    瀏覽量

    206912
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    4978

    瀏覽量

    102984
  • 嵌入式設(shè)備
    +關(guān)注

    關(guān)注

    0

    文章

    110

    瀏覽量

    16955
  • GPU芯片
    +關(guān)注

    關(guān)注

    1

    文章

    303

    瀏覽量

    5804
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2423

    瀏覽量

    2640

原文標(biāo)題:小巧而強大:NVIDIA 加速微軟 Phi-3 開源“小語言模型”

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    使用NVIDIA TensorRT提升Llama 3.2性能

    Llama 3.2 模型集擴(kuò)展了 Meta Llama 開源模型集的模型陣容,包含視覺語言模型
    的頭像 發(fā)表于 11-20 09:59 ?204次閱讀

    搭建開源語言模型服務(wù)的方法

    本文我們將總結(jié)5種搭建開源語言模型服務(wù)的方法,每種都附帶詳細(xì)的操作步驟,以及各自的優(yōu)缺點。
    的頭像 發(fā)表于 10-29 09:17 ?182次閱讀

    NVIDIA NIM助力企業(yè)高效部署生成式AI模型

    Canonical、Nutanix 和 Red Hat 等廠商的開源 Kubernetes 平臺集成了 NVIDIA NIM,將允許用戶通過 API 調(diào)用來大規(guī)模地部署大語言模型
    的頭像 發(fā)表于 10-10 09:49 ?382次閱讀

    在英特爾酷睿Ultra7處理器上優(yōu)化和部署Phi-3-min模型

    2024年4月23日,微軟研究院公布Phi-3系列AI大模型,包含三個版本:mini(3.8B參數(shù))、small(7B參數(shù))以及medium(14B參數(shù))。
    的頭像 發(fā)表于 08-30 16:58 ?581次閱讀
    在英特爾酷睿Ultra7處理器上優(yōu)化和部署<b class='flag-5'>Phi-3</b>-min<b class='flag-5'>模型</b>

    如何加速語言模型推理

    的主要挑戰(zhàn)。本文將從多個維度深入探討如何加速語言模型的推理過程,以期為相關(guān)領(lǐng)域的研究者和開發(fā)者提供參考。
    的頭像 發(fā)表于 07-04 17:32 ?516次閱讀

    微軟發(fā)布PhI-3-Vision模型,提升視覺AI效率

    Phi-3-vision 是一種小型多模式語言模型(SLM),主要適用于本地人工智能場景。其模型參數(shù)高達(dá) 42 億,上下文序列包含 128k 個符號,可滿足各種視覺推理和其他任務(wù)需求。
    的頭像 發(fā)表于 05-28 11:35 ?471次閱讀

    英特爾聯(lián)手微軟,推動移動設(shè)備低功耗計算及AI解決方案

    據(jù)報道,微軟于4月至5月間相繼推出了多款Phi-3小型語言模型(SLM),這些模型以其“輕便易攜且能在移動設(shè)備中運行”以及強大的視覺處理能力
    的頭像 發(fā)表于 05-27 15:59 ?361次閱讀

    微軟發(fā)布視覺型AI新模型Phi-3-vision

     據(jù)悉,Phi-3-vision 作為微軟 Phi-3 家族的首款多模態(tài)模型,繼承自 Phi-3-mini 的文本理解能力,兼具輕巧便攜特性
    的頭像 發(fā)表于 05-27 15:56 ?472次閱讀

    英特爾優(yōu)化AI產(chǎn)品組合,助力微軟Phi-3家族模型

    近日,英特爾宣布針對微軟Phi-3家族開放模型,成功驗證并優(yōu)化了其跨客戶端、邊緣及數(shù)據(jù)中心的AI產(chǎn)品組合。這一重要舉措旨在提供更為靈活和高效的AI解決方案。
    的頭像 發(fā)表于 05-27 11:47 ?660次閱讀

    英特爾與微軟合作在其AI PC及邊緣解決方案中支持多種Phi-3模型

    近日,英特爾針對微軟的多個Phi-3家族的開放模型,驗證并優(yōu)化了其跨客戶端、邊緣和數(shù)據(jù)中心的AI產(chǎn)品組合。
    的頭像 發(fā)表于 05-27 11:15 ?570次閱讀

    NVIDIA與Google DeepMind合作推動大語言模型創(chuàng)新

    支持 NVIDIA NIM 推理微服務(wù)的谷歌最新開源模型 PaliGemma 首次亮相。
    的頭像 發(fā)表于 05-16 09:44 ?445次閱讀

    微軟準(zhǔn)備推出全新人工智能語言模型

    微軟近期傳出消息,正在秘密研發(fā)一款全新的人工智能語言模型,這款模型在規(guī)模上預(yù)計將具備與谷歌和OpenAI等業(yè)界巨頭相抗衡的實力。據(jù)悉,這款新模型
    的頭像 發(fā)表于 05-08 09:30 ?419次閱讀

    微軟發(fā)布phi-3AI模型,性能超越GPT-3.5

    微軟稱,帶有38億參數(shù)的phi-3-mini經(jīng)過3.3萬億token的強化學(xué)習(xí),其基礎(chǔ)表現(xiàn)已經(jīng)超過Mixtral 8x7B及GPT-3.5;此外,該模型可在手機等移動設(shè)備上運行,并在phi
    的頭像 發(fā)表于 04-23 14:32 ?534次閱讀

    NVIDIA全面加快Meta Llama 3的推理速度

    Meta 最新開源語言模型采用 NVIDIA 技術(shù)構(gòu)建,其經(jīng)過優(yōu)化后可在云、數(shù)據(jù)中心、邊緣和 PC 的 NVIDIA GPU 上運行。
    的頭像 發(fā)表于 04-23 09:52 ?453次閱讀

    機器人基于開源的多模態(tài)語言視覺大模型

    ByteDance Research 基于開源的多模態(tài)語言視覺大模型 OpenFlamingo 開發(fā)了開源、易用的 RoboFlamingo 機器人操作
    發(fā)表于 01-19 11:43 ?407次閱讀
    機器人基于<b class='flag-5'>開源</b>的多模態(tài)<b class='flag-5'>語言</b>視覺大<b class='flag-5'>模型</b>
    RM新时代网站-首页