RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

AIBOX-1684X:把大語言模型“裝”進小盒子

Firefly開源團隊 ? 2024-04-20 08:02 ? 次閱讀

AIBOX-1684X支持主流大模型私有化部署,算力高達32TOPS,同時也支持CNN、RNN、LSTM等傳統(tǒng)網(wǎng)絡架構(gòu),支持TensorF NNX和Darknet等深度學習架構(gòu),并支持自定義算子開發(fā)。支持Docker容器化管理技術。適用于智能監(jiān)控、AI教學、算力服務、邊緣計算、大模型私有化部署、數(shù)據(jù)安全和隱私保護等場景。

458d6b92-fea9-11ee-9118-92fbcf53809c.jpg

全面的人工智能私有化部署

語言大模型

支持Transformer架構(gòu)下超大規(guī)模參數(shù)模型,如LLaMa2、ChatGLM、Qwen等大型語言模型的私有化部署。

視覺大模型

支持ViT、Grounding DIN0、SAM等視覺大模型的私有化部署。

AI繪畫

支持AIGC領域的Stable DiffusionV1.5圖像生成模型的私有化部署。

傳統(tǒng)網(wǎng)絡架構(gòu)

支持CNN、RNN、LSTM等傳統(tǒng)網(wǎng)絡架構(gòu)。

深度學習框架

支持多種深度學習框架,包括TensorFlow、PyTorch、MXNet、PaddlePaddle、ONNX和Darknet,并支持自定義算子開發(fā)。

Docker容器化

支持Docker容器化管理技術,可方便的進行鏡像部署。

32TOPS超高算力AI處理器

搭載SOPHON算能AI處理器BM1684X,擁有八核ARM Cortex-A53,最高主頻2.3GHz,采用12nm工藝制程;擁有高達32Tops(INT8)算力,或16TFLOPS(FP16/BF16)算力、或2Tops(FP32)高精度算力,支持主流編程框架,可廣泛應用于云端及邊緣應用的人工智能推理。

多路視頻AI處理性能

最高支持32路1080P H.264/H.265的視頻解碼,32路1080P高清視頻全流程處理(解碼+AI分析),滿足視頻流人臉檢測、車牌識別等各類AI應用場景的需求。

強大的網(wǎng)絡通訊能力

支持雙路1000Mbps以太網(wǎng) ,高速穩(wěn)定的網(wǎng)絡通訊方式,滿足不同應用場景需求。

45b6b038-fea9-11ee-9118-92fbcf53809c.jpg

高效散熱,工藝精美

配置工業(yè)級全金屬外殼,鋁合金結(jié)構(gòu)導熱,頂蓋外殼側(cè)面采用條幅格柵設計,保證外部空氣流通,高效散熱,保障在高溫運行狀態(tài)下的運算性能和穩(wěn)定性。頂蓋采用多孔六邊形設計, 簡潔美觀。整機小巧精致,運行穩(wěn)定,滿足各種工業(yè)級的應用需求。

45bb4b02-fea9-11ee-9118-92fbcf53809c.jpg

國產(chǎn)化定制,產(chǎn)品自主可控

可實現(xiàn)100%國產(chǎn)化硬件方案定制,技術完全自主可控,工業(yè)級產(chǎn)品質(zhì)量,穩(wěn)定的供貨周期,滿足各種行業(yè)的需求。

完善的開發(fā)資料

提供配套的源代碼、教程技術資料和開發(fā)工具,讓開發(fā)變得更加簡單方便。

廣泛的應用場景

廣泛適用于智能監(jiān)控、AI教學、算力服務、邊緣計算、大模型私有化部署、數(shù)據(jù)安全和隱私保護等場景。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 語言模型
    +關注

    關注

    0

    文章

    520

    瀏覽量

    10268
  • 深度學習
    +關注

    關注

    73

    文章

    5500

    瀏覽量

    121111
收藏 人收藏

    評論

    相關推薦

    【NVIDIA生態(tài)】具有100 TOPS強勁算力的AIBOX!

    JetsonOrin模組的高算力AI主機:AIBOX-OrinNano和AIBOX-OrinNX英偉達系列AIBOX該系列可提供40或100TOPS的AI計算能力、大容
    的頭像 發(fā)表于 12-05 03:00 ?361次閱讀
    【NVIDIA生態(tài)】具有100 TOPS強勁算力的<b class='flag-5'>AIBOX</b>!

    語言模型開發(fā)語言是什么

    在人工智能領域,大語言模型(Large Language Models, LLMs)背后,離不開高效的開發(fā)語言和工具的支持。下面,AI部落小編為您介紹大語言
    的頭像 發(fā)表于 12-04 11:44 ?94次閱讀

    AIBOX旗艦版:內(nèi)置NVIDIA核心模組

    AIBOX-OrinNano和AIBOX-OrinNX均搭載NVIDIA原裝JetsonOrin核心板模組,該系列可提供40~100TOPS的AI計算能力、大容量統(tǒng)一內(nèi)存和全面的軟件堆棧,能夠以超高
    的頭像 發(fā)表于 08-30 11:51 ?333次閱讀
    <b class='flag-5'>AIBOX</b>旗艦版:內(nèi)置NVIDIA核心模組

    AIBOX青春版上線!1399AI帶回家

    AIBOX-1684X上市后,這個小巧的盒子憑借本地化AI的能力,獲得市場一致好評?,F(xiàn)Firefly推出新一款入門級AI盒子AIBOX-1688該
    的頭像 發(fā)表于 08-08 08:02 ?649次閱讀
    <b class='flag-5'>AIBOX</b>青春版上線!1399<b class='flag-5'>把</b>AI帶回家

    Qwen2強勢來襲,AIBOX支持本地化部署

    AIBOX-1684X已適配Qwen2系列模型,并已集成在FireflyChat對話應用中,開機即可體驗。模型基礎更新預訓練和指令微調(diào)模型Qwen2系列包含5個尺寸的預訓
    的頭像 發(fā)表于 06-27 08:02 ?1033次閱讀
    Qwen2強勢來襲,<b class='flag-5'>AIBOX</b>支持本地化部署

    產(chǎn)品應用 | 小盒子跑大模型!英碼科技基于算能BM1684X平臺實現(xiàn)大模型私有化部署

    當前,在人工智能領域,大模型在豐富人工智能應用場景中扮演著重要的角色,經(jīng)過不斷的探索,大模型進入到落地的階段。而大模型在落地過程中面臨兩大關鍵難題:對龐大計算資源的需求和對數(shù)據(jù)隱私與安全的考量。為
    的頭像 發(fā)表于 06-14 16:29 ?708次閱讀
    產(chǎn)品應用 | <b class='flag-5'>小盒子</b>跑大<b class='flag-5'>模型</b>!英碼科技基于算能BM<b class='flag-5'>1684X</b>平臺實現(xiàn)大<b class='flag-5'>模型</b>私有化部署

    bm1684運行demo報錯怎么解決?

    ../models/BM1684X/yolov5s_v6.1_3output_fp32_1b.bmodel[BMRT][bmcpu_setup:406] INFO:cpu_lib \'libcpuop.so
    發(fā)表于 05-20 07:24

    AIBOX】裝在小盒子的AI足夠強嗎?

    Firefly推出大語言模型本地部署的產(chǎn)品:AIBOX-1684X,目前已適配主流的大語言模型,包括ChatGLM3-6B,以下是ChatG
    的頭像 發(fā)表于 05-15 08:02 ?433次閱讀
    【<b class='flag-5'>AIBOX</b>】裝在<b class='flag-5'>小盒子</b>的AI足夠強嗎?

    模型裝進小盒子:這個小魔盒直擊端側(cè)AIGC的痛點!

    私有本地化部署:智能硬件的未來隨著當下數(shù)字化的高速發(fā)展,今年將會迎來“大模型應用爆發(fā)元年”。市面上不少大模型產(chǎn)品應運而生,在大模型普惠應用井噴的時代,這類產(chǎn)品的使用存在許多門檻和風險,比如高昂
    的頭像 發(fā)表于 05-10 08:33 ?358次閱讀
    <b class='flag-5'>把</b>大<b class='flag-5'>模型</b>裝進<b class='flag-5'>小盒子</b>:這個小魔盒直擊端側(cè)AIGC的痛點!

    【大語言模型:原理與工程實踐】大語言模型的應用

    ,它通過抽象思考和邏輯推理,協(xié)助我們應對復雜的決策。 相應地,我們設計了兩類任務來檢驗大語言模型的能力。一類是感性的、無需理性能力的任務,類似于人類的系統(tǒng)1,如情感分析和抽取式問答等。大語言
    發(fā)表于 05-07 17:21

    【大語言模型:原理與工程實踐】大語言模型的評測

    語言模型的評測是確保模型性能和應用適應性的關鍵環(huán)節(jié)。從基座模型到微調(diào)模型,再到行業(yè)模型和整體能
    發(fā)表于 05-07 17:12

    【大語言模型:原理與工程實踐】大語言模型的基礎技術

    全面剖析大語言模型的核心技術與基礎知識。首先,概述自然語言的基本表示,這是理解大語言模型技術的前提。接著,詳細介紹自然
    發(fā)表于 05-05 12:17

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    語言模型(LLM)是人工智能領域的尖端技術,憑借龐大的參數(shù)量和卓越的語言理解能力贏得了廣泛關注。它基于深度學習,利用神經(jīng)網(wǎng)絡框架來理解和生成自然語言文本。這些
    發(fā)表于 05-04 23:55

    256Tops算力!CSA1-N8S1684X算力服務器

    (基于BM1684X的高算力服務器)高算力AI處理器BM1684X搭載了BM1684AI算力SoC芯片的計算模塊,主頻2.3GHz,擁有17.6Tops的AI算力,可配置12GBLPDDR4
    的頭像 發(fā)表于 03-23 08:02 ?1608次閱讀
    256Tops算力!CSA1-N8S<b class='flag-5'>1684X</b>算力服務器

    【算能RADXA微服務器試用體驗】Radxa Fogwise 1684X Mini 規(guī)格

    通過網(wǎng)絡可以了解到,算能RADXA微服務器的具體規(guī)格: 處理器:BM1684X 算力:高達32Tops INT8峰值算力 內(nèi)存:16GB LPDDR4X 內(nèi)存 存儲:64GB eMMC 編程框架
    發(fā)表于 02-28 11:21
    RM新时代网站-首页