RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

100%在樹莓派上執(zhí)行的LLM項目

jf_cVC5iyAO ? 來源:易心Microbit編程 ? 2024-02-29 16:29 ? 次閱讀

ChatGPT的人性口語化回復(fù)相信許多人已體驗過,也因此掀起一波大型語言模型(Large Language Model, LLM)熱潮,LLM即ChatGPT背后的主運作技術(shù),但LLM運作需要龐大運算力,因此目前多是在云端(Cloud)上執(zhí)行。

然而在云端執(zhí)行也有若干缺點,一是Internet斷線時無法使用;二是或多或少會泄漏個資隱私;三是上傳的話語內(nèi)容會被審查,但審查標準難以捉摸,且已有諸多矯枉過正的案例;四是因為模型已放在云端與人共享,也可能已被他人誤導(dǎo),俗稱模型被教壞了。

所以有些人也希望LLM能在本地端(Local)、本機端執(zhí)行,如此就不怕斷線、泄漏隱私、內(nèi)容審查、誤導(dǎo)等缺點。但要能在本地端執(zhí)行,其LLM就不能太大,目前已經(jīng)有諸多信息技術(shù)專家提出各種嘗試,期望能將云端的LLM輕量化、減肥減肥,以便能在運算力有限的本機端執(zhí)行。

全世界最簡單的類GPT語音助理

對此已有創(chuàng)客發(fā)起項目,項目名就叫World’s Easiest GPT-like Voice Assistant,即世界上最簡單的類GPT語音助理,以此實現(xiàn)完全在本機端執(zhí)行的GPT語音服務(wù),不需要任何Internet聯(lián)機。

至于具體技術(shù)作法,首先是找一片樹莓派單板計算機,例如RPi 4,然后裝上麥克風(fēng)與喇叭,成為語音互動對話的輸入輸出,而后安裝Whisper這套軟件,可以將麥克風(fēng)接收到的語音轉(zhuǎn)成文字,文字喂給LLM。

LLM接收輸入后進行推論處理,處理后的結(jié)果以文字輸出,輸出的文字則透過另一個安裝軟件進行轉(zhuǎn)化,即eSpeak,把文字轉(zhuǎn)成語音后,再透過喇叭發(fā)聲回復(fù)。

TinyLlama-1.1B模型來實現(xiàn)類GPT語音助理項目

麥克風(fēng)與喇叭只是末梢,重點是在LLM,哪來的輕量型、本機端執(zhí)行的LLM?答案是llamafile項目,這個項目將LLM打包成單一個檔案,如此可方便地分發(fā)(分發(fā)distribute,通俗而言指可以輕易地下載文件、傳遞分享檔案)與執(zhí)行,項目發(fā)起者運用llamafile項目中的TinyLlama-1.1B模型來實現(xiàn)類GPT語音助理。

b27941ae-d6db-11ee-a297-92fbcf53809c.png

圖3 llamafile項目官網(wǎng)畫面(圖片來源:GitHub)

TinyLlama-1.1B確實是一個嬌小的LLM,以GPT-3而言就有175B,B即Billion指的是10億,LLM的大小通常以參數(shù)數(shù)目為準,1,750億個參數(shù)的LLM已相當龐大,需要對應(yīng)強大的運算力才能順暢執(zhí)行。

其他龐大的LLM還有MT-NLG,有5,300億個參數(shù),或5,400億個的PaLM等,都難以下放到本機端執(zhí)行,本機端很難有對應(yīng)強大的運算力來跑模型。而TinyLlama-1.1B顧名思義只有11億個參數(shù),參數(shù)大大減少下,本機端是有足夠運算力執(zhí)行該模型。

b29b6400-d6db-11ee-a297-92fbcf53809c.png

圖4 llamafile項目提供多種預(yù)訓(xùn)練模型,目前以TinyLlama-1.1B最小,僅760MB(圖片來源:GitHub)

當然,上述所言均是預(yù)訓(xùn)練模型(Pre-Train Model),或近期常稱為基礎(chǔ)模型(Foundation Model, FM),后續(xù)還是可以依據(jù)個人需要再行訓(xùn)練與調(diào)整,以便有更精準、更切合需求的推論結(jié)果。

這個類GPT語音助理項目完成上述后,實際測試的結(jié)果是,多數(shù)的發(fā)話詢問后需要15秒左右的時間才能回復(fù),復(fù)雜的詢問則要更久的時間。有人可以等或覺得這時間還可以,若覺得太慢或許可以改用運算力更強的RPi 5單板計算機,可能可以快一點。

值得注意的是,這個項目不是用語音關(guān)鍵詞(如Hey! Siri或OK! Google)來喚醒助理,而是設(shè)置一個按鈕,按下去后才讓樹莓派開始接收語音詢問。

另外,這整個項目用的都是開放源代碼及免授權(quán)費的軟件與模型,所以實現(xiàn)成本大概只有單板計算機、喇叭、麥克風(fēng)、按鈕等硬件而已。

其他技術(shù)細節(jié)包含llamafile與Raspberry Pi OS不兼容,所以在樹莓派上是改安裝Ubuntu Linux,更具體而言是64位的Ubuntu Server 22.04.3 LTS。另外,當然也要安裝Python才能操控樹莓派的GPIO接腳,從而能讀取按鈕狀態(tài)(是否被按下)。

小結(jié)

最后,這肯定不是第一個也不是最后一個LLM本地端化的嘗試,各種嘗試正前仆后繼地進行著,有的是提供壓縮工具將原本肥大的LLM加以縮小,有的干脆是原生訓(xùn)練出輕量的LLM,現(xiàn)階段可謂是百家爭鳴。

而筆者個人的看法,1.1B的LLM已經(jīng)很小,或許未來可以更小,但現(xiàn)階段可能改用更強的硬件會更務(wù)實,例如使用有GPU的桌面計算機,或給樹莓派加裝AI硬件加速器等,以便讓類GPT語音助理更快速響應(yīng)。




審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • GPIO
    +關(guān)注

    關(guān)注

    16

    文章

    1204

    瀏覽量

    52051
  • 硬件加速器
    +關(guān)注

    關(guān)注

    0

    文章

    42

    瀏覽量

    12763
  • 樹莓派
    +關(guān)注

    關(guān)注

    116

    文章

    1706

    瀏覽量

    105606
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    0

    文章

    286

    瀏覽量

    327

原文標題:不怕脫機!100%在樹莓派上執(zhí)行的LLM項目

文章出處:【微信號:易心Microbit編程,微信公眾號:易心Microbit編程】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    干貨來嘍!實用樹莓派Linux編譯指南

    不友好,有沒有好的解決辦法? 今天來分享一下我的私藏干貨——樹莓派Linux編譯。編譯好之后,開發(fā)板只需插到樹莓派上連接電腦就可以直接用了,極其方便。 本文以樹莓派為例,其他板子只要帶
    的頭像 發(fā)表于 12-18 16:31 ?39次閱讀
    干貨來嘍!實用<b class='flag-5'>樹莓</b>派Linux編譯指南

    樹莓派跑LLM難上手?也許你可以試試Intel哪吒開發(fā)板

    的興起,現(xiàn)在有潛力更小巧、便攜的設(shè)備上部署這些模型。例如,Raspberry Pi 樹莓派和 Intel 哪吒開發(fā)套件等單片機。盡管體積小巧,但它們具備足夠的能力運行某些精簡版本的模型。本文就兩款單片機上運行LLM做一個對比,
    的頭像 發(fā)表于 12-02 09:43 ?297次閱讀
    <b class='flag-5'>樹莓</b>派跑<b class='flag-5'>LLM</b>難上手?也許你可以試試Intel哪吒開發(fā)板

    什么是LLMLLM自然語言處理中的應(yīng)用

    所未有的精度和效率處理和生成自然語言。 LLM的基本原理 LLM基于深度學(xué)習(xí)技術(shù),尤其是變換器(Transformer)架構(gòu)。變換器模型因其自注意力(Self-Attention)機制而聞名,這種機制使得模型能夠捕捉文本中的長距離依賴關(guān)系。
    的頭像 發(fā)表于 11-19 15:32 ?522次閱讀

    如何在樹莓派上安裝Docker容器

    1. 準備工作 開始之前,請確保你的樹莓派已經(jīng)安裝了最新版本的Raspberry Pi OS。如果沒有,請按照以下步驟操作: 下載最新的Raspberry Pi OS鏡像:訪問 Raspberry
    的頭像 發(fā)表于 11-11 11:38 ?489次閱讀

    樹莓派上部署YOLOv5進行動物目標檢測的完整流程

    卓越的性能。本文將詳細介紹如何在性能更強的計算機上訓(xùn)練YOLOv5模型,并將訓(xùn)練好的模型部署到樹莓派4B上,通過樹莓派的攝像頭進行實時動物目標檢測。 一、電腦上訓(xùn)練YOLOv5模型
    的頭像 發(fā)表于 11-11 10:38 ?906次閱讀
    <b class='flag-5'>在</b><b class='flag-5'>樹莓</b><b class='flag-5'>派上</b>部署YOLOv5進行動物目標檢測的完整流程

    LLM技術(shù)對人工智能發(fā)展的影響

    。 一、LLM技術(shù)人工智能領(lǐng)域的應(yīng)用 自然語言處理(NLP) LLM技術(shù)自然語言處理領(lǐng)域發(fā)揮著重要作用。通過訓(xùn)練模型識別和生成語言模式,LLM
    的頭像 發(fā)表于 11-08 09:28 ?344次閱讀

    LLM和傳統(tǒng)機器學(xué)習(xí)的區(qū)別

    人工智能領(lǐng)域,LLM(Large Language Models,大型語言模型)和傳統(tǒng)機器學(xué)習(xí)是兩種不同的技術(shù)路徑,它們處理數(shù)據(jù)、模型結(jié)構(gòu)、應(yīng)用場景等方面有著顯著的差異。 1. 模型結(jié)構(gòu)
    的頭像 發(fā)表于 11-08 09:25 ?409次閱讀

    樹莓派和單片機的優(yōu)缺點是什么

    樹莓派(Raspberry Pi)和單片機(Microcontroller)是兩種廣泛應(yīng)用于電子項目和嵌入式系統(tǒng)的硬件平臺。它們各自具有獨特的優(yōu)缺點,適用于不同的應(yīng)用場景。 樹莓
    的頭像 發(fā)表于 08-30 18:21 ?1614次閱讀

    樹莓派gui開發(fā)用什么ide

    樹莓派(Raspberry Pi)是一款功能強大的微型計算機,可以運行多種操作系統(tǒng),如Raspbian、Ubuntu等。樹莓派上進行GUI(圖形用戶界面)開發(fā),可以使用多種集成開發(fā)環(huán)
    的頭像 發(fā)表于 08-30 16:49 ?849次閱讀

    llm模型訓(xùn)練一般用什么系統(tǒng)

    LLM(Large Language Model,大型語言模型)是近年來自然語言處理領(lǐng)域取得顯著成果的一種深度學(xué)習(xí)模型。它通常需要大量的計算資源和數(shù)據(jù)來進行訓(xùn)練。以下是關(guān)于LLM模型訓(xùn)練系統(tǒng)的介紹
    的頭像 發(fā)表于 07-09 10:02 ?396次閱讀

    LLM模型的應(yīng)用領(lǐng)域

    本文中,我們將深入探討LLM(Large Language Model,大型語言模型)的應(yīng)用領(lǐng)域。LLM是一種基于深度學(xué)習(xí)的人工智能技術(shù),它能夠理解和生成自然語言文本。近年來,隨著計算能力的提高
    的頭像 發(fā)表于 07-09 09:52 ?573次閱讀

    什么是LLM?LLM的工作原理和結(jié)構(gòu)

    隨著人工智能技術(shù)的飛速發(fā)展,大型語言模型(Large Language Model,簡稱LLM)逐漸成為自然語言處理(NLP)領(lǐng)域的研究熱點。LLM以其強大的文本生成、理解和推理能力,文本
    的頭像 發(fā)表于 07-02 11:45 ?7592次閱讀

    【算能RADXA微服務(wù)器試用體驗】+ GPT語音與視覺交互:1,LLM部署

    。環(huán)境變量的配置,未來具體項目中我們會再次提到。 下面我們正式開始項目項目從輸入到輸出分別涉及了語音識別,圖像識別,LLM,TTS這幾個
    發(fā)表于 06-25 15:02

    精選推薦!看大佬用樹莓派4做個迷你版PS5

    作者樹莓派4上設(shè)置了RetroPie,并制作了一個3D打印的定制外殼,靈感來自PlayStation 5的設(shè)計。就像是PlayStation 5的迷你版,雖然它無法運行現(xiàn)代游戲,不過,這仍然是
    發(fā)表于 05-13 10:24

    解鎖LLM新高度—OpenVINO? 2024.1賦能生成式AI高效運行

    LLM 的發(fā)展仍保持著驚人的速度。盡管現(xiàn)有的 LLM 已經(jīng)具備強大的功能,但通過 OpenVINO? 的優(yōu)化和推理加速,可以對這些復(fù)雜模型的執(zhí)行進行精煉,實現(xiàn)更快、更高效的處理,減少計算開銷并最大限度發(fā)揮硬件潛力,這將直接導(dǎo)致
    的頭像 發(fā)表于 05-10 10:36 ?519次閱讀
    RM新时代网站-首页