RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于大語言模型辯論的多智能體協(xié)作推理分析

深度學(xué)習(xí)自然語言處理 ? 來源:哈工大SCIR ? 2023-11-29 15:45 ? 次閱讀

背景及動機

最近,像ChatGPT這樣的大型語言模型(LLMs)在一定程度上展現(xiàn)出了通用智能 [1],并且 LLMs 已被廣泛用作各種應(yīng)用中的基礎(chǔ)模型 [2,3]。為了解決依稀更復(fù)雜的任務(wù),多個 LLMs 被引入來進行協(xié)作,不同的 LLMs 執(zhí)行不同的子任務(wù)或同一任務(wù)的不同方面 [4,5]。有趣的是,這些 LLMs 是否擁有協(xié)作精神?它們是否能有效并高效地協(xié)作,實現(xiàn)一個共同的目標(biāo)?

36a17bd6-8e70-11ee-939d-92fbcf53809c.png

圖1: 辯論中的妥協(xié) (a) 和反駁 (b),其中是正方,是反方

這篇論文中,我們探討了多個 LLMs 之間的一致性 (inter-consistency),這與現(xiàn)有的大部分研究不同,現(xiàn)有研究主要探討單個 LLM 內(nèi)的自我一致性 (intra-consistency 或 self-consistency) 問題 [6,7]?;谖覀兊挠^察和實驗,我們強調(diào)了LLMs協(xié)作中的可能存在的兩個主要問題。首先,LLMs 的觀點很容易發(fā)生改變。如圖1(a)所示,正方和反方 LLMs 給出了不同的預(yù)測結(jié)果,而正方很快就妥協(xié)并接受了反方的答案。所以,LLMs 到底有多容易改變自己的觀點,又有多大程度會堅持自己的觀點?其次,當(dāng) LLMs 堅持自己的意見時 (圖1(b)),他們進行協(xié)作時是否能在共同目標(biāo)上達(dá)成共識?

受辯論理論 [8] 的啟發(fā),我們設(shè)計了一個辯論框架 (FORD),以系統(tǒng)和定量地研究 LLMs 協(xié)作中的模型間不一致問題?;?FORD,我們允許 LLMs 通過辯論探索它們自己的理解與其他 LLMs 的概念之間的差異。因此,這些結(jié)果不僅能夠鼓勵 LLMs 產(chǎn)生更多樣化的結(jié)果,也使得 LLMs 可以通過相互學(xué)習(xí)實現(xiàn)性能提升。

具體來說,我們以多項選擇的常識推理作為示例任務(wù),因為常識推理任務(wù)是一類可能性 (plausible) 的任務(wù),每個答案都是可能成立的,只是正確答案成立的可能性更高,所以常識推理任務(wù)更適合被用來進行辯論。為此我們制定了一個三階段的辯論來對齊現(xiàn)實世界的場景:(1)平等辯論:兩個具有可比能力的 LLMs 之間的辯論。(2)錯位辯論:能力水平差異較大的兩個 LLMs 之間的辯論。(3)圓桌辯論:兩個以上的 LLMs 之間的辯論。

2. 數(shù)據(jù)集、LLMs及相關(guān)定義

我們在這里統(tǒng)一介紹實驗使用的數(shù)據(jù)集,LLMs,模型間不一致性的定義,以及使用的基線方法等。

2.1 數(shù)據(jù)集(常識推理)

36b040f8-8e70-11ee-939d-92fbcf53809c.png

表1:7個常識推理數(shù)據(jù)的任務(wù)類型和大小

?NLI [9]:大規(guī)模的溯因推理數(shù)據(jù)集

?CommonsenseQA[10]:大規(guī)模的常識問答數(shù)據(jù)集

?COPA[11]:小規(guī)模的因果推理數(shù)據(jù)集

?e-CARE[12]:大規(guī)模的可解釋因果推理數(shù)據(jù)集

?SocialIQa [13]:有關(guān)日常事件的社會影響的常識推理數(shù)據(jù)集

?PIQA [14]:有關(guān)物理常識的自然語言推理數(shù)據(jù)集

?StrategyQA[15]:有關(guān)隱式推理策略的數(shù)據(jù)集

數(shù)據(jù)集的統(tǒng)計信息見表1。

2.2大語言模型(LLMs)

我們在辯論中使用了以下 6 個 LLMs 進行實驗:

?閉源模型

–gpt-3.5-turbo:記作ChatGPT,是一個對話補全模型

–gpt-3.5-turbo-0301:記作ChatGPT-0301,是gpt-3.5-turbo的迭代版本

–text-davinci-003:記作Davinci-003,是一個文本補全模型

–gpt-4:記做GPT-4,是一個更強的對話補全模型

?開源模型

–LLaMA-13B:記作LLaMA,是Meta公司開源的擁有13B參數(shù)的文本補全模型

–Vicuna-13B:記作Vicuna,是在70K指令數(shù)據(jù)上微調(diào)后的LLaMA模型

2.3模型間的不一致性 (INCON)

假設(shè)我們有 個 LLMs:,以及一個擁有 個樣例的數(shù)據(jù)集:。我們將 定義為 在 的預(yù)測結(jié)果。則模型間的不一致性 INCON 可以被定義為:

其中 是一個符號函數(shù),當(dāng) 中存在兩個任意的變量不相等, 取 1,否則 取 0。

2.4基線方法

我們定義了 3 種基線方法來和辯論框架進行對比:

?SingleLLM:只用一個 LLM 來執(zhí)行推理

?Collaboration-Soft(Col-S):隨機相信其中一個 LLM 的結(jié)果,所以這個方法的性能是多個 LLMs 的性能的平均

?Collaboration-Hard(Col-H):只相信一致的預(yù)測,不一致的的預(yù)測都看作是錯誤的

3.辯論框架 (FORD)

36c8cfc4-8e70-11ee-939d-92fbcf53809c.png

圖2 辯論框架,(1) LLMs 對每一個樣例,獨立地給出選項和解釋作為立場和論據(jù);(2) 在立場不一致的樣例上面,基于第一步的論據(jù),LLMs 交替式地進行辯論;(3) 裁判對辯論過程進行總結(jié)并給出最終的辯論結(jié)果

?Step1:對于給定的每個樣例,每個 LLM 都單獨進行回答,生成一個答案和解釋,答案和解釋則作為相關(guān) LLM 在此樣例上的立場和初始論據(jù)。根據(jù) LLMs 在每個樣例上的立場,把樣例分為立場一致的樣例和立場不一致的樣例,只有立場不一致的樣例才會進行辯論。

?Step2:對于每個立場不一致的樣例,基于初始的兩個論據(jù),LLMs 交替地進行辯論。在辯論期間,LLMs 可以堅持自己的看法,也可以向其它更合理的看法妥協(xié),每次辯論都會生成一個新的立場和新的論據(jù),但是新的立場不會放入辯論過程中。辯論會在達(dá)成共識或者是輪次達(dá)到上限時停止。

?Step3:最后我們會根據(jù)辯論過程中立場的變化,使用啟發(fā)式的方法,對辯論進行最后的總結(jié),并得到最終的辯論結(jié)果。當(dāng) LLMs 達(dá)成共識的時候,一致的立場作為最終結(jié)果,若沒達(dá)成一致,則不同論據(jù)的立場進行投票得到最終結(jié)果。

4.實驗

考慮到不同 LLMs 在不同數(shù)據(jù)集上的表現(xiàn),我們設(shè)置一下辯論進行討論 (對于兩個 LLMs 的辯論來說,& 符號左邊是正方,右邊是反方):

?平等辯論

–ChatGPT& Davinci-003

–ChatGPT& ChatGPT-0301

–LLaMA& Vicuna

?錯位辯論

–ChatGPT& GPT-4

–LLaMA& ChatGPT

?圓桌辯論

–ChatGPT & Davinci-003 & GPT-4 (錯位的圓桌辯論)

–ChatGPT & Davinci-003 & ChatGPT-0301 (平等的圓桌辯論)

4.1平等辯論

36ce0840-8e70-11ee-939d-92fbcf53809c.png

圖 3:平等辯論中,各 LLMs 對在不同數(shù)據(jù)集上的不一致性。虛線部分代表正方模型預(yù)測錯誤而反方模型預(yù)測正確帶來的不一致性。

4.1.1不一致性

我們首先執(zhí)行辯論框架的第一步,來得到不同辯論中,LLMs之間的不一致性。結(jié)果如圖3所示,我們可以得到以下結(jié)論:

?不同類型(文本補全和對話補全,有無指令微調(diào))的LLMs之間(ChatGPT & Davinci-003, LLaMA & Vicuna)在幾乎所有數(shù)據(jù)集上都持有20%-30%的INCON,即使它們是基于相同的基礎(chǔ)模型開發(fā)的。每個條形中的虛線部分對INCON的貢獻(xiàn)接近50%,這意味著每個LLMs對中的LLM擁有可比但截然不同的能力。

?對于ChatGPT & ChatGPT-0301,ChatGPT-0301在功能上并不會完全覆蓋ChatGPT。這表明LLMs在迭代過程中獲得了新的能力的同時,也會失去一些現(xiàn)有的能力。因此,使用更新的LLMs來復(fù)現(xiàn)不可用的早期版本的LLMs的結(jié)果并不會令人信服。

4.1.2 平等辯論的結(jié)果

36eb0a12-8e70-11ee-939d-92fbcf53809c.png

表 2:平等辯論及基線方法在不同數(shù)據(jù)上的表現(xiàn)。帶下劃線的數(shù)字表示在三種協(xié)作模型中最好的結(jié)果,加粗的數(shù)字代表在單模型和協(xié)作模型中最好的結(jié)果。Average表示不同模型在所有數(shù)據(jù)集上的平均性能。

平等辯論及基線方法的表現(xiàn)如表 2 所示,我們可以得到以下結(jié)論:

?FORD在幾乎所有數(shù)據(jù)集上都優(yōu)于Col-S和Col-H,以及相應(yīng)的單一LLM(除了 Social IQa 上的 LLaMA & Vicuna)。這是因為FORD可以讓 LLMs 從更全面、更精確的視角來看待問題。這意味著具有可比能力的LLMs擁有協(xié)作精神,可以有效且高效地實現(xiàn)共同目標(biāo)。

?而 FORD 在 ChatGPT & ChatGPT-0301 上并沒有獲得像其他辯論那樣多的提升。這主要是由于它們的能力非常相似,導(dǎo)致它們通常對每個樣本都有相似的看法,使得性能提升微不足道。

?在每個數(shù)據(jù)集上,ChatGPT & ChatGPT-0301 具有更高的性能下限 (Col-H),這表明我們可以選擇類似的模型進行辯論獲得保守的收益。然而 ChatGPT & Davinci-003 具有更高的性能上限 (FORD),這表明我們可以選擇能力可比但差異較大的 LLMs 進行辯論以獲得更好的性能。

4.1.3辯論中不一致性的變化

36fac0e2-8e70-11ee-939d-92fbcf53809c.png

圖 4:隨著辯論的進行,(a) ChatGPT & Davinci-003, (b)ChatGPT & ChatGPT-0301, 以及 (c) LLaMA & Vicuna 的不一致性(INCON) 變化。

圖 4 展示了平等辯論的不一致性INCON隨著辯論輪次的變化,從中我們可以總結(jié)如下結(jié)論:

?對于每場公平辯論,每個數(shù)據(jù)集的每一輪后INCON都會逐漸下降。這是因為 LLMs 可以從彼此之間的差異中學(xué)習(xí)從而達(dá)成一致,這表明能力可比的LLMs可以進行辯論并在共同目標(biāo)上達(dá)成共識。

?對于 ChatGPT &Davinci-003 和 ChatGPT &ChatGPT-0301,INCON在所有數(shù)據(jù)集上幾乎下降到 0,而LLaMA & Vicuna 經(jīng)過辯論后仍然存在較為明顯的不一致性。我們認(rèn)為這是由于它們的能力差距造成的。

?ChatGPT & ChatGPT-0301 的INCON經(jīng)過 2 輪就實現(xiàn)了收斂,比其他公平辯論要早。這主要是因為它們的能力非常相似,導(dǎo)致它們更早達(dá)成共識。

4.2錯位辯論

4.2.1辯論結(jié)果

37036328-8e70-11ee-939d-92fbcf53809c.png

表 3:錯位辯論的結(jié)果

37104d68-8e70-11ee-939d-92fbcf53809c.png

圖 5:錯位辯論中不一致性的變化

由于資源所限,我們只在 e-CARE 和 PIQA 上進行錯位辯論,錯位辯論的結(jié)果如表 3 和圖 5 所示,我們可以得出以下結(jié)論:

?FORD 可以輕松超越Col-S 和Col-H,以及較弱的那一個 LLM,但比不上較強的那一個 LLMs。似乎錯位辯論存在一個性能上限,這個上限與較強的 LLMs 的性能有關(guān)。這表明能力不匹配的LLMs很難有效地合作實現(xiàn)共同目標(biāo)。

?即使能力不匹配,LLMs 之間的INCON 仍然繼續(xù)下降。這些表明能力不匹配的 LLMs 仍然具有達(dá)成共識的協(xié)作精神,但會受到能力較差的 LLMs 的干擾。

?與平等辯論相比,占主導(dǎo)地位的 LLMs(GPT-4 和ChatGPT)可能會被較弱的 LLMs 分散注意力,但將 ChatGPT & Davinci-003 和 LLaMA & Vicuna 中的 Davinci-003 以及 Vicuna 分別換成GPT-4 和 ChatGPT,F(xiàn)ORD還是會獲得顯著的提升。

?LLaMA & ChatGPT 的 FORD 似乎表現(xiàn)還遠(yuǎn)遠(yuǎn)沒有達(dá)到可能存在的上限,這是因為 LLaMA 沒有能力對其它模型的論據(jù)進行評估,只會不斷表明自己的立場,這更加分散了 ChatGPT 的注意力。

4.2.2辯論的主導(dǎo)程度 dominance

為了進一步分析,我們?yōu)?LLMs 辯論引入了一個新的指標(biāo):辯論的主導(dǎo)程度dominance。例如,正方LLM 的dominance 被定義為反方 LLM 妥協(xié)的樣本的比例,反之亦然。dominance 直接反映了 LLMs 在辯論中堅持自己觀點的程度。

372d296a-8e70-11ee-939d-92fbcf53809c.png

表 4:不同辯論中不同模型的主導(dǎo)程度

以公平辯論 (ChatGPT & Davinci-003) 為例,表 4 顯示 ChatGPT& Davinci003 在兩個數(shù)據(jù)集上取得了相似的主導(dǎo)程度。它解釋了為什么可比的 LLMs 可以進行辯論來妥協(xié)或堅持更合理的觀點來提高性能。因此,我們將其作為錯位辯論的參考,如表4所示,我們可以得出結(jié)論:

?實力較強的 LLMs(GPT-4和ChatGPT)在不匹配的辯論中占據(jù)絕對優(yōu)勢。這與人類的場景類似,在與比自己更強的人辯論時,自己很容易被帶入到對方的思考過程中并認(rèn)可對方的想法。因此,實力較強的LLMs更有可能堅持自己的觀點。當(dāng)更強的 LLMs 對少數(shù)樣本缺乏信心時,它們更容易受到較弱的 LLMs 的干擾。

?然而,LLaMA & ChatGPT 并沒有表現(xiàn)出如此大的主導(dǎo)程度差距。這主要是因為 LLaMA 幾乎沒有辯論的能力。它無法評估其它模型的論點,大多數(shù)時候只會生成 “選項(x)更合理” 之類的句子,這會讓 ChatGPT 搖擺不定。

4.2.3圓桌辯論

在許多場景中,辯論或者是討論并不局限于 2 個參與者,例如醫(yī)療診斷和法庭陪審團,都需要多個參與者,所以我們設(shè)計了有 3 個 LLMs 參與的圓桌辯論:一個錯位的圓桌辯論 ChatGPT & Davinci-003 & GPT-4 (記為 R1),一個平等的圓桌辯論 ChatGPT & Davinci-003 & ChatGPT-0301 (記為 R2)。我們選取 e-CARE 和 PIQA 作為圓桌辯論的數(shù)據(jù)集。

3736fcd8-8e70-11ee-939d-92fbcf53809c.png

表 5:圓桌辯論與單模型以及雙模型辯論結(jié)果,M 代表錯位辯論,F(xiàn) 代表平等辯論

3752f0aa-8e70-11ee-939d-92fbcf53809c.png

圖 6:圓桌辯論的不一致性變化

圓桌辯論的結(jié)果如表 5 和圖 6 所示,我們可以進行分析得到以下結(jié)論:

?在兩種圓桌辯論中,F(xiàn)ORD 的表現(xiàn)均明顯優(yōu)于Col-S 和Col-H。然而R1 中的 FORD 遠(yuǎn)不如GPT-4,如果有更多較弱的 LLMs,那么較強的LLMs 可能會更容易被誤導(dǎo),并且不那么占主導(dǎo)地位(請參閱文章附錄中的表 10)。FORD 在 R2 上的表現(xiàn)優(yōu)于所有單一LLMs,這證明兩個以上可比的LLMs可以有效且高效地協(xié)作以實現(xiàn)共同目標(biāo)。

?圓桌辯論中的INCON 明顯下降,表明兩個以上LLMs仍然具備協(xié)作精神并達(dá)成共識。

?圓桌辯論R1 性能表現(xiàn)超越了 R2。這表明更換一個較強的 LLMs 可以提高辯論的表現(xiàn),盡管較強的 LLMs 可能會被其他較弱的 LLMs 誤導(dǎo)。

在 R2 中,F(xiàn)ORD 超過了平等辯論 ChatGPT &ChatGPT0301,而與 ChatGPT &Davinci-003 取得了相似的結(jié)果,這是因為ChatGPT和ChatGPT-0301沒有太多區(qū)別,導(dǎo)致辯論中引入的新信息很少。

5. 分析

5.1使用 GPT-4 作為辯論的裁判

37617012-8e70-11ee-939d-92fbcf53809c.png

表6:GPT-4作為裁判對辯論結(jié)果的影響

每次辯論中不同的論點可能有不同的說服力。而且,在人類辯論中,有一個具有強大評估能力的人類裁判來總結(jié)辯論并得出最終結(jié)論。受此啟發(fā),我們研究使用 GPT-4 作為裁判來執(zhí)行 FORD 中的第 3 步,并在兩個公平辯論中進行實驗。實驗結(jié)果如表 6 所示:

?GPT-4作為裁判可以進一步提升辯論的性能。主要是因為GPT4可以給更有說服力的論點賦予更高的權(quán)重,從而得出更精確的結(jié)論。

?同時,啟發(fā)式的方法作為裁判也可以以一個較低的成本達(dá)到一個較理想的結(jié)果。

5.2辯論順序的影響

377b4334-8e70-11ee-939d-92fbcf53809c.png

表7:不同辯論順序?qū)q論的影響,*代表更換順序的辯論結(jié)果

就像模型訓(xùn)練過程中不同的初始化可能會產(chǎn)生不同的結(jié)果一樣,辯論框架的步驟 2 中的辯論順序可能會影響結(jié)果,我們進行消融研究來研究辯論順序的影響。實驗結(jié)果如表 7 所示:

當(dāng)我們將 Davinci-003 作為正方,ChatGPT 作為反方時,F(xiàn)ORD 仍然優(yōu)于Col-S和Col-H,以及相應(yīng)的單一 LLM,獲得與原始辯論順序相似的結(jié)果。這進一步支持了上文的發(fā)現(xiàn)對辯論順序不敏感。

5.3樣例分析

37860eea-8e70-11ee-939d-92fbcf53809c.png

圖7:樣例分析

在 Debate 1 中,正方 (ChatGPT) 認(rèn)為選項 (A) 更合理,而反方 (Davinci-003) 則認(rèn)為選項 (B) 更好。正方指出,這個問題的關(guān)鍵在于“舊年鑒”。反方最終向正方妥協(xié)。通過這場辯論,一個 LLMs 可以提供另一個 LLMs 忽視的細(xì)節(jié),從而產(chǎn)生更有說服力的可解釋信息和更準(zhǔn)確的決策。

6. 結(jié)論

我們探討了不同 LLMs 之間的不一致問題。然后我們使用辯論框架 FORD 來考察 LLMs 是否能夠有效地協(xié)作,通過辯論最終達(dá)成共識。為此我們探索了三個現(xiàn)實世界的辯論場景公平辯論、不匹配辯論和圓桌辯論。我們發(fā)現(xiàn) LLMs 擁有協(xié)作精神,能夠就共同目標(biāo)達(dá)成共識。辯論可以提高 LLMs 的表現(xiàn)和相互一致性。當(dāng)辯論不匹配時,較強的 LLMs 可能會被較弱的 LLMs 分散注意力。這些發(fā)現(xiàn)有助于未來開發(fā)更有效的多 LLMs 協(xié)作方法。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    520

    瀏覽量

    10268
  • 智能體
    +關(guān)注

    關(guān)注

    1

    文章

    144

    瀏覽量

    10575
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1558

    瀏覽量

    7592

原文標(biāo)題:EMNLP2023 | 基于大語言模型辯論的多智能體協(xié)作推理分析

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    大型語言模型的邏輯推理能力探究

    最新研究揭示,盡管大語言模型LLMs在語言理解上表現(xiàn)出色,但在邏輯推理方面仍有待提高。為此,研究者們推出了GLoRE,一個全新的邏輯推理評估
    的頭像 發(fā)表于 11-23 15:05 ?981次閱讀
    大型<b class='flag-5'>語言</b><b class='flag-5'>模型</b>的邏輯<b class='flag-5'>推理</b>能力探究

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    ,大語言模型還具備出色的關(guān)聯(lián)和關(guān)系理解能力,能夠捕捉數(shù)據(jù)間的隱含關(guān)系和語義聯(lián)系,進行高級關(guān)聯(lián)推理。它還支持多步推理,能在推理過程中進行多個步
    發(fā)表于 05-04 23:55

    【大語言模型:原理與工程實踐】大語言模型的評測

    在知識獲取、邏輯推理、代碼生成等方面的能力。這些評測基準(zhǔn)包括語言建模能力、綜合知識能力、數(shù)學(xué)計算能力、代碼能力和垂直領(lǐng)域等多個維度。對于微調(diào)模型,對話能力的評測關(guān)注模型在對話任務(wù)中的全
    發(fā)表于 05-07 17:12

    【大語言模型:原理與工程實踐】大語言模型的應(yīng)用

    ,它通過抽象思考和邏輯推理,協(xié)助我們應(yīng)對復(fù)雜的決策。 相應(yīng)地,我們設(shè)計了兩類任務(wù)來檢驗大語言模型的能力。一類是感性的、無需理性能力的任務(wù),類似于人類的系統(tǒng)1,如情感分析和抽取式問答
    發(fā)表于 05-07 17:21

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)知識學(xué)習(xí)

    信息有助于模型更深入地理解文本的含義和意圖。 3. 推理與判斷 在問答任務(wù)中,大語言模型不僅需要理解問題的字面意義,還需要進行推理和判斷以得
    發(fā)表于 08-02 11:03

    基于Agent系統(tǒng)的智能家庭網(wǎng)絡(luò)研究

    和體系建立智能家庭網(wǎng)絡(luò)整體結(jié)構(gòu)。給出了MAIHN模型的各個組成部分,對模型中各種Agent的功能設(shè)計與實現(xiàn)模型進行了分析,研究了MAIHN
    發(fā)表于 06-14 00:22

    壓縮模型會加速推理嗎?

    你好我使用 STM32CUBE-AI v5.1.2 ApplicationTemplate 將簡單的 CNN 導(dǎo)入到 STM32L462RCT我發(fā)現(xiàn)壓縮模型推理時間沒有影響。aiRun 程序在 8
    發(fā)表于 01-29 06:24

    AscendCL快速入門——模型推理篇(上)

    重要。但是對于一些模型推理的應(yīng)用來講,這個問題就要多思考一步了。首先,設(shè)備總內(nèi)存是有限的,每個模型加載進來都要占用一部分內(nèi)存。對于
    發(fā)表于 08-24 11:04

    使用rk3588npu推理模型模型推理時間還增加了,這怎么解釋

    使用rk3588npu推理模型,模型推理時間還增加了,這怎么解釋
    發(fā)表于 11-05 18:22

    基于協(xié)進化和CPN的智能體系統(tǒng)建模

    智能體系統(tǒng)體系結(jié)構(gòu)及協(xié)作機制是智能體理論研究的核心與熱點問題,作為一種新興的研究方法,基于協(xié)進化機制的
    發(fā)表于 02-23 14:04 ?15次下載

    利用大語言模型模態(tài)任務(wù)

    大型語言模型LLM(Large Language Model)具有很強的通用知識理解以及較強的邏輯推理能力,但其只能處理文本數(shù)據(jù)。
    的頭像 發(fā)表于 05-10 16:53 ?1042次閱讀
    利用大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>做<b class='flag-5'>多</b>模態(tài)任務(wù)

    如何加速大語言模型推理

    隨著人工智能技術(shù)的飛速發(fā)展,大語言模型(LLM)已成為自然語言處理領(lǐng)域的核心工具,廣泛應(yīng)用于智能客服、文本生成、機器翻譯等多個場景。然而,大
    的頭像 發(fā)表于 07-04 17:32 ?516次閱讀

    LLM大模型推理加速的關(guān)鍵技術(shù)

    LLM(大型語言模型)大模型推理加速是當(dāng)前人工智能領(lǐng)域的一個研究熱點,旨在提高模型在處理復(fù)雜任務(wù)
    的頭像 發(fā)表于 07-24 11:38 ?857次閱讀

    使用vLLM+OpenVINO加速大語言模型推理

    隨著大語言模型的廣泛應(yīng)用,模型的計算需求大幅提升,帶來推理時延高、資源消耗大等挑戰(zhàn)。
    的頭像 發(fā)表于 11-15 14:20 ?372次閱讀
    使用vLLM+OpenVINO加速大<b class='flag-5'>語言</b><b class='flag-5'>模型</b><b class='flag-5'>推理</b>

    語言模型開發(fā)框架是什么

    語言模型開發(fā)框架是指用于訓(xùn)練、推理和部署大型語言模型的軟件工具和庫。下面,AI部落小編為您介紹大語言
    的頭像 發(fā)表于 12-06 10:28 ?115次閱讀
    RM新时代网站-首页