RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ChatGPT的核心算法為何如此強大?

新思科技 ? 來源:未知 ? 2023-03-17 18:10 ? 次閱讀

ChatGPT近期成為了全球話題中心。短短兩個月,ChatGPT注冊用戶數(shù)已經(jīng)破億,成為史上用戶破億速度最快的軟件之一。它不但可以回答問題,還能寫詩,寫代碼,提供旅游攻略…而ChatGPT的核心結(jié)構(gòu)正是Transformer模型。

Transformer是一種能夠同時處理所有輸入數(shù)據(jù)的深度學(xué)習(xí)模型,最初是為翻譯和自動問答等自然語言處理應(yīng)用開發(fā)的。計算機視覺應(yīng)用領(lǐng)域過去主要采用卷積神經(jīng)網(wǎng)絡(luò)(CNN),現(xiàn)在Transformer模型則更為流行,但它不會取代CNN,而是與之配合來提高視覺處理應(yīng)用的準(zhǔn)確度。

比如,當(dāng)自動駕駛汽車在行駛過程中遇到障礙物,它是如何判斷馬路中間的是人,而不是電線桿呢?自動駕駛汽車的物體檢測和防撞系統(tǒng)必須正確識別前方路況并給車輛發(fā)出相應(yīng)的指令。在現(xiàn)代汽車的計算機視覺處理應(yīng)用中,深度學(xué)習(xí)模型就發(fā)揮著重要作用。

除了汽車會采用AI驅(qū)動的計算機視覺技術(shù)外,攝像頭如今已經(jīng)在很多系統(tǒng)中都普及開了,手機和安防系統(tǒng)等大量基于攝像頭的設(shè)備都已經(jīng)在使用神經(jīng)網(wǎng)絡(luò)來提高圖像質(zhì)量和準(zhǔn)確性了。

為何Transformer是嵌入式計算機視覺的理想選擇呢?Transformer又將如何改變深度學(xué)習(xí)架構(gòu)的發(fā)展方向?哪些技術(shù)可以優(yōu)化這些模型來獲得更出色的結(jié)果?本文將帶著這些問題與大家共同探討。

更專注的注意力機制

更好的情景感知

10多年來,CNN一直是視覺處理的首選深度學(xué)習(xí)模型。隨著技術(shù)的不斷發(fā)展,CNN現(xiàn)已能夠準(zhǔn)確地完成圖像分類、物體檢測、語義分割(對圖像中的每個像素進行分組或標(biāo)記)和全景分割(識別物體位置以及對每個物體中的每個像素進行分組和標(biāo)記)。

但Transformer除了需要將語言塊替換為圖像塊外,不需要任何其他修改就可以在準(zhǔn)確性方面超越CNN。

2017年,Google Research將Transformer定義為一種基于自注意力機制的新型神經(jīng)網(wǎng)絡(luò)架構(gòu),特別適合用于語言理解。到2020年,Google Research的科學(xué)家們發(fā)表了一篇關(guān)于Vision Transformer(ViT)的文章,ViT是一個基于原始Transformer架構(gòu)的模型。據(jù)該文章表示,當(dāng)有足夠的數(shù)據(jù)進行訓(xùn)練時,ViT表現(xiàn)出了優(yōu)異的性能,超過了先進的CNN,而所需的計算資源卻只有CNN的四分之一。這些Transformer雖然需要龐大的數(shù)據(jù)集進行訓(xùn)練,但確實非常擅于處理圖像分類和物體檢測等視覺任務(wù)。

Transformer之所以能夠在視覺應(yīng)用中游刃有余,其專有的注意力機制是關(guān)鍵,該機制讓模型能夠?qū)μ囟ㄇ榫秤懈钊氲睦斫?。Transformer和CNN一樣都可以檢測到前方道路上的物體是行人,而不是電線桿或者一棵樹,但不同的是,Transformer并不會同等處理所有像素,它更多關(guān)注的是數(shù)據(jù)中微小但重要的部分,比如那個行人,而不太會去過多關(guān)注代表道路其余部分的那些不重要像素。

在處理每幀數(shù)據(jù)時,CNN通常并不會考慮該幀之前和之后的數(shù)據(jù)。而相比CNN,Transformer更擅于學(xué)習(xí)較為復(fù)雜的模式,因此所需的計算也就更多,所以在速度方面Transformer沒有CNN快,但它也在努力的奮起直追了。

GPU目前可以支持這二種模型,但如果在實際應(yīng)用中需要以更小的尺寸和更低的功耗來實現(xiàn)更高的性能,那么NPU或神經(jīng)處理單元等專用AI加速器將會是更好的選擇。

為了提高推理效率,視覺處理應(yīng)用可同時使用CNN和Transformer。要想實現(xiàn)全方位視覺感知,僅靠純視覺模型可能無法輕松獲得所需的信息,而多模態(tài)學(xué)習(xí)可以提供更詳盡的視覺信息。此外,Transformer等基于注意力機制的神經(jīng)網(wǎng)絡(luò)非常適合像汽車應(yīng)用這種集成了多個傳感器的應(yīng)用。

利用NPUIP優(yōu)化

Transformer和CNN的性能

Transformer包括以下幾種運算:

  • 矩陣乘法

  • 逐元素加法

  • Softmax數(shù)學(xué)函數(shù)

  • L2歸一化

  • 激活函數(shù)

目前大多數(shù)AI加速器都針對CNN進行了優(yōu)化,但它們并非全都適合Transformer。Transformer需要龐大的計算能力來執(zhí)行大量計算并支持其注意力機制。

新思科技的ARC NPX6 NPU IP就是一款能夠同時處理CNN和Transformer的AI加速器。ARC NPX6 NPU IP的計算單元包括一個用于矩陣乘法(對這兩種深度學(xué)習(xí)模型都非常重要)的卷積加速器,以及一個用于處理Transformer運算和激活函數(shù)的張量加速器。該IP提供高達3,500 TOPS的性能和高達30 TOPS/瓦的出色能效。

設(shè)計團隊還可以使用新思科技的MetaWare MX開發(fā)工具包來加速其應(yīng)用軟件開發(fā)。該工具包提供了一個綜合的軟件編程環(huán)境,其中包括神經(jīng)網(wǎng)絡(luò)軟件開發(fā)工具包和對各種虛擬模型的支持。

ChatGPT安全嗎?

在ChatGPT爆火的背后,我們也要知道,ChatGPT或者其他AI軟件所產(chǎn)出的內(nèi)容或做出的決策并不是無懈可擊的。這些工具提供的結(jié)果往往會和現(xiàn)實有所偏差,而只有人類才能基于現(xiàn)實去對結(jié)果進行檢查和驗證。

而且是否會有人利用ChatGPT編寫惡意代碼來進行網(wǎng)絡(luò)攻擊呢?自從人類開始編寫代碼以來,開發(fā)人員一直都在無意或者有意地編寫出可被利用的代碼。幸運的是,有很多安全測試工具可以幫助開發(fā)者們進行安全防護。無論編碼者是誰,都應(yīng)該使用安全工具掃描源代碼發(fā)現(xiàn)漏洞。

總結(jié)

Transformer擁有強大的計算能力,且一直在自然語言處理應(yīng)用中被廣泛采用?,F(xiàn)在,因Transformer模型基于其注意力機制的神經(jīng)網(wǎng)絡(luò)擁有更出色的情感感知能力,智能手機、安防系統(tǒng)、自動駕駛汽車等實時視覺處理應(yīng)用也開始采用此模型。以后,各種基于攝像頭的產(chǎn)品會越來越先進,提供的圖像質(zhì)量也越來越高。在深度學(xué)習(xí)中加入Transformer后,嵌入式視覺攝像頭系統(tǒng)勢必能夠提供更清晰的圖像和更準(zhǔn)確的物體檢測。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 新思科技
    +關(guān)注

    關(guān)注

    5

    文章

    796

    瀏覽量

    50334

原文標(biāo)題:ChatGPT的核心算法為何如此強大?

文章出處:【微信號:Synopsys_CN,微信公眾號:新思科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    電網(wǎng)中防逆流為何如此重要?

    、可再生能源的廣泛接入,電力逆流現(xiàn)象愈發(fā)頻繁,防逆流裝置的重要性也愈發(fā)凸顯。本文將從防逆流裝置的工作原理、使用場景及其實際應(yīng)用效果等方面進行詳細闡述。 一、防逆流裝置的工作原理 防逆流裝置的核心在于其內(nèi)置的電力電子元件和控制邏輯
    的頭像 發(fā)表于 09-23 15:31 ?374次閱讀
    電網(wǎng)中防逆流<b class='flag-5'>為何如此</b>重要?

    空載時為何OPA454如此發(fā)燙,這個發(fā)燙是正?,F(xiàn)象嗎?

    Supply voltage, VS = (V+) – (V–) 120 V,是不是意味著我使用(V-)=-12V,(V+)=95V供電是在其允許范圍內(nèi)的?在空載時為何OPA454如此發(fā)燙,這個發(fā)燙是正?,F(xiàn)象么?
    發(fā)表于 08-02 10:08

    深度學(xué)習(xí)的基本原理與核心算法

    處理、語音識別等領(lǐng)域取得了革命性的突破。本文將詳細闡述深度學(xué)習(xí)的原理、核心算法以及實現(xiàn)方式,并通過一個具體的代碼實例進行說明。
    的頭像 發(fā)表于 07-04 11:44 ?1975次閱讀

    神經(jīng)網(wǎng)絡(luò)反向傳播算法的優(yōu)缺點有哪些

    是一種模擬人腦神經(jīng)元網(wǎng)絡(luò)的計算模型,具有強大的非線性映射能力和泛化能力。反向傳播算法是訓(xùn)練神經(jīng)網(wǎng)絡(luò)的核心算法,通過梯度下降法優(yōu)化網(wǎng)絡(luò)權(quán)重,使網(wǎng)絡(luò)輸出盡可能接近目標(biāo)值。然而,反向傳播算法
    的頭像 發(fā)表于 07-03 11:24 ?893次閱讀

    使用espbox lite進行chatgpt_demo的燒錄報錯是什么原因?

    我使用espbox lite進行chatgpt_demo的燒錄 我的idf是v5.1release版本的,espbox是master版本的 在編譯時似乎沒有什么問題 在燒錄時報錯 請問這是什么原因
    發(fā)表于 06-11 08:45

    網(wǎng)絡(luò)延遲為何如此重要

    網(wǎng)絡(luò)延遲是指數(shù)據(jù)在網(wǎng)絡(luò)上從一點傳輸?shù)搅硪稽c所需的時間。它是影響任何基于網(wǎng)絡(luò)的系統(tǒng)(包括網(wǎng)站、應(yīng)用程序和云服務(wù))的關(guān)鍵因素。 以下是網(wǎng)絡(luò)延遲很重要的一些原因: 體驗 延遲會影響基于網(wǎng)絡(luò)的系統(tǒng)的用戶體驗。例如,在瀏覽網(wǎng)站時,延遲可能會導(dǎo)致頁面加載時間延遲,從而導(dǎo)致用戶感到沮喪,甚至可能導(dǎo)致用戶離開。 生產(chǎn)力 網(wǎng)絡(luò)延遲會嚴重影響生產(chǎn)力。例如,網(wǎng)絡(luò)速度慢會導(dǎo)致訪問文件或應(yīng)用延遲,從而浪費時間并降低效率。 收入 對于依賴
    的頭像 發(fā)表于 05-28 10:39 ?441次閱讀

    OpenAI 深夜拋出王炸 “ChatGPT- 4o”, “她” 來了

    當(dāng)?shù)貢r間5月13日OpenAI推出ChatGPT-4o,代表了人工智能向前邁出的一大步。在GPT-4turbo的強大基礎(chǔ)上,這種迭代擁有顯著的改進。在發(fā)布會的演示中,OpenAI展示該模型的高級
    發(fā)表于 05-27 15:43

    FPGA能實現(xiàn)什么樣的算法

    FPGA功能如此強大,請問用FPGA能實現(xiàn)或者比較適合實現(xiàn)什么樣的算法?
    發(fā)表于 05-26 20:18

    環(huán)保又高效:365nm固化燈為何如此受歡迎?

    在追求綠色發(fā)展和高效生產(chǎn)的當(dāng)下,一款產(chǎn)品若能在滿足性能需求的同時,還兼具環(huán)保與高效兩大優(yōu)勢,無疑會受到市場的熱烈追捧。而在工業(yè)固化領(lǐng)域,365nm固化燈便是這樣一款備受矚目的產(chǎn)品。那么,為何
    的頭像 發(fā)表于 05-15 11:19 ?335次閱讀
    環(huán)保又高效:365nm固化燈<b class='flag-5'>為何如此</b>受歡迎?

    RISC-V為何如此重要?

    什么讓RISC-V如此受歡迎,為什么從NVIDIA到微軟的每個人都在投資它?什么是RISC-V?RISC-V是一種指令集架構(gòu)(ISA)。ISA是CPU必須能夠解釋和處
    的頭像 發(fā)表于 04-29 08:28 ?381次閱讀
    RISC-V<b class='flag-5'>為何如此</b>重要?

    機器學(xué)習(xí)六大核心算法深度解析

    算法歷程:線性回歸是一種古老的統(tǒng)計方法,它試圖找到最佳擬合數(shù)據(jù)的直線或超平面,最早可以追溯到19世紀初的高斯最小二乘法理論。
    發(fā)表于 04-23 16:25 ?1785次閱讀
    機器學(xué)習(xí)六大<b class='flag-5'>核心算法</b>深度解析

    什么是邊緣計算?它為何如此重要?

    ,什么是邊緣計算?它為何如此重要?本文將對其進行詳細的解析。 邊緣計算,簡而言之,是指在靠近物或數(shù)據(jù)源頭的一側(cè),采用網(wǎng)絡(luò)、計算、存儲、應(yīng)用核心能力為一體的開放平臺,就近提供最近端服務(wù)。它的核心思想是將計算任
    的頭像 發(fā)表于 04-22 15:25 ?444次閱讀

    在FPGA設(shè)計中是否可以應(yīng)用ChatGPT生成想要的程序呢

    當(dāng)下AI人工智能崛起,很多開發(fā)領(lǐng)域都可看到ChatGPT的身影,F(xiàn)PGA設(shè)計中,是否也可以用ChatGPT輔助設(shè)計呢?
    發(fā)表于 03-28 23:41

    陀螺儀芯片+傳感器定制

    本人想開發(fā)一套摔倒瞬間的觸發(fā)系統(tǒng),目前缺主程序核心算法。有懂的大神求指教
    發(fā)表于 03-21 10:36

    【國產(chǎn)FPGA+OMAPL138開發(fā)板體驗】(原創(chuàng))6.FPGA連接ChatGPT 4

    : ChatGPT 4說:\'優(yōu)化硬件設(shè)計需要考慮很多因素,如功耗、性能、成本等。你可以從改進算法、優(yōu)化數(shù)據(jù)路徑、減少冗余操作等方面入手。\'\"); // 7. 關(guān)閉與ChatGPT 4服務(wù)器的連接
    發(fā)表于 02-14 21:58
    RM新时代网站-首页