1. 大模型時代,國產(chǎn)AI芯片最新進展!算力集群化是必然趨勢
原文:https://mp.weixin.qq.com/s/k-InpBMMJTUltuMcB2hKSg在剛過去的2023世界人工智能大會上,大模型可以說是其中的大亮點之一,華為盤古、商湯日日新、網(wǎng)易伏羲等30多款國產(chǎn)AI大模型集中亮相。與此同時,各類人工智能芯片公司、算力提供商也針對大模型展示了相應的方案。大模型時代,國產(chǎn)AI芯片進展如何?在這次大會上,瀚博半導體、燧原科技、登臨科技、天數(shù)智芯等紛紛展示了針對大模型的產(chǎn)品方案,呈現(xiàn)出國產(chǎn)AI芯片在大模型領域的進展情況。瀚博半導體成立于2018年12月,是一家自研GPU芯片及解決方案提供商。在此次大會上,瀚博發(fā)布了第二代GPU SG100,并推出南禺系列GPU加速卡VG1600、VG1800、VG14,以及LLM大模型AI加速卡VA1L、AIGC大模型一體機、VA12高性能生成式AI加速卡等6款新品。據(jù)介紹,瀚博SG100芯片采用7nm先進制程,具備業(yè)界領先的渲染性能,同時兼具低延時高吞吐的AI算力和強大的視頻處理能力。值得關注的,針對大模型時代算力需求,瀚博本次首發(fā)了LLM大模型AI加速卡VA1L,具備200 TOPS INT8/72 TFLOPS FP16算力,并支持ChatGPT、LLaMA、Stable Diffusion等主流AIGC網(wǎng)絡模型。與此同時,瀚博此次還推出了AIGC大模型一體機,共使用8張LLM大模型AI加速卡VA1L,支持512GB顯存,進而支持1750億參數(shù)的大模型。另外,作為瀚博VA1和VA10的升級版,VA12是一塊通用AI加速卡,支持檢測、分類、分割、視頻增強、語義理解、BERT、Transfomer和視頻編解碼等應用。燧原科技在此次大會上發(fā)布了燧原曜圖文生圖MaaS平臺服務產(chǎn)品。該產(chǎn)品以燧原科技“邃思”系列芯片為算力支撐,由首都在線提供計算服務,燧原曜圖MaaS平臺服務產(chǎn)品為用戶提供面向AIGC時代的高效易用、安全可靠、企業(yè)級的文生圖服務。燧原科技表示,它具備開箱即用可用、所想即所見、創(chuàng)意無限的文本生成圖像能力,通過軟硬一體方案降低大規(guī)模AIGC應用的工程難度與算力成本,開啟AIGC應用規(guī)模化落地時代。燧原科技創(chuàng)始人兼CEO趙立東在某論壇上提到,目前燧原已經(jīng)為大型科研機構(gòu)部署了千卡規(guī)模的AI訓練算力集群,并成功落地;而且與騰訊合作,在OCR文字識別、智能交互、智能會議等方面,性能達到了業(yè)界同類產(chǎn)品兩倍以上,性價比上具有很高優(yōu)勢。此外,在智慧城市方面,燧原完成2022年成都高新區(qū)國產(chǎn)化AI視頻基礎設施平臺項目建設。此次大會上,登臨科技展示了最新一代創(chuàng)新通用GPU產(chǎn)品Goldwasser II系列以及基于開源大語言模型可交互界面。據(jù)了解,Goldwasser II針對基于Transformer和生成式AI 大模型進行專門優(yōu)化,在性能有大幅提升,已于2022年流片,目前已開始規(guī)?;慨a(chǎn)和商業(yè)客戶驗證。據(jù)現(xiàn)有客戶測試結(jié)果,二代產(chǎn)品針對基于transformer類型的模型提供3-5倍的性能提升,大幅降低類ChatGPT及生成式AI應用的硬件成本。天數(shù)智芯在此次會上也展示了在大模型訓練、推理所取得的顯著進展,包括圖片識別/以圖搜圖、3D建模、大模型推理等。在大模型領域,天數(shù)智芯今年上半年,搭建了40P算力320張?zhí)燠?00加速卡算力集群,完成智源研究院70億參數(shù)大模型全量訓練,天垓100是天數(shù)智芯2018年研發(fā)的通用AI訓練芯片,據(jù)天數(shù)智芯董事長蓋魯江介紹,目前天垓100這款產(chǎn)品還已經(jīng)成功跑通了清華智譜 AI 大模型ChatGLM,Meta研發(fā)的LLaMA模型。此外,天數(shù)智芯正在幫智源研究院跑650億參數(shù)的模型,預計10月份可以跑完。針對于A800芯片在無許可證的情況下將被禁售的話題,蓋魯江談到,事實上,不管英偉達的產(chǎn)品能不能賣給中國,我們的產(chǎn)品已經(jīng)能夠用起來了。算力集群化是發(fā)展趨勢伴隨大模型帶來的生成式AI突破,人工智能正在進入一個新的時代。算力是人工智能產(chǎn)業(yè)創(chuàng)新的基礎,大模型的持續(xù)創(chuàng)新,驅(qū)動算力需求的爆炸式增長??梢哉f,大模型訓練的效率或者是創(chuàng)新的速度,根本上取決于算力的大小。然而,中國的算力已經(jīng)成為一個越來越稀缺的資源。華為輪值董事長胡厚崑在某論壇上談到,大模型的研發(fā)高度依賴高端AI芯片、集群及生態(tài)。高計算性能、高通信帶寬和大顯存成為大模型訓練必不可少的算力底座,單AI芯片進步速度還未跟上大模型對大算力的需求,算力集群化成為不可逆轉(zhuǎn)的發(fā)展趨勢。在2023世界人工智能大會上,華為宣布昇騰AI集群全面升級,集群規(guī)模從最初的4000卡集群擴展至16000卡,擁有更快的訓練速度和30天以上的穩(wěn)定訓練周期。胡厚崑表示,華為在各個單點創(chuàng)新的基礎上,充分發(fā)揮云、計算、存儲、網(wǎng)絡以及能源的綜合優(yōu)勢,進行架構(gòu)創(chuàng)新,推出了昇騰AI集群,相當于把AI算力中心當成一臺超級計算機來設計,使得昇騰AI集群性能更高,并且可靠性更高。據(jù)他介紹,昇騰AI集群目前已經(jīng)可以達到10%以上的大模型訓練效率的提升,可以提供10倍以上的系統(tǒng)穩(wěn)定的提高,支持長期穩(wěn)定訓練。華為昇騰計算業(yè)務總裁張迪煊表示,基于昇騰AI,原生孵化和適配了30多個大模型,到目前為止,中國有一半左右的大模型創(chuàng)新,都是由昇騰AI來支持的。除了華為,阿里、騰訊等也打造了較大的算力集群,不過主要還是依靠英偉達的GPU芯片。阿里云表示,其擁有國內(nèi)最強的智能算力儲備,智算集群可支持最大十萬卡GPU規(guī)模,承載多個萬億參數(shù)大模型同時在線訓練。騰訊云此前大量采購了英偉達A100/H800芯片,發(fā)布新一代HCC高性能計算集群,用于大模型訓練、自動駕駛、科學計算等領域?;谛乱淮?,騰訊團隊在同等數(shù)據(jù)集下,將萬億參數(shù)的AI大模型混元NLP訓練由50天縮短到4天。小結(jié)無論是大模型的訓練,還是后期的推理部署,對算力的需求都相當大。雖然,當前國產(chǎn)AI芯片與國際領先GPU產(chǎn)品在大模型的訓練上有差距,不過可以看到,已經(jīng)有不少產(chǎn)品,在較大模型的訓練上已經(jīng)取得成績,后續(xù)必然還會有更大的進展。同時,為了滿足大模型對大算力的需求,算力集群化將會是未來趨勢。
2. 大模型加速涌向移動端!ControlNet手機出圖只需12秒,高通AI掌門人:LLaMA也只是時間問題
原文:https://mp.weixin.qq.com/s/je05z93KcAIT81NvoyFsuw大模型重塑一切的浪潮,正在加速涌向移動應用。不久前,高通剛在MWC上露了一手純靠手機跑Stable Diffusion,15秒就能出圖的騷操作: 3個月后的CVPR 2023上,參數(shù)加量到15億,ControlNet也已在手機端閃亮登場,出圖全程僅用了不到12秒:
更令人意想不到的速度是,高通技術公司產(chǎn)品管理高級副總裁兼AI負責人Ziad Asghar透露:從技術角度來說,把這些10億+參數(shù)大模型搬進手機,只需要不到一個月的時間。并且這還只是個開始。在與量子位的交流中,Ziad認為:
大模型正在迅速重塑人機交互的方式。這會讓移動應用的使用場景和使用方式發(fā)生翻天覆地的變化。“大模型改變終端交互方式”每一個看過《鋼鐵俠》的人,都很難不羨慕鋼鐵俠無所不能的助手賈維斯。
盡管語音助手早已不是什么新鮮事物,但其現(xiàn)如今的形態(tài)多少還是離科幻電影中的智能助手有點差距。而大模型,在Ziad看來,正是一個破局者。
大模型有能力真正重塑我們與應用交互的方式。這種改變的一種具體的表現(xiàn),就是all in one。也就是說,通過大模型加持下的數(shù)字助手這一個應用入口,人們就可以在手機這樣的終端上操控一切:通過自然語言指令,數(shù)字助手能自動幫你管理所有手機上的APP,完成辦理銀行業(yè)務、撰寫電子郵件、制定旅程并訂票等等各種操作。
更為關鍵的是,這樣的數(shù)字助手還能做到“私人訂制”——手機上的個性化數(shù)據(jù),與能夠理解文字、語音、圖像、視頻等多模態(tài)輸入的大語言模型相結(jié)合,就能使數(shù)字助手更為精準地把握使用者的偏好。并且這樣的個性化體驗,可以在不犧牲隱私的情況下實現(xiàn)。從技術的角度來說,背后關鍵,其實就是如今把Stable Diffusion和ControlNet搬進手機的混合AI架構(gòu)及作為支撐的量化、編譯和硬件加速優(yōu)化等AI技術。混合AI,指的是終端和云端協(xié)同工作,在適當場景和時間下分配AI計算的工作負載,以更為高效地利用算力資源。量化、編譯和硬件加速優(yōu)化,則是實現(xiàn)混合AI的關鍵AI技術,受到高通等終端AI廠商的長期關注和押注。量化,是將更大的模型在精度不變的情況下,從浮點數(shù)轉(zhuǎn)變成整數(shù),節(jié)省計算時間;又或是在確保模型性能的同時,對其大小進行壓縮,使之更容易部署在終端。編譯器是AI模型能夠以最高性能和最低功耗高效運行的關鍵。AI編譯器將輸入的神經(jīng)網(wǎng)絡轉(zhuǎn)化為可以在目標硬件上運行的代碼,同時針對時延、性能和功耗進行優(yōu)化。硬件加速方面,以高通為例,其AI引擎中的關鍵核心Hexagon處理器,采用專用供電系統(tǒng),支持微切片推理、INT4精度、Transformer網(wǎng)絡加速等,能夠在提供更高性能的同時,降低能耗和內(nèi)存占用。數(shù)據(jù)顯示,Transformer加速大幅提升了生成式AI中充分使用的多頭注意力機制的推理速度,在使用MobileBERT的特定用例中能帶來4.35倍的AI性能提升。
以Stable Diffusion為例,現(xiàn)在,高通的研究人員通過量化、編譯和硬件加速優(yōu)化,已經(jīng)能夠在搭載第二代驍龍8移動平臺的手機上,以15秒20步推理的速度運行這一模型,生成出512×512像素的圖片。
這樣一來,整個推理過程可以完全只靠手機實現(xiàn)——開著飛行模式不聯(lián)網(wǎng)也能做到。這類AI技術的部署并非易事,Ziad表示在相關軟件、工具和硬件方面,高通準備了2-3年的時間。但現(xiàn)在,當高通AI模型增效工具包、高通AI軟件棧和高通AI引擎等軟硬件工具齊備之后,正如前文所言,高通只花了不到一個月的時間,就實現(xiàn)了Stable Diffusion在驍龍平臺上的高速運行。也就是說,當基礎技術準備就緒,包括大模型在內(nèi)的生成式AI部署,就會更加容易,原本無法想象的“大模型部署到終端變成數(shù)字助手”,現(xiàn)在看來也并非不可能。具體而言,在硬件上混合AI和軟件AI技術的“雙重”架構(gòu)下,部署在手機等終端中的大模型,可以在終端側(cè)根據(jù)用戶習慣不斷優(yōu)化和更新用戶畫像,從而增強和打造定制化的生成式AI提示。這些提示會以終端側(cè)為中心進行處理,只在必要時向云端分流任務。
Ziad也進一步向我們解釋說:
云不了解你,但終端設備了解你。如果模型可以在設備上進行微調(diào),那它的功能將非常強大。這也是突破大模型幻覺和記憶瓶頸的方式之一。高通可以做到通過一系列技術讓大模型在不聯(lián)網(wǎng)的情況下,借助終端設備數(shù)據(jù)長時間提供“專屬”服務,同時也保護了用戶隱私。值得關注的是,Ziad還透露,在Stable Diffusion和ControlNet之外,基于高通全棧式的軟件和硬件能力,研究人員正在將更多生成式AI模型遷移到手機之中,參數(shù)量也正在向百億級別進發(fā)。
很快,你就會在終端上看到像LLaMA 7B/13B這樣的模型。一切工具已經(jīng)就緒,剩下的只是時間問題。而且,雖然目前能在終端側(cè)部署的只是“特定”的大模型,但隨著技術的不斷應用成熟,能部署的大模型數(shù)量、模態(tài)類型和部署形式,都會飛速進化。Ziad表示:
隨著更多更好的AI算法被開源出來,我們也能更快地沿用這套軟硬件技術將它們部署到終端側(cè),這其中就包括文生視頻等各種多模態(tài)AI。這樣來看,未來用戶將自己想用的大模型遷移到手機端,成為超級助手的核心,也并非不可能實現(xiàn)。大模型正在重塑移動互聯(lián)網(wǎng)實際上,手機上的交互變革,還只是冰山一角。早在生成式AI、大模型技術爆發(fā)之前,在移動互聯(lián)網(wǎng)時代,AI需求已經(jīng)呈現(xiàn)出向邊緣設備轉(zhuǎn)移的趨勢。正如Ziad的觀點“終端側(cè)AI是AI的未來”一樣,隨著以大模型為代表的生成式AI浪潮加速改變人機交互方式,更多終端側(cè)如筆記本電腦、AR/VR、汽車和物聯(lián)網(wǎng)終端等,也都會因為這場變革迎來重塑,甚至反過來加速AI規(guī)?;涞?。在這個過程中,不僅硬件會誕生新的衡量標準,軟件上以大模型為核心的超級AI應用,更是有可能出現(xiàn)。首先是硬件上,由于終端側(cè)算力會成為延展生成式AI落地應用不可或缺的一部分,對于移動端芯片本身來說,AI處理能力也會日益凸顯,甚至成為新的設計基準之一。隨著大模型變得更受歡迎、更多應用不斷接入其能力,更多潛在的用戶也會意識到大模型具備的優(yōu)勢,從而導致這類技術使用次數(shù)的迅猛上升。但云端算力終究有限。Ziad認為:
隨著AI計算需求的增加,云端算力必然無法承載如此龐大的計算量,從而導致單次查詢成本急劇增加。要解決這一問題,就應當讓更多算力需求“外溢”到終端,依靠終端算力來緩解這一問題。為了讓更多大模型在終端就能處理甚至運行,從而降低調(diào)用成本,必然需要在確保用戶體驗的同時,提升移動端芯片處理AI的能力。長此以往,AI處理能力會成為衡量硬件能力的benchmark,如同過去手機芯片比拼通用算力和ISP影像能力一樣,成為整個移動端芯片的新“賽點”。等多的內(nèi)容,如果感興趣,可以直接點擊原文,您會收獲更多的知識。
3. 英特爾AI芯片中國定制版發(fā)布!打的就是英偉達A100
原文:https://mp.weixin.qq.com/s/5njVFAcZnMP0rEb5VZcLhAAIGC時代,誰說煉大模型就一定得用GPU?英特至強CPU,運行擴散模型Stable Diffusion只需5秒就能出圖。而在這兩天,專門搭載在該CPU上使用的AI加速器更是新鮮出爐。它叫Gaudi2,面向中國市場發(fā)布,用于加速AI訓練及推理,有了它,大規(guī)模部署AI便多了一種新選擇。
性能上,它在MLPerf最新報告中的多種訓練和推理基準測試中都直接超越了英偉達A100,并提供了約2倍的性價比。至于H100,它雖然還不能敵過,但若拉上成本,則也能“扳回一局”。
這款主打超強性價比的AI加速器,究竟什么來頭?全新Gaudi2加速器,性能超A100Gaudi2深度學習加速器暨Gaudi2夾層卡HL-225B,以第一代Gaudi高性能架構(gòu)為基礎,加速高性能大語言模型運行。(ps. Gaudi1代處理器誕生于2019年,其背后公司來自以色列,當年年底被英特爾以20億美元收購,如今成為英特爾“叫板”英偉達的重要底氣。)Gaudi2采用7nm制程工藝,具備24個可編程Tensor處理器核心(TPCs),支持面向AI的各類高級數(shù)據(jù)類型:FP8、BF16、FP16、TF32和FP32。它配備21個100 Gbps(RoCEv2)以太網(wǎng)接口,可通過直接路由實現(xiàn)Gaudi處理器間通信(相比原版少了3個,但英特爾公司執(zhí)行副總裁Sandra Rivera介紹,這對整體性能影響基本不大)。同時,它還能做到2.4TB/秒的總內(nèi)存帶寬,先進的HBM控制器則針對隨機訪問和線性訪問進行了優(yōu)化,在各種訪問模式下都可以提供這一保證。此外,48MB片上SRAM和集成多媒體處理引擎亦是標配。
就在上個月公布的MLCommons MLPerf基準測試中,Gaudi2在1750億參數(shù)的GPT-3模型訓練上表現(xiàn)出色,使用384個加速器上耗時311分鐘就完成了訓練。雖然相比之下,英偉達只需61分鐘便可,但這樣的成績需要512個H100——由于Gaudi2的成本要遠低于H100,所以要論性價比,Sandra Rivera表示,Gaudi2是更具誘惑力的選擇。與此同時,Gaudi2在基于8個和64個加速器助力的BERT、8個加速器助力的ResNet-50和Unet3D訓練結(jié)果上,全部優(yōu)于A100。此外,Gaudi2也可為大規(guī)模的多模態(tài)和語言模型提供出色的推理性能。在最近的Hugging Face評估中,其在大規(guī)模推理方面的表現(xiàn),包括在運行Stable Diffusion、70億以及1760億參數(shù)BLOOMZ模型時,在行業(yè)內(nèi)均保持領先。能耗方面,訓練計算機視覺模型時,Gaudi2的每瓦性能是A100的2倍,推理176B參數(shù)的BLOOMZ時,功耗則可降低40%。
——不僅性能和功耗強大,英特爾還提供了配套的成熟軟件支持:SynapseAI。它可以方便開發(fā)者輕松構(gòu)建模型,或?qū)斍盎贕PU的模型業(yè)務和系統(tǒng)遷移到基于全新Gaudi2服務器。同時,SynapseAI集成了對TensorFlow和PyTorch框架的支持,提供眾多流行的計算機視覺和自然語言參考模型,可以滿足深度學習開發(fā)者的多樣化需求。另外,說到Gaudi2服務器,現(xiàn)在,英特爾已與浪潮信息合作,打造并發(fā)售基于Gaudi2深度學習加速器的浪潮信息AI服務器NF5698G7。該服務器集成了8顆Gaudi2加速卡HL-225B,還包含雙路第四代英特爾至強可擴展處理器,進一步幫助大家高效部署大模型。
最后,值得一提的是,在發(fā)布會后的交流環(huán)節(jié)中,當被問及英特爾是否有一個預期,能占領多少AI加速芯片的市場時,Sandra Rivera表示:
國內(nèi)AI產(chǎn)品需求非常大,產(chǎn)品完全不夠用。因此市場就在那里,在這種情況下我們不用特別設什么份額的目標,就把最好的產(chǎn)品帶出來,滿足市場需求,幫助大家創(chuàng)新,這就是我們想要做的事情。而據(jù)量子位現(xiàn)場獲悉,明年,能夠進一步縮小差距甚至超越英偉達H100的Gaudi3就將問世。與此同時,2025年之時,英特爾還將整合既有的GPU Max產(chǎn)品線和Gaudi系列,取兩者之長,推出更加完整的下一代GPU產(chǎn)品。而在這之中,英特爾將對大家最為關心的可持續(xù)軟件生態(tài)做大筆投入。
4. 李飛飛「具身智能」新成果!機器人接入大模型直接聽懂人話,0預訓練就能完成復雜指令
原文:https://mp.weixin.qq.com/s/XleXS_5shzZNiOSxUFZfgQ李飛飛團隊具身智能最新成果來了:大模型接入機器人,把復雜指令轉(zhuǎn)化成具體行動規(guī)劃,無需額外數(shù)據(jù)和訓練。
從此,人類可以很隨意地用自然語言給機器人下達指令,如:
打開上面的抽屜,小心花瓶!
大語言模型+視覺語言模型就能從3D空間中分析出目標和需要繞過的障礙,幫助機器人做行動規(guī)劃。
然后重點來了, 真實世界中的機器人在未經(jīng)“培訓”的情況下,就能直接執(zhí)行這個任務。
新方法實現(xiàn)了零樣本的日常操作任務軌跡合成,也就是機器人從沒見過的任務也能一次執(zhí)行,連給他做個示范都不需要。可操作的物體也是開放的,不用事先劃定范圍,開瓶子、按開關、拔充電線都能完成。目前項目主頁和論文都已上線,代碼即將推出,并且已經(jīng)引起學術界廣泛興趣。
李飛飛:計算機視覺的3顆北極星大約一年前,李飛飛在美國文理學會會刊上撰文,指出計算機視覺發(fā)展的三個方向:
- 具身智能(Embodied AI)
- 視覺推理(Visual Reasoning)
- 場景理解(Scene Understanding)
5. 國產(chǎn)7nm全功能GPU上海發(fā)布!還有大模型加速卡、AIGC大模型一體機等6款新品
原文:https://mp.weixin.qq.com/s/MhFOeWOowpk_j0CB9zcFQQ7月6日下午,瀚博半導體在2023世界人工智能大會上正式發(fā)布第二代GPU SG 100。一并推出的還有南禺系列GPU加速卡 VG1600、VG1800、VG14以及LLM大模型AI加速卡VA1L、AIGC大模型一體機、VA12高性能生成式AI加速卡等6款新品,為AI大模型、圖形渲染和高質(zhì)量內(nèi)容生產(chǎn)提供完整解決方案。本次發(fā)布會以“智渲同芯,共生未來”為主題,瀚博半導體創(chuàng)始人兼CTO張磊在發(fā)布會上發(fā)表了《從像素到杰作:***加速AI大模型和元宇宙》主題演講,吸引眾多行業(yè)伙伴、知名媒體以及投資機構(gòu)到場。張磊以AGI時代的算力需求與挑戰(zhàn)為引,全面展示了瀚博針對人工智能與元宇宙行業(yè)的最新產(chǎn)品研發(fā)成果,此次瀚博半導體新品發(fā)布會賦能大模型創(chuàng)新應用,聯(lián)合上下游企業(yè)共同打造國產(chǎn)大模型生態(tài)圈,以全新姿態(tài)把握時代機遇,開啟人工智能+元宇宙的瀚博算力序章。
第二代GPU SG100: 集渲染、AI、視頻于一體的7nm全功能GPU瀚博此次重磅推出了集成高性能渲染、超低延時AI和強視頻處理能力的7nm全功能GPU芯片產(chǎn)品SG100。
瀚博SG100芯片采用7nm先進制程,具備業(yè)界領先的渲染性能,同時兼具低延時高吞吐的AI算力和強大的視頻處理能力。搭載瀚博自研GPU軟件棧,業(yè)界一流的SR-IOV硬件虛擬化技術,支持Windows/Linux下的DirectX 11、OpenGL、Vulkan等API接口,支持H.264、H.265、AV1等多種視頻編解碼格式,可廣泛支持數(shù)字孿生、數(shù)字人、云桌面、云手機、云游戲、云渲染、工業(yè)軟件等多領域應用,助力打造元宇宙產(chǎn)業(yè)算力底座。演講中,張磊也通過實際案例展示了瀚博產(chǎn)品基于Windows/Linux下的渲染實例效果、教育云電腦、工業(yè)軟件、多路高畫質(zhì)云游戲以及超寫實數(shù)字人等應用場景,為現(xiàn)場觀眾直觀展示了瀚博第二代全功能GPU SG100的強大算力。南禺系列加速卡:智渲一體 全面覆蓋云端及桌面應用發(fā)布會上,瀚博也針對不同的應用場景推出了三款南禺系列全新GPU加速卡產(chǎn)品。三款新品分別針對云游戲、云桌面與工作站提供相應算力支持,也為高質(zhì)量內(nèi)容生產(chǎn)提供了高效的算力支撐。此次最新發(fā)布的南禺系列GPU加速卡 VG1600完美結(jié)合渲染與視頻處理,打造出沉浸式云游戲體驗,為玩家創(chuàng)造更真實的游玩場景。其次,VG1800 也為遠程工作帶來全面升級,可流暢支持各類辦公軟件、教育APP和工業(yè)設計軟件等,提供出色的云桌面用戶體驗。更有支持Windows 操作系統(tǒng)下DirectX與 OpenGL等API接口的國產(chǎn)工作站顯卡VG14,能夠勝任多任務處理、大型專業(yè)軟件運行等多元辦公場景。
LLM大模型AI加速卡及一體機方案:大模型應用最低門檻今年,以大模型等應用為典型代表打開了人工智能的廣闊前景。未來,具有并行計算能力的GPU芯片作為大模型計算的“大腦”將為大模型生成學習提供源源不斷的算力支撐。針對大模型時代算力需求,瀚博本次首發(fā)了LLM大模型AI加速卡VA1L,具備200 TOPS INT8/72 TFLOPS FP16算力,并支持ChatGPT、LLaMA、Stable Diffusion等主流AIGC網(wǎng)絡模型。
與此同時,瀚博更重磅推出AIGC大模型一體機,共使用8張LLM大模型AI加速卡VA1L,支持512GB顯存,進而支持1750億參數(shù)的大模型。本次大模型一體機解決方案擁有業(yè)內(nèi)最低門檻,也是目前針對AI大語言模型最低價格的大模型一體機方案。此外,新品還提供兩個特殊選配:具有對話功能的2卡單獨運行語音轉(zhuǎn)文字或者文字轉(zhuǎn)語音版本以及使用SG 100做云端實時渲染的2U 11卡版本,提供大模型會話數(shù)字人實時渲染,使大模型推理更高效,服務于大模型行業(yè)發(fā)展。
發(fā)布會上,張磊也為觀眾展示了AI大模型“智能對話”、“文生圖”等應用示例,生動展現(xiàn)了瀚博大模型新品支撐的廣泛應用場景。VA12: 高性能生成式AI加速卡針對生成式AI應用和其他通用AI應用,瀚博本次也推出全新高性能智能加速卡VA12。作為250W板卡,VA12有512 TOPS的INT 8的算力和160 TFLOPS的FP16算力,更高效支持StableDiffusion。與此同時,作為瀚博VA1和VA10的升級版,VA12也是一塊通用AI加速卡,支持檢測、分類、分割、視頻增強、語義理解、BERT、Transfomer和視頻編解碼等應用。VA 12的發(fā)布將為未來AIGC平臺的發(fā)展構(gòu)筑算力底座,讓未來的數(shù)字內(nèi)容生產(chǎn)擁有更高效的計算能力與更多元的可能性。
6. 人工智能在日常生活中的十大應用
原文:https://mp.weixin.qq.com/s/HqVbMOBwpIaHt1eQz3C2Cg7月6日下午,瀚博半導體在2023世界人工智能大會上正式發(fā)布第二代GPU SG 100。一并推出的還有南禺系列GPU加速卡 VG1600、VG1800、VG14以及LLM大模型AI加速卡VA1L、AIGC大模型一體機、VA12高性能生成式AI加速卡等6款新品,為AI大模型、圖形渲染和高質(zhì)量內(nèi)容生產(chǎn)提供完整解決方案。本次發(fā)布會以“智渲同芯,共生未來”為主題,瀚博半導體創(chuàng)始人兼CTO張磊在發(fā)布會上發(fā)表了《從像素到杰作:***加速AI大模型和元宇宙》主題演講,吸引眾多行業(yè)伙伴、知名媒體以及投資機構(gòu)到場。
今年,人工智能在公眾使用方面取得了驚人的新進展。一張人工智能生成的圖像甚至在與人類藝術家競爭時獲得了藝術獎(https://www.nytimes.com/2022/09/02/technology/ai-artificial-intelligence-artists.html)。事實是,人工智能就在我們身邊。它被用來幫助篩查癌癥,打擊偷獵瀕危大象的行為,并能夠從太空探測考古遺址。但人工智能并不局限于科學前沿。事實上,人工智能無處不在。你可能在日常生活中也使用人工智能。“人工智能技術滲透到了我們生活的方方面面,這幾乎是潛移默化的,”IEEE高級會員Guangjie Han說,“它為我們的設備提供動力,同時通過分析我們在這些設備上產(chǎn)生的數(shù)據(jù)而不斷進行改進?!?/span>人工智能在日常生活中的常見用途包括:1. 智能助理:智能手機或智能家居設備上的語音助手由人工智能支持。有時,請求可以在手機上處理。有時請求會被發(fā)送到云服務器進行處理。2. 智能家居設備:通過人工智能,智能恒溫器可以自動調(diào)整家中的暖通空調(diào)系統(tǒng),而攝像頭可以提醒消費者有人、車或包裹到達。3. 電子商務:人工智能在網(wǎng)上購物中無處不在。值得注意的應用程序擴展包括了產(chǎn)品建議,可以幫助管理銷售和退貨的聊天機器人,以及定制的購物體驗。4. 零售業(yè)的趨勢識別:在線商店不僅僅是在你購物時提供推薦,他們還積極使用商店和競爭對手的銷售數(shù)據(jù)來識別趨勢。通過使用人工智能進行設計和制造,以便滿足公眾的需求。5. 內(nèi)容推薦:人工智能支持的內(nèi)容推薦引擎使用產(chǎn)品目錄和消費者數(shù)據(jù)進行培訓,以提供更個性化的推薦。6. 導航和旅行:紙質(zhì)地圖已經(jīng)成為過去。人工智能生成的路線可以優(yōu)化旅行時間或減少油耗。7. 藥物研究:通過識別其潛在危險和作用機制,人工智能系統(tǒng)能夠幫助尋找新的藥物應用。這項技術幫助建立了幾個藥物發(fā)現(xiàn)平臺,使企業(yè)能夠重復使用當前的藥物和生物活性物質(zhì)進行研究。8. 面部識別解鎖手機:看向手機即可解鎖。這些功能得到了人工智能的支持,它利用相機和傳感器技術來準確測量你的面部。9. 金融欺詐檢測:人工智能非常擅長模式分析,事實證明,我們大多數(shù)人使用信用卡的方式相當可預測。這使得它非常適合確定哪些信用卡交易可能是非法的。如果你曾經(jīng)接到銀行的電話,詢問你是否進行了交易,那很可能是人工智能算法的結(jié)果。10. 自動更正:人工智能系統(tǒng)使用機器學習、深度學習和自然語言處理來識別文字處理器、短信應用程序和其他文本媒體中的錯誤語言使用,并提供更正和建議。在可預見的未來,人工智能系統(tǒng)的大部分工作將集中在構(gòu)建更大、更少偏見的數(shù)據(jù)集上,用于訓練模型。“這些系統(tǒng)的訓練在很大程度上取決于人工智能模型訓練的數(shù)據(jù),”IEEE會士(Fellow)Karen Panetta說,“它可以體驗的場景越多,效果就越好,但這需要精心策劃、注釋的數(shù)據(jù)集。這些數(shù)據(jù)集必須多樣化,以減少偏差,并動態(tài)更新,以反映新的條件和現(xiàn)實世界應用中出現(xiàn)的場景?!?/span>同時,這也在提醒人們,在某些改變生活的環(huán)境中不要過度依賴人工智能系統(tǒng)。Panetta說:“人工智能需要被解釋。例如,許多公司正在銷售評估人們表現(xiàn)并確定薪酬的產(chǎn)品。然而,這些系統(tǒng)做出的決定無法解釋人工智能是如何決定結(jié)果的。人工智能不應該影響某人的生計?!?/span>盡管人工智能盛行,但它仍有很大的發(fā)展和改進空間。
———————End———————
RT-Thread線下入門培訓
7月 - 南京
1.免費2.動手實驗+理論3.主辦方免費提供開發(fā)板4.自行攜帶電腦,及插線板用于筆記本電腦充電5.參與者需要有C語言、單片機(ARM Cortex-M核)基礎,請?zhí)崆鞍惭b好RT-Thread Studio 開發(fā)環(huán)境
報名通道
立即掃碼報名
(報名成功即可參加)
點擊閱讀原文進入官網(wǎng)
原文標題:【AI簡報20230714期】人工智能在日常生活中的應用,國產(chǎn)AI芯片最新進展公布!
文章出處:【微信公眾號:RTThread物聯(lián)網(wǎng)操作系統(tǒng)】歡迎添加關注!文章轉(zhuǎn)載請注明出處。
-
RT-Thread
+關注
關注
31文章
1285瀏覽量
40081
原文標題:【AI簡報20230714期】人工智能在日常生活中的應用,國產(chǎn)AI芯片最新進展公布!
文章出處:【微信號:RTThread,微信公眾號:RTThread物聯(lián)網(wǎng)操作系統(tǒng)】歡迎添加關注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關推薦
評論