新一代人工智能技術的發(fā)展,離不開芯片與深度學習框架兩大基礎,隨著中國科研創(chuàng)新能力的提升,技術領域取得大量突破。
當然,這也是一種技術封鎖的倒逼,今年出現(xiàn)的華為芯片供應鏈被全面封鎖,和工科神器MATLAB被禁事件,這兩件事情加起來,迫使我國要從基礎架構平臺到應用系統(tǒng)等,全方位建設自主知識的優(yōu)秀產(chǎn)品。
01
發(fā) 展
而深度學習作為人工智能的核心技術,近年來無論是學術、還是工業(yè)領域,均發(fā)揮著愈加重要的作用。
過去十年,深度學習領域涌現(xiàn)了大量算法和應用。在這些深度學習算法和應用涌現(xiàn)的背后,是各種各樣的深度學習工具和框架。它們是機器學習革命的腳手架:TensorFlow 和 PyTorch 等深度學習框架的廣泛使用,使得許多 ML 從業(yè)者能夠使用適合的領域特定的編程語言和豐富的構建模塊更容易地組裝模型。
回顧深度學習框架的演變,我們可以清楚地看到深度學習框架和深度學習算法之間的緊密耦合關系。這種相互依賴的良性循環(huán)推動了深度學習框架和工具的快速發(fā)展。
02
趨 勢
我們正在處于一場人工智能革命的黎明,人工智能領域的新研究和應用框架,正在以前所未有的速度涌現(xiàn)。
八年前的AlexNet 網(wǎng)絡僅僅包含6000 萬個參數(shù),最新的 GPT-3 網(wǎng)絡包含 1750 億參數(shù),網(wǎng)絡規(guī)模在 8 年內增加了 3000 倍。但是人類的大腦包含100萬億個突觸,也就相當于參數(shù)。所以,神經(jīng)網(wǎng)絡要達到人類的智能水平還有很大的差距。
這種難以接受的網(wǎng)絡規(guī)模,對現(xiàn)有的模型訓練和推理的硬件、軟件計算效率都提出了很大的挑戰(zhàn)。未來的深度學習框架很可能是算法、高性能計算、硬件加速器和分布式系統(tǒng)的跨學科成果。
03
挑 戰(zhàn)
然而,對于深度學習相關的初學者,還是對于已經(jīng)從事相關工作的算法工程師來說,深度學習理論太難學,開發(fā)過程太復雜,又將許多人拒之于深度學習的門外。
而大廠等一線企業(yè)在這方面的需求也是迫在眉睫,阿里云也正式開深,是業(yè)界首個面向NLP場景的深度遷移學習框架。人才渴求之大,人才缺口一場嚴峻。
04
機 遇
那么,作為我們學習深度學習的時候,究竟是學哪個框架呢?是學PyTorch、還是學Tensorflow、再或者是學Keras呢?其實,對于這樣的問題,基于現(xiàn)在的形勢下,你就不要把著眼點放在這些工具的使用上了,重要的是要知道它的原理。
責任編輯:lq
-
算法
+關注
關注
23文章
4607瀏覽量
92826 -
源碼
+關注
關注
8文章
639瀏覽量
29185 -
深度學習
+關注
關注
73文章
5500瀏覽量
121111
原文標題:與其瘋狂讀源碼,不如自己造源碼!
文章出處:【微信號:WW_CGQJS,微信公眾號:傳感器技術】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
相關推薦
評論