RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

這三種學(xué)習(xí)模式在于深度學(xué)習(xí)的未來(lái)

新機(jī)器視覺(jué) ? 來(lái)源:InfoQ中文站 ? 作者:Andre ? 2020-10-23 09:37 ? 次閱讀

作者 | Andre Ye 譯者 | 平川 策劃 | 陳思

深度學(xué)習(xí)是一個(gè)廣闊的領(lǐng)域,它圍繞著一種形態(tài)由數(shù)百萬(wàn)甚至數(shù)十億個(gè)變量決定并不斷變化的算法——神經(jīng)網(wǎng)絡(luò)。似乎每隔一天就有大量的新方法和新技術(shù)被提出來(lái)。不過(guò),總的來(lái)說(shuō),現(xiàn)代深度學(xué)習(xí)可以分為三種基本的學(xué)習(xí)范式。每一種都有自己的學(xué)習(xí)方法和理念,提升了機(jī)器學(xué)習(xí)的能力,擴(kuò)大了其范圍。

本文最初發(fā)布于 Towards Data Science 博客,由 InfoQ 中文站翻譯并分享。

深度學(xué)習(xí)的未來(lái)在于這三種學(xué)習(xí)模式,而且它們彼此之間密切相關(guān):

混合學(xué)習(xí)——現(xiàn)代深度學(xué)習(xí)方法如何跨越監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí)之間的邊界,以適應(yīng)大量未使用的無(wú)標(biāo)簽數(shù)據(jù)?

復(fù)合學(xué)習(xí)——如何以創(chuàng)造性的方法將不同的模型或組件連接起來(lái),以生成一個(gè)大于各部分之和的復(fù)合模型?

簡(jiǎn)化學(xué)習(xí)——出于性能和部署目的,如何減少模型的規(guī)模和信息流,同時(shí)保持相同或更強(qiáng)的預(yù)測(cè)能力?

混合學(xué)習(xí)

這種范式試圖跨越監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí)之間的界限。由于有標(biāo)簽數(shù)據(jù)缺乏且成本高,所以常常在業(yè)務(wù)上下文中使用。從本質(zhì)上說(shuō),混合學(xué)習(xí)是對(duì)下面這個(gè)問(wèn)題的回答:

如何使用監(jiān)督方法解決非監(jiān)督問(wèn)題?

首先,半監(jiān)督學(xué)習(xí)在機(jī)器學(xué)習(xí)領(lǐng)域取得了良好的進(jìn)展,因?yàn)樗恍枰苌俚挠袠?biāo)簽數(shù)據(jù)就能夠在監(jiān)督問(wèn)題上有非常好的表現(xiàn)。例如,一個(gè)設(shè)計(jì)良好的半監(jiān)督式 GAN(生成式對(duì)抗網(wǎng)絡(luò))只需要 25 個(gè)訓(xùn)練樣本,就能在 MNIST 數(shù)據(jù)集上獲得了超過(guò) 90% 的準(zhǔn)確率。

半監(jiān)督學(xué)習(xí)是針對(duì)有大量無(wú)監(jiān)督數(shù)據(jù)和少量有監(jiān)督數(shù)據(jù)的數(shù)據(jù)集而設(shè)計(jì)的。傳統(tǒng)上,監(jiān)督學(xué)習(xí)模型只在一部分?jǐn)?shù)據(jù)上進(jìn)行訓(xùn)練,無(wú)監(jiān)督模型則在另一部分?jǐn)?shù)據(jù)上進(jìn)行訓(xùn)練,而半監(jiān)督模型則可以將有標(biāo)簽數(shù)據(jù)與從無(wú)標(biāo)簽數(shù)據(jù)中提取的見解結(jié)合起來(lái)。

半監(jiān)督 GAN(簡(jiǎn)稱 SGAN)是對(duì) 標(biāo)準(zhǔn)生成式對(duì)抗網(wǎng)絡(luò)模型 的改寫。判別器輸出 0/1 表示圖像是否生成,它也輸出項(xiàng)的類別(多輸出學(xué)習(xí))。

這是基于這樣一種想法,即通過(guò)判別器學(xué)習(xí)區(qū)分真實(shí)的和生成的圖像,它能夠?qū)W習(xí)它們的結(jié)構(gòu)而不需要具體的標(biāo)簽。通過(guò)少量標(biāo)簽數(shù)據(jù)的額外增強(qiáng),半監(jiān)督模型就可以在少量監(jiān)督數(shù)據(jù)的情況下實(shí)現(xiàn)最高的性能。

要了解關(guān)于 SGAN 和半監(jiān)督學(xué)習(xí)的更多內(nèi)容,請(qǐng)查看這里:

https://towardsdatascience.com/supervised-learning-but-a-lot-better-semi-supervised-learning-a42dff534781

GAN 還參與了混合學(xué)習(xí)的另一個(gè)領(lǐng)域——自監(jiān)督學(xué)習(xí),在這種學(xué)習(xí)中,非監(jiān)督問(wèn)題被明確地定義為監(jiān)督問(wèn)題。GAN 通過(guò)引入生成器人為地創(chuàng)建監(jiān)督數(shù)據(jù);創(chuàng)建標(biāo)簽來(lái)識(shí)別真實(shí) / 生成的圖像。在無(wú)監(jiān)督的前提下,創(chuàng)建了一個(gè)有監(jiān)督的任務(wù)。

或者,考慮使用 編碼器 - 解碼器壓縮模型。在最簡(jiǎn)單的形式中,它們是中間有少量節(jié)點(diǎn)(表示某種瓶頸壓縮形式)的神經(jīng)網(wǎng)絡(luò)。兩端分別是編碼器和解碼器。

網(wǎng)絡(luò)被訓(xùn)練成產(chǎn)生與輸入向量相同的輸出(從無(wú)監(jiān)督數(shù)據(jù)人為地創(chuàng)建監(jiān)督任務(wù))。由于故意在中間設(shè)置了瓶頸,所以網(wǎng)絡(luò)不會(huì)被動(dòng)地傳遞信息;相反,它必須找到最好的方法將輸入內(nèi)容保存到一個(gè)小的單元中,這樣,解碼器就可以再次合理地對(duì)它解碼。

訓(xùn)練完成后,將編碼器和解碼器分開,用于壓縮或編碼數(shù)據(jù)的接收端,以極小的形式傳輸信息,而又幾乎不丟失數(shù)據(jù)。它們還可以用來(lái)降低數(shù)據(jù)的維數(shù)。

另一個(gè)例子,考慮一個(gè)大型的文本集(可能是來(lái)自數(shù)字平臺(tái)的評(píng)論)。通過(guò)一些聚類或流形學(xué)習(xí)(manifold learning)方法,我們可以為文本集生成聚類標(biāo)簽,然后用它們作為標(biāo)簽(如果聚類做得好的話)。

在對(duì)每個(gè)類進(jìn)行解釋之后(例如,類 A 表示對(duì)產(chǎn)品的抱怨,類 B 表示積極的反饋,等等),可以使用像 BERT 這樣的深層 NLP 架構(gòu)將新文本分類到這些類中,所有這些都是使用了完全未標(biāo)記的數(shù)據(jù),并將人的參與降至最低。

這又是一個(gè)將非監(jiān)督任務(wù)轉(zhuǎn)換為監(jiān)督任務(wù)的有趣應(yīng)用。在一個(gè)絕大多數(shù)數(shù)據(jù)都是非監(jiān)督數(shù)據(jù)的時(shí)代,通過(guò)混合學(xué)習(xí),在監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí)之間創(chuàng)造性地架起一座橋梁,具有巨大的價(jià)值和潛力。

復(fù)合學(xué)習(xí)

復(fù)合學(xué)習(xí)為的是利用幾種模式的知識(shí),而不是一種。該方法認(rèn)為,通過(guò)獨(dú)特的組合或信息注入——包括靜態(tài)和動(dòng)態(tài)——與單一模式相比,深度學(xué)習(xí)能夠在理解和性能方面不斷地深入。

遷移學(xué)習(xí)是復(fù)合學(xué)習(xí)的一個(gè)明顯的例子,它的前提是模型的權(quán)重可以從一個(gè)在類似的任務(wù)上預(yù)先訓(xùn)練過(guò)的模型中借用,然后在特定任務(wù)上進(jìn)行微調(diào)。像 Inception 或 VGG-6 這樣的預(yù)訓(xùn)練模型,其結(jié)構(gòu)和權(quán)重被設(shè)計(jì)成可以區(qū)分幾種不同類別的圖像。

如果我要訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)來(lái)識(shí)別動(dòng)物(貓、狗等),我不會(huì)從頭開始訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò),因?yàn)橐_(dá)到不錯(cuò)的效果需要太長(zhǎng)時(shí)間。相反,我會(huì)使用一個(gè)預(yù)先訓(xùn)練過(guò)的模型(比如 Inception,它已經(jīng)存儲(chǔ)了圖像識(shí)別的基礎(chǔ)知識(shí)),在數(shù)據(jù)集上額外進(jìn)行幾個(gè) epoch 的訓(xùn)練。

類似地,在 NLP 神經(jīng)網(wǎng)絡(luò)中,詞嵌入會(huì)根據(jù)單詞之間的關(guān)系在一個(gè)嵌入空間中將單詞映射到實(shí)際距離較近的其他單詞(例如,“apple”和“orange”的距離比“apple”和“truck”的距離更?。?。像 GloVe 這樣預(yù)先訓(xùn)練好的嵌入可以放到神經(jīng)網(wǎng)絡(luò)中,從單詞到有意義的數(shù)字化實(shí)體的有效映射開始。

較為隱秘的一點(diǎn)是,競(jìng)爭(zhēng)也能促進(jìn)知識(shí)增長(zhǎng)。首先,生成式對(duì)抗網(wǎng)絡(luò)借鑒了復(fù)合學(xué)習(xí)范式,從根本上使兩個(gè)神經(jīng)網(wǎng)絡(luò)相互競(jìng)爭(zhēng)。生成器的目標(biāo)是欺騙判別器,而判別器的目標(biāo)是不被騙。

下文會(huì)將模型之間的競(jìng)爭(zhēng)稱為“對(duì)抗性學(xué)習(xí)”,不要與另一種 設(shè)計(jì)惡意輸入并利用模型弱決策邊界 的對(duì)抗性學(xué)習(xí)相混淆。

對(duì)抗性學(xué)習(xí)可以增強(qiáng)模型,通常是不同類型的模型,在對(duì)抗性學(xué)習(xí)中,一個(gè)模型的性能可以用其他模型的性能來(lái)表示。在對(duì)抗性學(xué)習(xí)領(lǐng)域還有很多研究需要做,生成式對(duì)抗網(wǎng)絡(luò)是這個(gè)子領(lǐng)域唯一突出的創(chuàng)新。

另一方面,競(jìng)爭(zhēng)性學(xué)習(xí)與對(duì)抗性學(xué)習(xí)類似,但是逐節(jié)點(diǎn)執(zhí)行的:節(jié)點(diǎn)競(jìng)爭(zhēng)對(duì)輸入數(shù)據(jù)的一個(gè)子集作出響應(yīng)的權(quán)利。競(jìng)爭(zhēng)性學(xué)習(xí)是在一個(gè)“競(jìng)爭(zhēng)層”中實(shí)現(xiàn)的,在這個(gè)“競(jìng)爭(zhēng)層”中,除了某些權(quán)重隨機(jī)分布外,神經(jīng)元都是相同的。

將每個(gè)神經(jīng)元的權(quán)值向量與輸入向量進(jìn)行比較,然后激活(output = 1)相似度最高的“贏者全拿”神經(jīng)元,其余神經(jīng)元“不激活”(output = 0),這種無(wú)監(jiān)督技術(shù)是 自組織映射 和 特征發(fā)現(xiàn) 的核心組成部分。

復(fù)合學(xué)習(xí)的另一個(gè)有趣的例子是神經(jīng)結(jié)構(gòu)搜索。簡(jiǎn)而言之,在強(qiáng)化學(xué)習(xí)環(huán)境中,神經(jīng)網(wǎng)絡(luò)(通常是 RNN)通過(guò)學(xué)習(xí)為數(shù)據(jù)集生成最好的神經(jīng)網(wǎng)絡(luò)——算法為你找出最好的架構(gòu)!

集成(Ensemble)方法也是一種重要的復(fù)合學(xué)習(xí)方法。深度集成方法已經(jīng)被證明非常 有效,而且,端到端模型疊加,像編碼器和解碼器,已經(jīng)變得越來(lái)越流行。

復(fù)合學(xué)習(xí)的主要目的是找出在不同模型之間建立聯(lián)系的獨(dú)特方法。它的前提是:

單個(gè)模型,即使是一個(gè)非常大的模型,其性能也不如幾個(gè)小模型 / 組件,其中每一個(gè)都被委派專門處理一部分任務(wù)。

例如,考慮為一家餐館構(gòu)建一個(gè)聊天機(jī)器人的任務(wù)。

我們可以將其劃分為三個(gè)獨(dú)立的部分:寒暄 / 閑聊、信息檢索和動(dòng)作,并針對(duì)每個(gè)部分單獨(dú)設(shè)計(jì)一個(gè)模型?;蛘撸覀兛梢晕幸粋€(gè)模型來(lái)執(zhí)行所有這三個(gè)任務(wù)。

復(fù)合模型性能更好,同時(shí)占用的空間更少,這應(yīng)該沒(méi)什么可奇怪的。此外,這些非線性拓?fù)淇梢杂?Keras 函數(shù)式 API 這樣的工具輕松構(gòu)建。

為了處理越來(lái)越多樣化的數(shù)據(jù)類型,如視頻和三維數(shù)據(jù),研究人員必須建立創(chuàng)造性的復(fù)合模型。

簡(jiǎn)化學(xué)習(xí)

模型的規(guī)模,尤其是在 NLP 領(lǐng)域(深度學(xué)習(xí)研究的中心),正在大幅增長(zhǎng)。最新的 GPT-3 模型有 1750 億個(gè)參數(shù)。把它和 BERT 比較就像把木星和蚊子比較一樣(并不夸張)。未來(lái),深度學(xué)習(xí)的模型會(huì)更大嗎?

很可能不會(huì)。誠(chéng)然,GPT-3 非常強(qiáng)大,但歷史一再表明,“成功的科學(xué)”是那些對(duì)人類影響最大的科學(xué)。當(dāng)學(xué)術(shù)偏離現(xiàn)實(shí)太遠(yuǎn)時(shí),通常會(huì)淡出人們的視線。這就是神經(jīng)網(wǎng)絡(luò)在 20 世紀(jì)末期被短暫遺忘的原因,因?yàn)榭捎玫臄?shù)據(jù)太少了,以至于這個(gè)想法,無(wú)論多么巧妙,都是沒(méi)用的。

GPT-3 是另一種語(yǔ)言模型,它可以寫出令人信服的文本。它的應(yīng)用在哪里?是的,它可以生成查詢的答案。不過(guò),還有更高效的方法來(lái)實(shí)現(xiàn)這一點(diǎn)(例如,遍歷一個(gè)知識(shí)圖,并使用一個(gè)更小的模型如 BERT 來(lái)輸出答案)。

考慮到 計(jì)算能力的枯竭,GPT-3 的龐大規(guī)模(更不用說(shuō)更大的模型)似乎是不可行的,或者是不必要的。

“摩爾定律有點(diǎn)過(guò)時(shí)了?!薄④浭紫瘓?zhí)行官 Satya Nadella

相反,我們正在走向一個(gè)嵌入式人工智能的世界,智能冰箱可以自動(dòng)訂購(gòu)食品雜貨,無(wú)人機(jī)可以自行導(dǎo)航飛遍整個(gè)城市。強(qiáng)大的機(jī)器學(xué)習(xí)方法應(yīng)該能夠下載到個(gè)人電腦、手機(jī)和小型芯片上。

這就需要輕量級(jí)人工智能:在保持性能的同時(shí)使神經(jīng)網(wǎng)絡(luò)更小。

事實(shí)證明,在深度學(xué)習(xí)研究中,幾乎所有的東西都與直接或間接地減少必要參數(shù)的數(shù)量有關(guān),而這又與提高泛化能力和性能緊密相關(guān)。例如,卷積層的引入大大減少了神經(jīng)網(wǎng)絡(luò)處理圖像所需的參數(shù)數(shù)量。遞歸層在使用相同權(quán)值的同時(shí)融入了時(shí)間的概念,使得神經(jīng)網(wǎng)絡(luò)能夠以更少的參數(shù)更好地處理序列。

嵌入層顯式地將實(shí)體映射到具有物理意義的數(shù)值,這樣負(fù)擔(dān)就不會(huì)落在其他參數(shù)上。有一種解釋說(shuō),Dropout 層在對(duì)輸入的某些部分進(jìn)行操作時(shí)會(huì)顯式地屏蔽參數(shù)。L1/L2 正則化 確保網(wǎng)絡(luò)利用了所有的參數(shù),而且每個(gè)參數(shù)都不會(huì)太大,并最大化了每個(gè)參數(shù)的信息價(jià)值。

隨著專用層的建立,網(wǎng)絡(luò)對(duì)更復(fù)雜、更大數(shù)據(jù)的要求越來(lái)越少。其他最新方法明確地尋求簡(jiǎn)化網(wǎng)絡(luò)。

神經(jīng)網(wǎng)絡(luò)剪枝 試圖去除對(duì)網(wǎng)絡(luò)輸出沒(méi)有價(jià)值的突觸和神經(jīng)元。通過(guò)剪枝,網(wǎng)絡(luò)可以在去除大部分網(wǎng)絡(luò)節(jié)點(diǎn)的情況下保持其性能。

其他方法,如 Patient Knowledge Distillation,可以將大型語(yǔ)言模型壓縮成可下載到用戶手機(jī)上的形式。對(duì)于支撐谷歌翻譯的 谷歌神經(jīng)機(jī)器翻譯(GNMT)系統(tǒng) 來(lái)說(shuō),這種考慮是有必要的,該系統(tǒng)需要?jiǎng)?chuàng)建一個(gè)能夠離線訪問(wèn)的高性能翻譯服務(wù)。

本質(zhì)上講,簡(jiǎn)化學(xué)習(xí)以部署為中心進(jìn)行設(shè)計(jì)。這就是為什么大多數(shù)關(guān)于簡(jiǎn)化學(xué)習(xí)的研究都來(lái)自于公司的研究部門。以部署為中心的設(shè)計(jì)不能盲目地遵循數(shù)據(jù)集上的性能指標(biāo),而要關(guān)注模型部署時(shí)的潛在問(wèn)題。

例如,前面提到的 對(duì)抗性輸入 是設(shè)計(jì)用來(lái)欺騙網(wǎng)絡(luò)的惡意輸入。可以用噴漆或貼紙來(lái)欺騙自動(dòng)駕駛汽車,使其遠(yuǎn)遠(yuǎn)超過(guò)限速。負(fù)責(zé)任的簡(jiǎn)化學(xué)習(xí)不僅是使模型足夠輕量化,而且要確保它能夠適應(yīng)數(shù)據(jù)集中沒(méi)有表示出的極端情況。

在深度學(xué)習(xí)研究中,簡(jiǎn)化學(xué)習(xí)得到的關(guān)注最少,因?yàn)椤拔覀兂晒Φ卦诳尚械募軜?gòu)規(guī)模下實(shí)現(xiàn)了良好的性能”遠(yuǎn)不如“我們利用一個(gè)擁有無(wú)數(shù)參數(shù)的架構(gòu)實(shí)現(xiàn)了最先進(jìn)的性能”那么吸引人。

不可避免地,當(dāng)對(duì)更高百分比的追求消失時(shí),正如創(chuàng)新的歷史所顯示的那樣,簡(jiǎn)化學(xué)習(xí)——實(shí)際上就是實(shí)用的學(xué)習(xí)——將得到更多它應(yīng)該得到的關(guān)注。

總 結(jié)

混合學(xué)習(xí)試圖跨越監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí)的邊界。像半監(jiān)督和自監(jiān)督學(xué)習(xí)這樣的方法能夠從無(wú)標(biāo)簽數(shù)據(jù)中提取有價(jià)值的見解,當(dāng)無(wú)監(jiān)督數(shù)據(jù)的數(shù)量呈指數(shù)增長(zhǎng)時(shí),這些見解就變得非常有價(jià)值。

隨著任務(wù)變得越來(lái)越復(fù)雜,復(fù)合學(xué)習(xí)將一個(gè)任務(wù)分解為幾個(gè)更簡(jiǎn)單的組件。當(dāng)這些組件一起工作或者相互對(duì)抗,就可以得到一個(gè)更強(qiáng)大的模型。

深度學(xué)習(xí)已經(jīng)進(jìn)入炒作階段,而簡(jiǎn)化學(xué)習(xí)還沒(méi)有得到太多關(guān)注,但很快就會(huì)出現(xiàn)足夠?qū)嵱貌⑶沂且圆渴馂橹行牡脑O(shè)計(jì)。

感謝閱讀!

原文標(biāo)題:深度學(xué)習(xí)未來(lái)的三種范式

文章出處:【微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:深度學(xué)習(xí)未來(lái)的三種范式

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    NPU在深度學(xué)習(xí)中的應(yīng)用

    設(shè)計(jì)的硬件加速器,它在深度學(xué)習(xí)中的應(yīng)用日益廣泛。 1. NPU的基本概念 NPU是一專門針對(duì)深度學(xué)習(xí)算法優(yōu)化的處理器,它與傳統(tǒng)的CPU和G
    的頭像 發(fā)表于 11-14 15:17 ?503次閱讀

    什么是PID調(diào)節(jié)器的三種模式

    (Proportional)、積分(Integral)和微分(Derivative)。這三種控制動(dòng)作可以單獨(dú)使用,也可以組合使用,形成三種基本的控制模式:比例控制(P)、積分控制(I)和微分控制(D)。 1. 比例控制(P) 比
    的頭像 發(fā)表于 11-06 10:38 ?365次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?647次閱讀

    I2S有左對(duì)齊,右對(duì)齊跟標(biāo)準(zhǔn)的I2S三種格式,那么這三種格式各有什么優(yōu)點(diǎn)呢?

    大家好,關(guān)于I2S格式,有兩個(gè)疑問(wèn)請(qǐng)教一下 我們知道I2S有左對(duì)齊,右對(duì)齊跟標(biāo)準(zhǔn)的I2S三種格式,那么這三種格式各有什么優(yōu)點(diǎn)呢? 而且對(duì)于標(biāo)準(zhǔn)的I2S格式,32FS傳輸16bit的數(shù)據(jù),48fs傳輸24bit的數(shù)據(jù),最低位會(huì)移動(dòng)到右聲道,是否意味著該數(shù)據(jù)被丟棄了?還是有
    發(fā)表于 10-21 08:23

    vim的三種工作模式有哪些

    Vim是一個(gè)功能強(qiáng)大的文本編輯器,它具有三種工作模式:普通模式、插入模式和命令行模式。以下是對(duì)這三種
    的頭像 發(fā)表于 08-30 14:52 ?735次閱讀

    深度學(xué)習(xí)算法在集成電路測(cè)試中的應(yīng)用

    隨著半導(dǎo)體技術(shù)的快速發(fā)展,集成電路(IC)的復(fù)雜性和集成度不斷提高,對(duì)測(cè)試技術(shù)的要求也日益增加。深度學(xué)習(xí)算法作為一強(qiáng)大的數(shù)據(jù)處理和模式識(shí)別工具,在集成電路測(cè)試領(lǐng)域展現(xiàn)出了巨大的應(yīng)用潛
    的頭像 發(fā)表于 07-15 09:48 ?954次閱讀

    深度學(xué)習(xí)中的時(shí)間序列分類方法

    的發(fā)展,基于深度學(xué)習(xí)的TSC方法逐漸展現(xiàn)出其強(qiáng)大的自動(dòng)特征提取和分類能力。本文將從多個(gè)角度對(duì)深度學(xué)習(xí)在時(shí)間序列分類中的應(yīng)用進(jìn)行綜述,探討常用的深度
    的頭像 發(fā)表于 07-09 15:54 ?875次閱讀

    深度學(xué)習(xí)與nlp的區(qū)別在哪

    深度學(xué)習(xí)和自然語(yǔ)言處理(NLP)是計(jì)算機(jī)科學(xué)領(lǐng)域中兩個(gè)非常重要的研究方向。它們之間既有聯(lián)系,也有區(qū)別。本文將介紹深度學(xué)習(xí)與NLP的區(qū)別。 深度
    的頭像 發(fā)表于 07-05 09:47 ?907次閱讀

    ESP32的Station模式SoftAP模式BLE模式,三種模式可以共存嗎?

    現(xiàn)在ESP32 這三種模式能夠共存嗎? 以前了解,不是很穩(wěn)定,現(xiàn)在改善了嗎?
    發(fā)表于 06-24 06:40

    555集成芯片的三種工作模式及區(qū)別

    555集成芯片是一個(gè)功能強(qiáng)大的模擬電路和數(shù)字電路結(jié)合的中規(guī)模集成電路,它主要有三種工作模式:?jiǎn)畏€(wěn)態(tài)模式、雙穩(wěn)態(tài)模式和無(wú)穩(wěn)態(tài)模式。
    的頭像 發(fā)表于 03-26 14:46 ?1575次閱讀

    動(dòng)態(tài)無(wú)功補(bǔ)償裝置的三種運(yùn)行模式

    了解這三種運(yùn)行模式的運(yùn)作原理及優(yōu)勢(shì)劣勢(shì),對(duì)于提高電力系統(tǒng)運(yùn)行效率至關(guān)重要。 首先,手動(dòng)模式是指人工操作控制設(shè)備的模式。在手動(dòng)模式下,運(yùn)維人員
    的頭像 發(fā)表于 02-28 14:17 ?962次閱讀
    動(dòng)態(tài)無(wú)功補(bǔ)償裝置的<b class='flag-5'>三種</b>運(yùn)行<b class='flag-5'>模式</b>

    VMware虛擬機(jī)的三種網(wǎng)絡(luò)模式

    。VMware提供了三種網(wǎng)絡(luò)模式:橋接模式、NAT模式和主機(jī)模式。在本文中,我們將詳細(xì)介紹這三種
    的頭像 發(fā)表于 02-04 11:17 ?1985次閱讀

    示波器的三種觸發(fā)模式

    示波器的觸發(fā)模式有自動(dòng)模式(Auto)、正常模式(Norm)和單次模式(Single)三種。在測(cè)不同信號(hào)時(shí),采用不同的觸發(fā)
    的頭像 發(fā)表于 01-18 08:12 ?2584次閱讀
    示波器的<b class='flag-5'>三種</b>觸發(fā)<b class='flag-5'>模式</b>

    buck電路有哪三種工作模式

    (Boundary Conduction Mode,邊界導(dǎo)通模式)和DCM(Discontinuous Conduction Mode,非連續(xù)導(dǎo)通模式)。本文將對(duì)這三種工作模式進(jìn)行詳細(xì)
    的頭像 發(fā)表于 01-17 18:10 ?3630次閱讀
    buck電路有哪<b class='flag-5'>三種</b>工作<b class='flag-5'>模式</b>

    針對(duì)電平變頻器中點(diǎn)電位平衡模式有哪些優(yōu)缺點(diǎn)?

    電平結(jié)構(gòu)的變頻器有一個(gè)問(wèn)題就是中點(diǎn)電位不平衡,在軟件控制層面有三種平衡模式,默認(rèn)模式、比例模式和PI
    發(fā)表于 01-09 16:12
    RM新时代网站-首页