RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

強化學習“好奇心”模型:訓練無需外部獎勵,全靠自己

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-08-20 08:55 ? 次閱讀

強化學習模型往往依賴對外部獎勵機制的精心設(shè)計,在模型訓練成本控制和可擴展性上都存在局限。OpenAI的研究人員提出一種新的強化學習模型訓練方式,以agent的“好奇心”作為內(nèi)在獎勵函數(shù),在訓練中無需外部獎勵,泛化性好,經(jīng)過54種環(huán)境測試,效果拔群。

強化學習模型在很大程度上依賴于對agent的外在環(huán)境獎勵的精心設(shè)計。然而,用手工設(shè)計的密集獎勵來對每個環(huán)境進行標記的方式是不可擴展的,這就需要開發(fā)agent所固有的獎勵函數(shù)。好奇心就是一種內(nèi)在的獎勵函數(shù),它使用預(yù)測誤差作為獎勵信號。

在本文中,我們首次在54個標準基準測試環(huán)境(包括一系列Atari游戲)中進行了純粹基于好奇心驅(qū)動學習的大規(guī)模研究,不設(shè)置任何外在獎勵。得到的結(jié)果令人驚喜,而且表明內(nèi)在的好奇心目標獎勵與許多游戲環(huán)境中手工設(shè)計的外在獎勵機制之間存在高度的一致性。

強化學習“好奇心”模型:訓練無需外部獎勵,全靠自己

我們研究了使用不同的特征空間來計算預(yù)測誤差的效果,并表明,隨機特征對于許多流行的強化學習游戲的基準測試來說已經(jīng)足夠,但是已學習過的特征看起來似乎具備更高的泛化性。(比如可以遷移至《超級馬里奧兄弟》的新關(guān)卡中)。

我們對agent進行了大規(guī)模的實證研究,這些agent純粹通過各種模擬環(huán)境中的內(nèi)在獎勵來驅(qū)動,這還是業(yè)界首次。特別是,我們選擇基于動力學的內(nèi)在獎勵的好奇心模型。因為該模型具有很強的可擴展性和可并行性,因此非常適合大規(guī)模實驗使用。

圖1:本文研究中使用的54種環(huán)境的快照截圖集合。我們的研究表明,agent能夠只憑借好奇心,在沒有外部獎勵或結(jié)束信號的情況下取得進步。

相關(guān)視頻、結(jié)果、代碼和模型,見https://pathak22.github.io/large-scale-curiosity

我們的思路是,將內(nèi)在獎勵表示為預(yù)測agent在當前狀態(tài)下的行為后果時出現(xiàn)的錯誤,即agent學習的前向動態(tài)的預(yù)測誤差。我們徹底調(diào)查了54種環(huán)境中基于動力學的好奇心:這些場景包括視頻游戲、物理引擎模擬和虛擬3D導航任務(wù)等,如圖1所示。

為了更好地理解好奇心驅(qū)動的學習,我們進一步研究了決定其表現(xiàn)的關(guān)鍵因素。對高維原始觀察空間(如圖像)中的未來狀態(tài)進行預(yù)測是一個極具挑戰(zhàn)性的問題,對輔助特征空間中的動態(tài)進行學習可以改善結(jié)果。

但是,如何選擇這樣一個嵌入空間是一個關(guān)鍵、未解決的研究問題。通過對系統(tǒng)的簡化,我們研究了用不同的方法對agent觀察到的信息進行編碼的作用,使得agent可以完全靠自身的好奇心機制做出良好的表現(xiàn)。

上圖是8種選定的Atari游戲和《超級馬里奧兄弟》的特征學習方法的比較。圖中的評估曲線顯示agent純粹通過好奇心訓練,在沒有外部獎勵和關(guān)卡結(jié)束信號的情況下,獲得的平均獎勵分數(shù)(包括標準誤差)。

我們看到,純粹以好奇心驅(qū)動的agent能夠在這些環(huán)境中收集獎勵,而無需在訓練中使用任何外部獎勵。

圖3:左:采用不同批規(guī)模的RF訓練方法的比較,訓練沒有使用外在獎勵。中:Juggling(Roboschool)環(huán)境中的球彈跳次數(shù)。 右:多人游戲Pong環(huán)境下的平均關(guān)卡長度

為了確保動態(tài)的穩(wěn)定在線訓練,我們認為所需的嵌入空間應(yīng)該:(1)在維度方面緊湊,(2)能夠保存觀測到的足夠信息,(3)是基于觀測信息的固定函數(shù)。

圖4:《超級馬里奧兄弟》游戲環(huán)境下的泛化實驗。 左圖所示為1-1關(guān)到1-2關(guān)的遷移結(jié)果,右圖為1-1關(guān)到1-3關(guān)的遷移結(jié)果。下方為源環(huán)境到目標環(huán)境的映射。 所有agent都的訓練過程中都沒有外在獎勵。

圖5:在使用終端外部獎勵+好奇心獎勵進行組合訓練時,Unity環(huán)境下的平均外在獎勵。 注意,只通過外部獎勵進行訓練的曲線值始終為零(表現(xiàn)為圖中最底部的直線)

我們的研究表明,通過隨機網(wǎng)絡(luò)對觀察結(jié)果進行編碼是一種簡單有效的技術(shù),可以用于在許多流行的強化學習基準測試中建立好奇心模型。這可能表明,許多流行的強化學習視頻游戲測試并不像通常認為的那樣,在視覺上有那么高的復(fù)雜度。

有趣的是,雖然隨機特征對于許多流行的強化學習游戲的基準測試來說已經(jīng)足夠了,但是已學習過的特征看起來似乎具備更高的可推廣性(比如推廣至《超級馬里奧兄弟》的新關(guān)卡中)。

上圖給出了所有Atari游戲環(huán)境下的表現(xiàn)結(jié)果。我們發(fā)現(xiàn),用像素訓練的好奇心模型在任何環(huán)境中都表現(xiàn)不好,并且VAE特征的表現(xiàn)也不比隨機特征及逆動力學特征更好,甚至有時還更差。

此外,在55%的Atari游戲中,逆動態(tài)訓練特征比隨機特征的表現(xiàn)更好。分析表明,對好奇心進行建模的隨機特征是一個簡單而強大的基線標準,并且可能在一半的Atari游戲場景中表現(xiàn)良好。

小結(jié)

(1)我們對各種環(huán)境下的好奇心驅(qū)動模型進行了大規(guī)模的研究,這些場景包括:Atari游戲集、《超級馬里奧兄弟》游戲、Unity中的虛擬3D導航、Roboschool 環(huán)境等。

(2)我們廣泛研究了用于學習基于動力學的好奇心的不同特征空間,包括隨機特征,像素,反向動力學和變分自動編碼器,并評估這些空間在不可視環(huán)境下的可推廣性。

(3)局限性:我們觀察到,如果agent本身就是環(huán)境中隨機性的來源,它可以在未取得任何實際進展的情況下進行自我獎勵。我們在3D導航任務(wù)中憑經(jīng)驗證明了這一局限性,在這類任務(wù)中,agent能夠控制環(huán)境的各個不同部分。

未來方向

我們提出了一種簡單且可擴展的方法,可以在不同的環(huán)境中學習非平凡的行為,而無需任何獎勵函數(shù)或結(jié)束信號。本文的一個令人驚訝的發(fā)現(xiàn)是隨機特征表現(xiàn)不錯,但已學習的特征似乎在可泛化性上更勝一籌。我們認為一旦環(huán)境足夠復(fù)雜,對特征的學習將變得更加重要,不過我們決定將這個問題留給未來。

我們更高的目標是,能夠利用許多未標記的(即沒有事先設(shè)計的獎勵函數(shù))環(huán)境來改善面向感興趣的任務(wù)的性能。有鑒于此,在具備通用獎勵函數(shù)的環(huán)境中展示出很好的表現(xiàn)只是我們研究的第一步,未來的成果可能包括實現(xiàn)從未標記環(huán)境到標記環(huán)境的遷移。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • Agent
    +關(guān)注

    關(guān)注

    0

    文章

    105

    瀏覽量

    26732
  • 強化學習
    +關(guān)注

    關(guān)注

    4

    文章

    266

    瀏覽量

    11246

原文標題:強化學習下一步:OpenAI伯克利讓AI純憑“好奇心”學習!

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    Microchip Technology的好奇心板的新設(shè)計

    ,制造商以及尋求功能豐富的快速原型開發(fā)板的用戶。它包括一個集成的編程器/調(diào)試器,無需額外的硬件即可開始使用。好奇心HPC是評估Microchip現(xiàn)代8位PIC單片機的絕佳工具。開箱即用,開發(fā)板提供多種用戶
    發(fā)表于 10-31 11:55

    深度強化學習實戰(zhàn)

    一:深度學習DeepLearning實戰(zhàn)時間地點:1 月 15日— 1 月18 日二:深度強化學習核心技術(shù)實戰(zhàn)時間地點: 1 月 27 日— 1 月30 日(第一天報到 授課三天;提前環(huán)境部署 電腦
    發(fā)表于 01-10 13:42

    深度強化學習是什么?有什么優(yōu)點?

    與監(jiān)督機器學習不同,在強化學習中,研究人員通過讓一個代理與環(huán)境交互來訓練模型。當代理的行為產(chǎn)生期望的結(jié)果時,它得到正反饋。例如,代理人獲得一個點數(shù)或贏得一場比賽的
    發(fā)表于 07-13 09:33 ?2.5w次閱讀
    深度<b class='flag-5'>強化學習</b>是什么?有什么優(yōu)點?

    如何構(gòu)建強化學習模型訓練無人車算法

    本文作者通過簡單的方式構(gòu)建了強化學習模型訓練無人車算法,可以為初學者提供快速入門的經(jīng)驗。
    的頭像 發(fā)表于 11-12 14:47 ?4878次閱讀

    機器人擁有好奇心會讓機器人變得更加聰明

    擁有人類探索世界的好奇心,是讓機器人變得更加聰明的關(guān)鍵因素之一。德國波鴻大學的人工好奇心專家瓦倫康培拉指出,好奇的系統(tǒng)“不滿足于只學習一種任務(wù),而是希望同時
    發(fā)表于 06-11 09:24 ?3145次閱讀

    好奇心對于學習人工智能有幫助嗎

    好奇心或進化驅(qū)動的人工智能體可應(yīng)用于學習的早期階段,也更適合缺乏大量數(shù)據(jù)的零散環(huán)境。
    發(fā)表于 07-01 15:30 ?454次閱讀

    機器學習中的無模型強化學習算法及研究綜述

    模型強化學習(Mode- based reinforcement Lear-ning)和無模型強化學習( Model- ree reirη forcement Learning)。
    發(fā)表于 04-08 11:41 ?11次下載
    機器<b class='flag-5'>學習</b>中的無<b class='flag-5'>模型</b><b class='flag-5'>強化學習</b>算法及研究綜述

    模型化深度強化學習應(yīng)用研究綜述

    強化學習。無模型強仳學習方法的訓練過程需要大量樣本,當采樣預(yù)算不足,無法收集大量樣本時,很難達到預(yù)期效果。然而,模型
    發(fā)表于 04-12 11:01 ?9次下載
    <b class='flag-5'>模型</b>化深度<b class='flag-5'>強化學習</b>應(yīng)用研究綜述

    基于強化學習的虛擬場景角色乒乓球訓練

    基于強化學習的虛擬場景角色乒乓球訓練
    發(fā)表于 06-27 11:34 ?62次下載

    強化學習的基礎(chǔ)知識和6種基本算法解釋

    定標記訓練數(shù)據(jù)的情況下獲得正確的輸出 無監(jiān)督學習(UL):關(guān)注在沒有預(yù)先存在的標簽的情況下發(fā)現(xiàn)數(shù)據(jù)中的模式 強化學習(RL) : 關(guān)注智能體在環(huán)境中如何采取行動以最大化累積獎勵 通俗地
    的頭像 發(fā)表于 12-20 14:00 ?1109次閱讀

    徹底改變算法交易:強化學習的力量

    強化學習(RL)是人工智能的一個子領(lǐng)域,專注于決策過程。與其他形式的機器學習相比,強化學習模型通過與環(huán)境交互并以獎勵或懲罰的形式接收反饋來
    發(fā)表于 06-09 09:23 ?529次閱讀

    ICLR 2023 Spotlight|節(jié)省95%訓練開銷,清華黃隆波團隊提出強化學習專用稀疏訓練框架RLx2

    模型時代,模型壓縮和加速顯得尤為重要。傳統(tǒng)監(jiān)督學習可通過稀疏神經(jīng)網(wǎng)絡(luò)實現(xiàn)模型壓縮和加速,那么同樣需要大量計算開銷的強化學習任務(wù)可以基于稀疏
    的頭像 發(fā)表于 06-11 21:40 ?673次閱讀
    ICLR 2023 Spotlight|節(jié)省95%<b class='flag-5'>訓練</b>開銷,清華黃隆波團隊提出<b class='flag-5'>強化學習</b>專用稀疏<b class='flag-5'>訓練</b>框架RLx2

    強化學習的基礎(chǔ)知識和6種基本算法解釋

    來源:DeepHubIMBA強化學習的基礎(chǔ)知識和概念簡介(無模型、在線學習、離線強化學習等)機器學習(ML)分為三個分支:監(jiān)督
    的頭像 發(fā)表于 01-05 14:54 ?948次閱讀
    <b class='flag-5'>強化學習</b>的基礎(chǔ)知識和6種基本算法解釋

    石墨烯之父——安德烈·海姆,好奇心驅(qū)使下的幽默大師和創(chuàng)新者

    安德烈·海姆教授是卓越科學家,被譽為“石墨烯之父”,獲諾貝爾物理學獎,對石墨烯材料有重大貢獻。他重視好奇心,鼓勵將好奇心集中在研究領(lǐng)域。他認為石墨烯是一種非常年輕的材料,未來有著無限的可能性,可以應(yīng)用于電池、光照材料、冷卻LED等方面。保持
    的頭像 發(fā)表于 10-31 21:36 ?926次閱讀
    石墨烯之父——安德烈·海姆,<b class='flag-5'>好奇心</b>驅(qū)使下的幽默大師和創(chuàng)新者

    Victor Labián Carro:以好奇心成就 RISC-V 職業(yè)成功之路

    自己對于邏輯、數(shù)學和工程的好奇心變成了他喜歡的技術(shù)職業(yè)。最近,他通過獲得RVFA(RISC-VFoundationalAssociate)認證展示了他的熱情,這是他
    的頭像 發(fā)表于 09-10 08:08 ?262次閱讀
    Victor Labián Carro:以<b class='flag-5'>好奇心</b>成就 RISC-V 職業(yè)成功之路
    RM新时代网站-首页