偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

谷歌實現(xiàn)2種新的強化學習算法,“比肩”DQN,泛化性能更佳

新聞 機器學習 算法
來自Google Research的研究人員,證明可以使用圖表示 (graph representation)和AutoML的優(yōu)化技術(shù),來學習新的、可解析和可推廣的RL算法!

  本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

強化學習(RL)算法持續(xù)“進化”中……

來自Google Research的研究人員,證明可以使用圖表示 (graph representation)和AutoML的優(yōu)化技術(shù),來學習新的、可解析和可推廣的RL算法!

他們發(fā)現(xiàn)的其中兩種算法可以推廣到更復雜的環(huán)境中,比如具有視覺觀察的Atari游戲。

這一成就使得RL算法越來越優(yōu)秀!

具體怎么個“優(yōu)秀法”,請看下文:

損失函數(shù)表示為計算圖

首先,對于強化學習算法研究的難點,研究人員認為,一種可能的解決方案是設計一種元學習方法。

該方法可以設計新的RL算法,從而自動將其推廣到各種各樣的任務中。

受神經(jīng)架構(gòu)搜索(NAS)在表示神經(jīng)網(wǎng)絡結(jié)構(gòu)的圖空間中搜索的思想啟發(fā),研究人員通過將RL算法的損失函數(shù)表示為計算圖(computational graph)元學習RL算法。

其中使用有向無環(huán)圖來表示損失函數(shù),該圖帶有分別表示輸入、運算符、參數(shù)和輸出的節(jié)點。

該表示方法好處有很多,總的來說就是可用來學習新的、可解析和可推廣的RL算法。

并使用PyGlove庫實現(xiàn)這種表示形式。

基于進化的元學習方法

接下來,研究人員使用基于進化的元學習方法來優(yōu)化他們感興趣的RL算法。

其過程大致如下:

新提出的算法必須首先在障礙環(huán)境中表現(xiàn)良好,然后才能在一組更難的環(huán)境中進行訓練。算法性能被評估并用于更新群體(population),其中性能更好的算法進一步突變?yōu)樾滤惴āT谟柧毥Y(jié)束時,對性能最佳的算法在測試環(huán)境中進行評估。

谷歌實現(xiàn)2種新的強化學習算法,“比肩”DQN,泛化性能更佳

本次實驗中的群體(population)規(guī)模約為300個智能體,研究人員觀察到在2-5萬個突變后,發(fā)現(xiàn)候選損失函數(shù)的進化需要大約3天的訓練。

為了進一步控制訓練成本,他們在初始群體中植入了人類設計的RL算法,eg. DQN(深度Q學習算法)。

發(fā)現(xiàn)兩種表現(xiàn)出良好泛化性能的算法

最終,他們發(fā)現(xiàn)了兩種表現(xiàn)出良好泛化性能的算法

一種是DQNReg,它建立在DQN的基礎上,在Q值上增加一個加權(quán)懲罰(weighted penalty),使其成為標準的平方Bellman誤差。

第二種是DQNClipped,盡管它的支配項(dominating term)有一個簡單的形式——Q值的最大值和平方Bellman誤差(常數(shù)模),但更為復雜。

這兩種算法都可以看作是正則化Q值的一種方法,都以不同的方式解決了高估Q值這一問題。

最終DQNReg低估Q值,而DQNClipped會緩慢地接近基本事實,更不會高估。

性能評估方面,通過一組經(jīng)典的控制環(huán)境,這兩種算法都可以在密集獎勵任務(CartPole、Acrobot、LunarLander)中持平基線,在稀疏獎勵任務(MountainCar)中,性能優(yōu)于DQN。

谷歌實現(xiàn)2種新的強化學習算法,“比肩”DQN,泛化性能更佳

其中,在一組測試各種不同任務的稀疏獎勵MiniGrid環(huán)境中,研究人員發(fā)現(xiàn)DQNReg在訓練和測試環(huán)境中的樣本效率和最終性能都大大優(yōu)于基線水平。

谷歌實現(xiàn)2種新的強化學習算法,“比肩”DQN,泛化性能更佳

另外,在一些MiniGrid環(huán)境將DDQN(Double DQN)與DQNReg的性能進行可視化比較發(fā)現(xiàn),當DDQN還在掙扎學習一切有意義的行為時,DQNReg已經(jīng)可以有效地學習最優(yōu)行為了。

最后,即使本次研究的訓練是在基于非圖像的環(huán)境中進行的,但在基于圖像的Atari游戲環(huán)境中也觀察到DQNReg算法性能的提高!

谷歌實現(xiàn)2種新的強化學習算法,“比肩”DQN,泛化性能更佳

這表明,在一組廉價但多樣化的訓練環(huán)境中進行元訓練,并具有可推廣的算法表示,可以實現(xiàn)根本的算法推廣。

此研究成果寫成的論文,已被ICLR 2021接收,研究人員門未來將擴展更多不同的RL設置,如Actor-Critic算法或離線RL。

 

責任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2021-10-12 09:31:22

算法模型技術(shù)

2024-06-21 14:13:44

2019-09-29 10:42:02

人工智能機器學習技術(shù)

2023-06-25 11:30:47

可視化

2021-10-11 09:51:38

谷歌人工智能強化學習

2020-08-10 06:36:21

強化學習代碼深度學習

2020-06-05 08:09:01

Python強化學習框架

2023-01-24 17:03:13

強化學習算法機器人人工智能

2025-01-14 13:20:56

2022-11-02 14:02:02

強化學習訓練

2018-08-29 08:13:22

Google 學習框架技術(shù)

2017-02-20 16:35:10

人工智能算法強化學習

2022-11-03 14:13:52

強化學習方法

2025-04-18 10:01:41

2025-05-28 02:25:00

2017-03-28 10:15:07

2020-04-15 16:44:38

谷歌強化學習算法

2024-10-12 17:14:12

2023-03-13 16:05:03

強化學習開源

2021-07-27 15:55:01

人工智能機器學習技術(shù)
點贊
收藏

51CTO技術(shù)棧公眾號