日日操夜夜添-日日操影院-日日草夜夜操-日日干干-精品一区二区三区波多野结衣-精品一区二区三区高清免费不卡

公告:魔扣目錄網(wǎng)為廣大站長提供免費(fèi)收錄網(wǎng)站服務(wù),提交前請(qǐng)做好本站友鏈:【 網(wǎng)站目錄:http://www.ylptlb.cn 】, 免友鏈快審服務(wù)(50元/站),

點(diǎn)擊這里在線咨詢客服
新站提交
  • 網(wǎng)站:51998
  • 待審:31
  • 小程序:12
  • 文章:1030137
  • 會(huì)員:747

模型結(jié)構(gòu)

模型同時(shí)學(xué)習(xí)action value Q、state value V和policy π

  1. V中引入Target V,供Q學(xué)習(xí)時(shí)使用;Target Network使學(xué)習(xí)有章可循、效率更高。
  2. Q有兩個(gè)單獨(dú)的網(wǎng)絡(luò),選取最小值供V和π學(xué)習(xí)時(shí)使用,希望減弱Q的過高估計(jì)
  3. π學(xué)習(xí)的是分布的參數(shù):均值和標(biāo)準(zhǔn)差;這與DDPG不同,DDPG的π是Deterministic的,輸出直接就是action,而SAC學(xué)習(xí)的是個(gè)分布,學(xué)習(xí)時(shí)action需要從分布中采樣,是Stochastic的。
最大熵強(qiáng)化學(xué)習(xí)算法SAC

 

Soft

Soft,Smoothing,Stable。

原始的強(qiáng)化學(xué)習(xí)最大熵目標(biāo)函數(shù)(maximum entropy objective)如下,比最初的累計(jì)獎(jiǎng)賞,增加了policy π的信息熵
A3C目標(biāo)函數(shù)里的熵正則項(xiàng)和形式一樣,只是作為正則項(xiàng),系數(shù)很小。

最大熵強(qiáng)化學(xué)習(xí)算法SAC

 

Soft Policy Iteration中,近似soft Q-value的迭代更新規(guī)則如下:

最大熵強(qiáng)化學(xué)習(xí)算法SAC

 

其中V(s)為soft state value function:

最大熵強(qiáng)化學(xué)習(xí)算法SAC

 

根據(jù)信息熵的定義:

最大熵強(qiáng)化學(xué)習(xí)算法SAC

 

soft state value functionmaximum entropy objective在形式上還是一致的,系數(shù)α能通過調(diào)節(jié)Q-value消掉,可忽略。

TD3的soft state value function V形式與Soft Policy Iteration中類似,但是SAC的action是通過對(duì)policy π采樣確定地得到,每條數(shù)據(jù)數(shù)據(jù)的信息熵就是其不確定性-logπ(a|s);但考慮整個(gè)批量batch數(shù)據(jù),其整體還是π的信息熵,與maximum entropy方向一致。

信息熵越大,分布越均勻,所以最大化信息熵,有利于增加模型的探索能力。

Soft State Value 目標(biāo)函數(shù)

通過Qπ網(wǎng)絡(luò)近似V,注意s來自Experience Replay Buffer,但是a來自當(dāng)前的π

最大熵強(qiáng)化學(xué)習(xí)算法SAC

 

Soft Q-Value 目標(biāo)函數(shù)

通過V近似Q,這里的V來自TargetNetwork V
r(s,a)是環(huán)境的即時(shí)獎(jiǎng)賞;s_t+1來自環(huán)境,由于環(huán)境是model-free,可以理解成s_t+1是確定的。

最大熵強(qiáng)化學(xué)習(xí)算法SAC

 

Policy 目標(biāo)函數(shù)

通過Q近似π

  1. 基于π分布的采樣增加擾動(dòng),for lower variance estimator。
  2. KL散度基于Q的分布近似忽略分母析分函數(shù)
  3. 采樣之后,a是確定的,KL散度即熵的差容易求解,注意Q值來自神經(jīng)網(wǎng)絡(luò),值可以scale,無需關(guān)注系數(shù)。
最大熵強(qiáng)化學(xué)習(xí)算法SAC

 

學(xué)習(xí)過程

整體采用Replay Buffer,三個(gè)目標(biāo)函數(shù)分別進(jìn)行梯度學(xué)習(xí)。

最大熵強(qiáng)化學(xué)習(xí)算法SAC

 

總結(jié)

  1. SAC的關(guān)鍵是引入最大熵,優(yōu)化soft value。
  2. 最大熵會(huì)使action探索能力很強(qiáng),模型效果更平穩(wěn),但注意需要場(chǎng)景也是接受較強(qiáng)的探索。
  3. 從結(jié)構(gòu)上講,模型冗余,在學(xué)習(xí)π和soft Q的情況下,又學(xué)習(xí)了soft V。
  4. 由于面臨的是連續(xù)動(dòng)作空間,求期望的地方,采取了采樣近似,需要批次處理的數(shù)據(jù)集更加完整。
  5. 優(yōu)化技巧比較晦澀,感覺很難通用。

 

分享到:
標(biāo)簽:算法 SAC
用戶無頭像

網(wǎng)友整理

注冊(cè)時(shí)間:

網(wǎng)站:5 個(gè)   小程序:0 個(gè)  文章:12 篇

  • 51998

    網(wǎng)站

  • 12

    小程序

  • 1030137

    文章

  • 747

    會(huì)員

趕快注冊(cè)賬號(hào),推廣您的網(wǎng)站吧!
最新入駐小程序

數(shù)獨(dú)大挑戰(zhàn)2018-06-03

數(shù)獨(dú)一種數(shù)學(xué)游戲,玩家需要根據(jù)9

答題星2018-06-03

您可以通過答題星輕松地創(chuàng)建試卷

全階人生考試2018-06-03

各種考試題,題庫,初中,高中,大學(xué)四六

運(yùn)動(dòng)步數(shù)有氧達(dá)人2018-06-03

記錄運(yùn)動(dòng)步數(shù),積累氧氣值。還可偷

每日養(yǎng)生app2018-06-03

每日養(yǎng)生,天天健康

體育訓(xùn)練成績?cè)u(píng)定2018-06-03

通用課目體育訓(xùn)練成績?cè)u(píng)定