著重介紹深度強化學習的學術界前沿進展與核心代碼分析的書籍。對深度強化學習方面的重要學術進展按照單智能體深度強化學習、多智能體深度強化學習、多任務深度強化學習三個方向梳理,介紹其核心算法,以及算法的代碼實現(xiàn)示例。
前言
致謝
數(shù)學符號
第一篇 深度強化學習
第1章 深度強化學習基礎 2
1.1 強化學習 2
1.1.1 強化學習的發(fā)展歷史 2
1.1.2 強化學習簡介 4
1.1.3 深度強化學習簡介 6
1.2 馬爾可夫屬性和決策過程 9
1.2.1 馬爾可夫屬性 9
1.2.2 馬爾可夫決策過程 11
1.3 強化學習核心概念 12
1.3.1 值函數(shù) 12
1.3.2 動態(tài)規(guī)劃 14
1.3.3 時間(序)差分 15
1.3.4 策略梯度 16
1.3.5 actor-critic方法 17
1.4 Q-learning 18
1.4.1 Q-learning簡介 18
1.4.2 算法 19
1.4.3 相關變量及影響 20
1.4.4 實現(xiàn)方法 21
第2章 深度強化學習算法 22
2.1 基于值的深度強化學習算法 22
2.1.1 深度Q網(wǎng)絡 22
2.1.2 深度雙Q網(wǎng)絡 27
2.1.3 競爭網(wǎng)絡架構 31
2.1.4 平均值DQN 33
2.1.5 多DQN變種結合體:Rainbow 37
2.1.6 基于動作排除的DQN 42
2.2 基于策略的深度強化學習算法 46
2.2.1 循環(huán)確定性策略梯度 46
2.2.2 深度確定性策略梯度 55
2.2.3 信賴域策略優(yōu)化 62
2.2.4 近端策略優(yōu)化 68
2.3 基于模型的深度強化學習算法 73
2.3.1 基于模型加速的連續(xù)深度Q-learning 73
2.3.2 范例模型探索 80
2.3.3 基于模型集成的信賴域策略優(yōu)化 88
2.3.4 時間差分模型 95
2.4 基于分層的深度強化學習算法 102
2.4.1 分層深度強化學習 102
2.4.2 基于封建網(wǎng)絡的分層強化學習 109
2.4.3 基于隨機神經(jīng)網(wǎng)絡的分層強化學習 116
第3章 分布式深度強化學習 123
3.1 分布式系統(tǒng) 123
3.1.1 分布式系統(tǒng)簡介 123
3.1.2 分布式系統(tǒng)的發(fā)展歷史 124
3.1.3 架構演進 125
3.1.4 主流分布式系統(tǒng)框架 128
3.2 分布式深度強化學習算法 129
3.2.1 分布式近端策略優(yōu)化 129
3.2.2 分布式深度確定性策略梯度 138
3.3 分布式深度強化學習框架 145
3.3.1 重要性加權Actor-Learner架構 145
3.3.2 分布式優(yōu)先經(jīng)驗復用池 153
第二篇 多智能體深度強化學習
第4章 多智能體深度強化學習基礎 162
4.1 多智能體強化學習 162
4.1.1 多智能體強化學習發(fā)展歷史 162
4.1.2 多智能體強化學習簡介 164
4.1.3 優(yōu)勢和挑戰(zhàn) 166
4.2 部分可見馬爾可夫決策過程 166
4.2.1 POMDP模型 166
4.2.2 POMDP相關研究 169
4.2.3 POMDP應用領域 170
第5章 多智能體深度強化學習算法 171
5.1 基于值函數(shù)的多智能體深度強化學習 171
5.1.1 基于DQN的多智能體網(wǎng)絡 171
5.1.2 增強智能體間學習 174
5.1.3 協(xié)同多智能體學習的價值分解網(wǎng)絡 178
5.1.4 多智能體深度強化學習的穩(wěn)定經(jīng)驗復用池 182
5.1.5 單調值函數(shù)分解 187
5.1.6 深度強化學習中的對立智能體建模 190
5.1.7 平均場多智能體強化學習 193
5.2 基于策略的多智能體深度強化學習 197
5.2.1 基于自身策略的其他智能體行為預測 197
5.2.2 雙重平均方案 201
5.2.3 多智能體深度強化學習的統(tǒng)一博弈論方法 208
5.3 基于AC框架的多智能體深度強化學習 212
5.3.1 多智能體深度確定性策略梯度 212
5.3.2 多智能體集中規(guī)劃的價值函數(shù)策略梯度 220
5.3.3 多智能體系統(tǒng)的策略表示學習 227
5.3.4 部分可觀察環(huán)境下的多智能體策略優(yōu)化 231
5.3.5 基于聯(lián)網(wǎng)智能體的完全去中心化MARL 236
第三篇 多任務深度強化學習
第6章 多任務深度強化學習基礎 244
6.1 簡介 244
6.1.1 理論概述 244
6.1.2 面臨的挑戰(zhàn) 247
6.2 策略蒸餾法 248
第7章 多任務深度強化學習算法 253
7.1 無監(jiān)督強化與輔助學習 253
7.1.1 算法介紹 253
7.1.2 算法分析 255
7.1.3 使用場景與優(yōu)勢分析 261
7.2 使用漸進式神經(jīng)網(wǎng)絡解決任務的復雜序列 262
7.2.1 算法介紹 262
7.2.2 算法分析 262
7.2.3 使用場景與優(yōu)勢分析 266
7.3 基于單智能體的多任務共享模型 267
7.3.1 算法介紹 267
7.3.2 算法分析 268
7.3.3 使用場景與優(yōu)勢分析 272
7.4 使用PopArt歸一化多任務更新幅度 273
7.4.1 算法介紹 273
7.4.2 算法分析 274
7.4.3 使用場景與優(yōu)勢分析 276
第四篇 深度強化學習的應用
第8章 游戲 278
8.1 Gym Retro游戲平臺 278
8.1.1 平臺簡介 278
8.1.2 安裝Gym Retro平臺 281
8.1.3 安裝Retro UI 282
8.1.4 Gym Retro主要函數(shù)說明 283
8.2 相關應用 285
8.2.1 Pong游戲 285
8.2.2 CartPole 291
8.2.3 Flappy Bird 298
8.2.4 Gradius 302
第9章 機器人控制 312
9.1 機器人導航 312
9.1.1 無地圖導航 312
9.1.2 社會感知機器人導航 316
9.2 路徑規(guī)劃 321
9.3 機器人視覺 324
第10章 計算機視覺 327
10.1 圖像 327
10.1.1 圖像字幕 327
10.1.2 圖像恢復 332
10.2 視頻 337
10.2.1 視頻字幕 337
10.2.2 視頻快進 345
10.2.3 視覺跟蹤 348
第11章 自然語言處理 354
11.1 與知識庫交互的多輪對話智能體 354
11.1.1 概率KB查找 355
11.1.2 端到端KB-InfoBot 356
11.1.3 總結 359
11.2 魯棒遠程監(jiān)督關系提取 359
11.2.1 問題表述 360
11.2.2 使用基于策略的智能體重新分配訓練數(shù)據(jù)集 363
11.2.3 總結 363
11.3 非成對情感–情感翻譯 363
11.3.1 問題表述 363
11.3.2 訓練算法 366
11.3.3 總結 367
縮寫參照表 368
常用詞中英文對照 371
參考文獻 374