《深度學(xué)習(xí)導(dǎo)論》講述了前饋神經(jīng)網(wǎng)絡(luò)、Tensorflow、卷積神經(jīng)網(wǎng)絡(luò)、詞嵌入與循環(huán)神經(jīng)網(wǎng)絡(luò)、序列到序列學(xué)習(xí)、深度強(qiáng)化學(xué)習(xí)、無監(jiān)督神經(jīng)網(wǎng)絡(luò)模型等深度學(xué)習(xí)領(lǐng)域的基本概念和技術(shù),通過一系列的編程任務(wù),向讀者介紹了熱門的人工智能應(yīng)用,包括計(jì)算機(jī)視覺和自然語言處理等。
本書編寫簡明扼要,理論聯(lián)系實(shí)踐,每一章都包含習(xí)題以及補(bǔ)充閱讀的參考文獻(xiàn)。本書既可作為高校人工智能課程的教學(xué)用書,也可供從業(yè)者入門參考。
本書要求讀者熟悉線性代數(shù)、多元微積分、概率論與數(shù)理統(tǒng)計(jì)知識,另外需要讀者了解Python編程。
1.國內(nèi)知識圖譜界領(lǐng)軍人物、文因互聯(lián)CEO鮑捷作序。國內(nèi)外產(chǎn)業(yè)界和學(xué)術(shù)界大咖鼎力推薦
2.本書編寫簡明扼要,是美國常青藤名校布朗大學(xué)的教材。本書的每一章都包括了一個(gè)編程項(xiàng)目和一些書面練習(xí),并附上了參考資料,可供讀者進(jìn)一步閱讀。
3.人工智能經(jīng)典入門書,基于Tensorflow編寫,以項(xiàng)目為導(dǎo)向,通過一系列的編程任務(wù),向讀者介紹了熱門的人工智能應(yīng)用,包括計(jì)算機(jī)視覺、自然語言處理和強(qiáng)化學(xué)習(xí)等。
4.做中學(xué)。作者在前言中寫道:“對我而言,學(xué)習(xí)計(jì)算機(jī)科學(xué)的最好方法,就是坐下來寫程序。”本書正是采用了這種方法。
作者簡介
尤金·查爾尼克(Eugene Charniak),美國布朗大學(xué)計(jì)算機(jī)科學(xué)和認(rèn)知科學(xué)教授,博士畢業(yè)于MIT,博士導(dǎo)師是人工智能之父馬文·明斯基。他是國際知名的人工智能研究者,美國人工智能學(xué)會(AAAI)會士,2011年獲美國計(jì)算語言學(xué)會(ACL)終身成就獎。除本書之外,他還撰寫了《統(tǒng)計(jì)語言學(xué)習(xí)》《人工智能編程》等圖書。
譯者簡介
沈磊,美國計(jì)算語言學(xué)會(ACL)會員,中國計(jì)算機(jī)學(xué)會(CCF)會員,博士畢業(yè)于北京航空航天大學(xué)計(jì)算機(jī)學(xué)院,博士研究方向?yàn)槿斯ぶ悄堋⒛J阶R別,現(xiàn)為vivo公司北京AI研究院NLP算法專家,主要方向?yàn)樽匀徽Z言理解和自動問答。她在自然語言處理及推薦算法方向發(fā)表了多篇學(xué)術(shù)論文,申請了5項(xiàng)專利。
鄭春萍,教育學(xué)博士,北京郵電大學(xué)人文學(xué)院副教授,主要研究方向?yàn)閼?yīng)用語言學(xué)與計(jì)算機(jī)輔助翻譯。她是美國國務(wù)院“英語語言學(xué)者項(xiàng)目”訪問學(xué)者、英國曼徹斯特大學(xué)人文藝術(shù)學(xué)院訪問學(xué)者,曾獲北京市高等教育教學(xué)成果一等獎、北京市高校青年教學(xué)名師獎、中央電視臺“希望之星”英語風(fēng)采大賽全國總決賽最佳指導(dǎo)教師獎等獎項(xiàng)。她主持了國家社科基金、教育部霍英東青年教師基金及教育部人文社科基金等省部級課題6項(xiàng),發(fā)表學(xué)術(shù)論文40余篇,主編教材2部,出版專著1部、譯著2部。
第 1章 前饋神經(jīng)網(wǎng)絡(luò) 1
1.1 感知機(jī) 3
1.2 神經(jīng)網(wǎng)絡(luò)的交叉熵?fù)p失函數(shù) 7
1.3 導(dǎo)數(shù)與隨機(jī)梯度下降 11
1.4 編寫程序 15
1.5 神經(jīng)網(wǎng)絡(luò)的矩陣表示 17
1.6 數(shù)據(jù)獨(dú)立性 19
1.7 參考文獻(xiàn)和補(bǔ)充閱讀 20
1.8 習(xí)題 21
第 2章 Tensorflow 23
2.1 預(yù)備知識 23
2.2 TF程序 26
2.3 多層神經(jīng)網(wǎng)絡(luò) 31
2.4 其他方面 34
2.4.1 檢查點(diǎn) 34
2.4.2 tensordot 35
2.4.3 TF變量的初始化 37
2.4.4 TF圖創(chuàng)建的簡化 39
2.5 參考文獻(xiàn)和補(bǔ)充閱讀 40
2.6 習(xí)題 40
第3章 卷積神經(jīng)網(wǎng)絡(luò) 43
3.1 濾波器、步長和填充 43
3.2 一個(gè)簡單的TF卷積例子 49
3.3 多層卷積 51
3.4 卷積細(xì)節(jié) 54
3.4.1 偏置 54
3.4.2 卷積層 55
3.4.3 池化運(yùn)算(pooling) 55
3.5 參考文獻(xiàn)和補(bǔ)充閱讀 56
3.6 習(xí)題 57
第4章 詞嵌入與循環(huán)神經(jīng)網(wǎng)絡(luò) 59
4.1 語言模型的詞嵌入 59
4.2 構(gòu)建前饋語言模型 63
4.3 改進(jìn)前饋語言模型 65
4.4 過擬合 66
4.5 循環(huán)網(wǎng)絡(luò) 69
4.6 長短期記憶模型 75
4.7 參考文獻(xiàn)和補(bǔ)充閱讀 78
4.8 習(xí)題 78
第5章 序列到序列學(xué)習(xí) 81
5.1 seq2seq模型 82
5.2 編寫一個(gè)seq2seq MT程序 84
5.3 seq2seq中的注意力機(jī)制 87
5.4 多長度seq2seq 90
5.5 編程練習(xí) 91
5.6 參考文獻(xiàn)和補(bǔ)充閱讀 93
5.7 習(xí)題 94
第6章 深度強(qiáng)化學(xué)習(xí) 97
6.1 值迭代 98
6.2 Q學(xué)習(xí) 101
6.3 深度Q學(xué)習(xí)基礎(chǔ) 103
6.4 策略梯度法 106
6.5 行動者-評論家方法 112
6.6 經(jīng)驗(yàn)回放 114
6.7 參考文獻(xiàn)和補(bǔ)充閱讀 115
6.8 習(xí)題 116
第7章 無監(jiān)督神經(jīng)網(wǎng)絡(luò)模型 119
7.1 基本自編碼 119
7.2 卷積自編碼 122
7.3 變分自編碼 126
7.4 生成式對抗網(wǎng)絡(luò) 132
7.5 參考文獻(xiàn)和補(bǔ)充閱讀 137
7.6 習(xí)題 137
附錄A 部分習(xí)題答案 139
附錄B 參考文獻(xiàn) 143
附錄C 索引 147
本書贊譽(yù) 151