深入淺出神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)
定 價:89 元
- 作者:[澳] 邁克爾·尼爾森(Michael Nielsen)
- 出版時間:2020/8/1
- ISBN:9787115542090
- 出 版 社:人民郵電出版社
- 中圖法分類:TP183
- 頁碼:227
- 紙張:
- 版次:01
- 開本:16開
本書深入講解神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)技術(shù),側(cè)重于闡釋深度學(xué)習(xí)的核心概念。作者以技術(shù)原理為導(dǎo)向,輔以貫穿全書的MNIST手寫數(shù)字識別項目示例,介紹神經(jīng)網(wǎng)絡(luò)架構(gòu)、反向傳播算法、過擬合解決方案、卷積神經(jīng)網(wǎng)絡(luò)等內(nèi)容,以及如何利用這些知識改進深度學(xué)習(xí)項目。學(xué)完本書后,讀者將能夠通過編寫Python代碼來解決復(fù)雜的模式識別問題。
1.以原理為導(dǎo)向:本書細致闡釋神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)的核心概念,而不是籠統(tǒng)地羅列想法,帶領(lǐng)讀者掌握神經(jīng)網(wǎng)絡(luò)的工作原理,技術(shù)興衰起落,而原理是長久的;
2.注重實踐:本書通過解決具體問題——教計算機識別手寫數(shù)字——來介紹神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)的核心理論;
3.Michael Nielsen高分深度學(xué)習(xí)入門講義正式版,本書基于Python語言編寫,新手也可以很快入門;
4.李航、馬少平、邱錫鵬等多位科學(xué)家重磅推薦;
5.配套動態(tài)示例,有助于直觀理解神經(jīng)網(wǎng)絡(luò)輸出,提供源代碼。
【作者簡介】
邁克爾·尼爾森(Michael Nielsen)
計算機科學(xué)家、量子物理學(xué)家、科普作家,Y Combinator Research的研究Fellow,曾受邀在哈佛大學(xué)、斯坦福大學(xué)、麻省理工學(xué)院、劍橋大學(xué)、牛津大學(xué)等高校以及谷歌和微軟等公司做主題演講,另著有高分作品《重塑發(fā)現(xiàn)》和《量子計算和量子信息》。
【譯者簡介】
朱小虎
University AI創(chuàng)始人兼首席科學(xué)家、Center for Safe AGI創(chuàng)始人、谷歌開發(fā)者機器學(xué)習(xí)專家、百度深度學(xué)習(xí)布道者。和團隊核心成員一起創(chuàng)建了TASA、DL Center(深度學(xué)習(xí)知識中心全球價值網(wǎng)絡(luò))和AI Growth(行業(yè)智庫培訓(xùn))等。舉辦過多場國際性人工智能峰會和活動。在多個技術(shù)平臺寫下了近百萬字的人工智能精品技術(shù)內(nèi)容。曾受邀為多所國內(nèi)高校制定人工智能學(xué)習(xí)規(guī)劃和教授人工智能前沿課程,也曾為多家世界500強企業(yè)提供人工智能方面的戰(zhàn)略布局建議及落地實施等方面的咨詢建議。
前言
第 1章 使用神經(jīng)網(wǎng)絡(luò)識別手寫數(shù)字 1
1.1 感知機 2
1.2 sigmoid神經(jīng)元 7
1.3 神經(jīng)網(wǎng)絡(luò)的架構(gòu) 11
1.4 一個簡單的神經(jīng)網(wǎng)絡(luò):分類手寫數(shù)字 13
1.5 利用梯度下降算法進行學(xué)習(xí) 17
1.6 實現(xiàn)分類數(shù)字的神經(jīng)網(wǎng)絡(luò) 25
1.7 邁向深度學(xué)習(xí) 37
第 2章 反向傳播算法工作原理 41
2.1 熱身:使用矩陣快速計算輸出 41
2.2 關(guān)于代價函數(shù)的兩個假設(shè) 43
2.3 阿達馬積s⊙t 45
2.4 反向傳播的4個基本方程 45
2.5 基本方程的證明(選學(xué)) 50
2.6 反向傳播算法 51
2.7 反向傳播代碼 53
2.8 就何而言,反向傳播算快 55
2.9 反向傳播:全局觀 56
第3章 改進神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)方法 60
3.1 交叉熵代價函數(shù) 60
3.1.1 引入交叉熵代價函數(shù) 64
3.1.2 使用交叉熵來對MNIST數(shù)字進行分類 71
3.1.3 交叉熵的含義與起源 72
3.1.4 softmax 74
3.2 過擬合和正則化 78
3.2.1 正則化 84
3.2.2 為何正則化有助于減輕過擬合 89
3.2.3 其他正則化技術(shù) 93
3.3 權(quán)重初始化 102
3.4 復(fù)探手寫識別問題:代碼 106
3.5 如何選擇神經(jīng)網(wǎng)絡(luò)的超參數(shù) 116
3.6 其他技術(shù) 126
3.6.1 隨機梯度下降算法的變化形式 126
3.6.2 其他人工神經(jīng)元模型 129
3.6.3 有關(guān)神經(jīng)網(wǎng)絡(luò)的故事 132
第4章 神經(jīng)網(wǎng)絡(luò)可以計算任何函數(shù)的可視化證明 134
4.1 兩個預(yù)先聲明 136
4.2 一個輸入和一個輸出的普遍性 137
4.3 多個輸入變量 146
4.4 不止sigmoid神經(jīng)元 154
4.5 修補階躍函數(shù) 156
4.6 小結(jié) 159
第5章 為何深度神經(jīng)網(wǎng)絡(luò)很難訓(xùn)練 160
5.1 梯度消失問題 163
5.2 梯度消失的原因 168
5.2.1 為何出現(xiàn)梯度消失 170
5.2.2 梯度爆炸問題 171
5.2.3 梯度不穩(wěn)定問題 172
5.2.4 梯度消失問題普遍存在 172
5.3 復(fù)雜神經(jīng)網(wǎng)絡(luò)中的梯度不穩(wěn)定 173
5.4 深度學(xué)習(xí)的其他障礙 174
第6章 深度學(xué)習(xí) 175
6.1 卷積神經(jīng)網(wǎng)絡(luò)入門 176
6.1.1 局部感受野 178
6.1.2 共享權(quán)重和偏置 180
6.1.3 池化層 182
6.2 卷積神經(jīng)網(wǎng)絡(luò)的實際應(yīng)用 184
6.2.1 使用修正線性單元 188
6.2.2 擴展訓(xùn)練數(shù)據(jù) 189
6.2.3 插入額外的全連接層 191
6.2.4 集成神經(jīng)網(wǎng)絡(luò) 192
6.3 卷積神經(jīng)網(wǎng)絡(luò)的代碼 195
6.4 圖像識別領(lǐng)域近期的進展 208
6.4.1 2012年的LRMD論文 208
6.4.2 2012年的KSH論文 209
6.4.3 2014年的ILSVRC競賽 211
6.4.4 其他活動 212
6.5 其他深度學(xué)習(xí)模型 214
6.5.1 循環(huán)神經(jīng)網(wǎng)絡(luò) 214
6.5.2 長短期記憶單元 216
6.5.3 深度信念網(wǎng)絡(luò)、生成模型和玻爾茲曼機 216
6.5.4 其他想法 217
6.6 神經(jīng)網(wǎng)絡(luò)的未來 217
6.6.1 意圖驅(qū)動的用戶界面 217
6.6.2 機器學(xué)習(xí)、數(shù)據(jù)科學(xué)和創(chuàng)新的循環(huán) 218
6.6.3 神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)的作用 218
6.6.4 神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)將主導(dǎo)人工智能 219
附錄 是否存在關(guān)于智能的簡單算法 222
版權(quán)聲明