深度學(xué)習(xí):基于Keras的Python實(shí)踐
定 價(jià):59 元
- 作者:魏貞原
- 出版時(shí)間:2018/6/1
- ISBN:9787121341472
- 出 版 社:電子工業(yè)出版社
- 中圖法分類(lèi):TP273
- 頁(yè)碼:244
- 紙張:
- 版次:01
- 開(kāi)本:16開(kāi)
本書(shū)系統(tǒng)的講解了深度的基本知識(shí),以及使用機(jī)器學(xué)習(xí)解決實(shí)際問(wèn)題,詳細(xì)的介紹了如何構(gòu)建及優(yōu)化模型,并針對(duì)不同的問(wèn)題給出了不同的解決方案,通過(guò)不同的例子展示了具體的項(xiàng)目中的應(yīng)用和實(shí)踐經(jīng)驗(yàn),是一本非常好的深度學(xué)習(xí)的入門(mén)和實(shí)踐的書(shū)籍。本書(shū)以實(shí)踐為導(dǎo)向,使用 Keras作為編程框架,強(qiáng)調(diào)簡(jiǎn)單,快速的上手建立模型,解決實(shí)際項(xiàng)目問(wèn)題。讀者可以根據(jù)本書(shū)的理解,迅速上手實(shí)踐深度學(xué)習(xí),并利用深度學(xué)習(xí)解決實(shí)際的問(wèn)題。本書(shū)非常適合于項(xiàng)目經(jīng)理,有意從事機(jī)器學(xué)習(xí)開(kāi)發(fā)的程序員,以及高校在讀相關(guān)專(zhuān)業(yè)的學(xué)生。
魏貞原,IBM 高級(jí)項(xiàng)目經(jīng)理,主要負(fù)責(zé)銀行客戶的復(fù)雜系統(tǒng)開(kāi)發(fā)。同時(shí)是 IBM CIC量子計(jì)算 COE 團(tuán)隊(duì)的 Python 領(lǐng)域?qū)<遥⊿ubject Matter Expert),負(fù)責(zé)量子計(jì)算應(yīng)用的探索工作,對(duì)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)有深入的研究,精通于運(yùn)用機(jī)器學(xué)習(xí)來(lái)解決數(shù)據(jù)科學(xué)的問(wèn)題。并運(yùn)營(yíng)“知之Python”公眾號(hào),定期分享 Python 在機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中的實(shí)踐知識(shí)。
第一部分 初識(shí)
1 初識(shí)深度學(xué)習(xí)/2
1.1 Python的深度學(xué)習(xí)/2
1.2 軟件環(huán)境和基本要求/3
1.2.1 Python和SciPy/3
1.2.2 機(jī)器學(xué)習(xí)/3
1.2.3 深度學(xué)習(xí)/4
1.3 閱讀本書(shū)的收獲/4
1.4 本書(shū)說(shuō)明/4
1.5 本書(shū)中的代碼/5
2 深度學(xué)習(xí)生態(tài)圈/6
2.1 CNTK/6
2.1.1 安裝CNTK/7
2.1.2 CNTK的簡(jiǎn)單例子/8
2.2 TensorFlow/8
2.2.1 TensorFlow介紹/8
2.2.2 安裝TensorFlow/9
2.2.3 TensorFlow的簡(jiǎn)單例子/9
2.3 Keras/10
2.3.1 Keras簡(jiǎn)介/11
2.3.2 Keras安裝/11
2.3.3 配置Keras的后端/11
2.3.4 使用Keras構(gòu)建深度學(xué)習(xí)模型/12
2.4 云端GPUs計(jì)算/13
第二部分 多層感知器
3 第一個(gè)多層感知器實(shí)例:印第安人糖尿病診斷/16
3.1 概述/16
3.2 Pima Indians數(shù)據(jù)集/17
3.3 導(dǎo)入數(shù)據(jù)/18
3.4 定義模型/19
3.5 編譯模型/20
3.6 訓(xùn)練模型/21
3.7 評(píng)估模型/21
3.8 匯總代碼/22
4 多層感知器速成/24
4.1 多層感知器/24
4.2 神經(jīng)元/25
4.2.1 神經(jīng)元權(quán)重/25
4.2.2 激活函數(shù)/26
4.3 神經(jīng)網(wǎng)絡(luò)/27
4.3.1 輸入層(可視層)/28
4.3.2 隱藏層/28
4.3.3 輸出層/28
4.4 訓(xùn)練神經(jīng)網(wǎng)絡(luò)/29
4.4.1 準(zhǔn)備數(shù)據(jù)/29
4.4.2 隨機(jī)梯度下降算法/30
4.4.3 權(quán)重更新/30
4.4.4 預(yù)測(cè)新數(shù)據(jù)/31
5 評(píng)估深度學(xué)習(xí)模型/33
5.1 深度學(xué)習(xí)模型和評(píng)估/33
5.2 自動(dòng)評(píng)估/34
5.3 手動(dòng)評(píng)估/36
5.3.1 手動(dòng)分離數(shù)據(jù)集并評(píng)估/36
5.3.2 k折交叉驗(yàn)證/37
6 在Keras中使用Scikit-Learn/40
6.1 使用交叉驗(yàn)證評(píng)估模型/41
6.2 深度學(xué)習(xí)模型調(diào)參/42
7 多分類(lèi)實(shí)例:鳶尾花分類(lèi)/49
7.1 問(wèn)題分析/49
7.2 導(dǎo)入數(shù)據(jù)/50
7.3 定義神經(jīng)網(wǎng)絡(luò)模型/50
7.4 評(píng)估模型/52
7.5 匯總代碼/52
8 回歸問(wèn)題實(shí)例:波士頓房?jī)r(jià)預(yù)測(cè)/54
8.1 問(wèn)題描述/54
8.2 構(gòu)建基準(zhǔn)模型/55
8.3 數(shù)據(jù)預(yù)處理/57
8.4 調(diào)參隱藏層和神經(jīng)元/58
9 二分類(lèi)實(shí)例:銀行營(yíng)銷(xiāo)分類(lèi)/61
9.1 問(wèn)題描述/61
9.2 數(shù)據(jù)導(dǎo)入與預(yù)處理/62
9.3 構(gòu)建基準(zhǔn)模型/64
9.4 數(shù)據(jù)格式化/66
9.5 調(diào)參網(wǎng)絡(luò)拓?fù)鋱D/66
10 多層感知器進(jìn)階/68
10.1 JSON序列化模型/68
10.2 YAML序列化模型/74
10.3 模型增量更新/78
10.4 神經(jīng)網(wǎng)絡(luò)的檢查點(diǎn)/81
10.4.1 檢查點(diǎn)跟蹤神經(jīng)網(wǎng)絡(luò)模型/82
10.4.2 自動(dòng)保存最優(yōu)模型/84
10.4.3 從檢查點(diǎn)導(dǎo)入模型/86
10.5 模型訓(xùn)練過(guò)程可視化/87
11 Dropout與學(xué)習(xí)率衰減92
11.1 神經(jīng)網(wǎng)絡(luò)中的Dropout/92
11.2 在Keras中使用Dropout/93
11.2.1 輸入層使用Dropout/94
11.2.2 在隱藏層使用Dropout/95
11.2.3 Dropout的使用技巧/97
11.3 學(xué)習(xí)率衰減/97
11.3.1 學(xué)習(xí)率線性衰減/98
11.3.2 學(xué)習(xí)率指數(shù)衰減/100
11.3.3 學(xué)習(xí)率衰減的使用技巧/103
第三部分 卷積神經(jīng)網(wǎng)絡(luò)
12 卷積神經(jīng)網(wǎng)絡(luò)速成/106
12.1 卷積層/108
12.1.1 濾波器/108
12.1.2 特征圖/109
12.2 池化層/109
12.3 全連接層/109
12.4 卷積神經(jīng)網(wǎng)絡(luò)案例/110
13 手寫(xiě)數(shù)字識(shí)別/112
13.1 問(wèn)題描述/112
13.2 導(dǎo)入數(shù)據(jù)/113
13.3 多層感知器模型/114
13.4 簡(jiǎn)單卷積神經(jīng)網(wǎng)絡(luò)/117
13.5 復(fù)雜卷積神經(jīng)網(wǎng)絡(luò)/120
14 Keras中的圖像增強(qiáng)/124
14.1 Keras中的圖像增強(qiáng)API/124
14.2 增強(qiáng)前的圖像/125
14.3 特征標(biāo)準(zhǔn)化/126
14.4 ZCA白化/128
14.5 隨機(jī)旋轉(zhuǎn)、移動(dòng)、剪切和反轉(zhuǎn)圖像/129
14.6 保存增強(qiáng)后的圖像/132
15 圖像識(shí)別實(shí)例:CIFAR-10分類(lèi)/134
15.1 問(wèn)題描述/134
15.2 導(dǎo)入數(shù)據(jù)/135
15.3 簡(jiǎn)單卷積神經(jīng)網(wǎng)絡(luò)/136
15.4 大型卷積神經(jīng)網(wǎng)絡(luò)/140
15.5 改進(jìn)模型/145
16 情感分析實(shí)例:IMDB影評(píng)情感分析/152
16.1 問(wèn)題描述/152
16.2 導(dǎo)入數(shù)據(jù)/153
16.3 詞嵌入/154
16.4 多層感知器模型/155
16.5 卷積神經(jīng)網(wǎng)絡(luò)/157
第四部分 循環(huán)神經(jīng)網(wǎng)絡(luò)
17 循環(huán)神經(jīng)網(wǎng)絡(luò)速成/162
17.1 處理序列問(wèn)題的神經(jīng)網(wǎng)絡(luò)/163
17.2 循環(huán)神經(jīng)網(wǎng)絡(luò)/164
17.3 長(zhǎng)短期記憶網(wǎng)絡(luò)/165
18 多層感知器的時(shí)間序列預(yù)測(cè):國(guó)際旅行人數(shù)預(yù)測(cè)/167
18.1 問(wèn)題描述/167
18.2 導(dǎo)入數(shù)據(jù)/168
18.3 多層感知器/169
18.4 使用窗口方法的多層感知器/172
19 LSTM時(shí)間序列問(wèn)題預(yù)測(cè):國(guó)際旅行人數(shù)預(yù)測(cè)177
19.1 LSTM處理回歸問(wèn)題/177
19.2 使用窗口方法的LSTM回歸/181
19.3 使用時(shí)間步長(zhǎng)的LSTM回歸/185
19.4 LSTM的批次間記憶/188
19.5 堆疊LSTM的批次間記憶/192
20 序列分類(lèi):IMDB影評(píng)分類(lèi)/197
20.1 問(wèn)題描述/197
20.2 簡(jiǎn)單LSTM/197
20.3 使用Dropout改進(jìn)過(guò)擬合/199
20.4 混合使用LSTM和CNN/201
21 多變量時(shí)間序列預(yù)測(cè):PM2.5預(yù)報(bào)/203
21.1 問(wèn)題描述/203
21.2 數(shù)據(jù)導(dǎo)入與準(zhǔn)備/204
21.3 構(gòu)建數(shù)據(jù)集/206
21.4 簡(jiǎn)單LSTM/207
22 文本生成實(shí)例:愛(ài)麗絲夢(mèng)游仙境/211
22.1 問(wèn)題描述/211
22.2 導(dǎo)入數(shù)據(jù)/212
22.3 分詞與向量化/212
22.4 詞云/213
22.5 簡(jiǎn)單LSTM/215
22.6 生成文本/219
附錄A 深度學(xué)習(xí)的基本概念/223
A.1 神經(jīng)網(wǎng)絡(luò)基礎(chǔ)/223
A.2 卷積神經(jīng)網(wǎng)絡(luò)/227
A.3 循環(huán)神經(jīng)網(wǎng)絡(luò)/229