用Python動(dòng)手學(xué)機(jī)器學(xué)習(xí)
定 價(jià):89 元
叢書名:Python
- 作者:[日]伊藤真
- 出版時(shí)間:2021/3/1
- ISBN:9787115550583
- 出 版 社:人民郵電出版社
- 中圖法分類:TP311.561
- 頁碼:348
- 紙張:
- 版次:01
- 開本:大32開
本書是面向機(jī)器學(xué)習(xí)新手的入門書,從學(xué)習(xí)環(huán)境的搭建開始,圖文并茂地介紹了學(xué)習(xí)機(jī)器學(xué)習(xí)所需的Python知識(shí)和數(shù)學(xué)知識(shí),并在此基礎(chǔ)上結(jié)合數(shù)學(xué)式、示例程序、插圖等,抽絲剝繭般地對(duì)有監(jiān)督學(xué)習(xí)中的回歸與分類、神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的算法與應(yīng)用、手寫數(shù)字識(shí)別、無監(jiān)督學(xué)習(xí)的算法等進(jìn)行了介紹。
本書既有圖形、代碼,又有詳細(xì)的數(shù)學(xué)式推導(dǎo)過程,大大降低了機(jī)器學(xué)習(xí)的學(xué)習(xí)門檻,即使沒有學(xué)過Python、數(shù)學(xué)基礎(chǔ)不太好,也可以看懂。
面向機(jī)器學(xué)習(xí)新手的入門書,透徹掌握機(jī)器學(xué)習(xí)基礎(chǔ)知識(shí)
341個(gè)公式:推導(dǎo)過程全公開
175段代碼:邊試邊學(xué)效率高
167張插圖:以圖配文好理解
支持Jupyter Notebook
配套源碼&資源可下載
1.Jupyter Notebook交互式編程環(huán)境,讓學(xué)習(xí)過程不枯燥
使用Jupyter Notebook,你可以在線編碼、運(yùn)行,并將結(jié)果繪圖,還可以記筆記、隨時(shí)修改代碼并查看運(yùn)行效果,在不斷探索中掌握實(shí)戰(zhàn)能力。
2.公式和代碼一一對(duì)應(yīng),讓理解更深入
通過一步一步地推導(dǎo)公式,手把手教你代碼實(shí)踐,一行行公式與一行行代碼相結(jié)合,幫助你直觀、透徹地理解算法流程。
3.循序漸近,真正適合初學(xué)者
從環(huán)境搭建講起,然后介紹Python和數(shù)學(xué)基礎(chǔ)知識(shí),再介紹有監(jiān)督學(xué)習(xí)中的回歸和分類問題、神經(jīng)網(wǎng)絡(luò)模型和手寫數(shù)字識(shí)別,以及無監(jiān)督學(xué)習(xí)中的聚類問題,對(duì)每個(gè)知識(shí)點(diǎn)都有細(xì)致解釋,力求通俗易懂。讀完本書,你將掌握足以閱讀經(jīng)典專業(yè)書的能力。
伊藤真(作者)
日本栃木縣人,目前居住在神奈川縣。
2000年獲得日本東北大學(xué)大學(xué)院信息科學(xué)博士學(xué)位,研究內(nèi)容為小鼠導(dǎo)航行為的數(shù)理模型。2004年~2016年在沖繩科學(xué)技術(shù)大學(xué)院大學(xué)擔(dān)任神經(jīng)計(jì)算單元實(shí)驗(yàn)小組負(fù)責(zé)人,主要研究如何通過強(qiáng)化學(xué)習(xí)模型解釋小鼠的選擇行為和腦活動(dòng)。
2017年入職Progress Technologies株式會(huì)社,研究人工智能的產(chǎn)業(yè)應(yīng)用。
愛好是用瓦楞紙板做手工藝品。
鄭明智(譯者)
智慧醫(yī)療工程師。主要研究方向?yàn)獒t(yī)療與前沿ICT技術(shù)的結(jié)合及其應(yīng)用,密切關(guān)注人工智能、5G、量子計(jì)算等領(lǐng)域。譯有《松本行弘:編程語言的設(shè)計(jì)與實(shí)現(xiàn)》《深度學(xué)習(xí)基礎(chǔ)與實(shí)踐》《詳解深度學(xué)習(xí)》《白話機(jī)器學(xué)習(xí)的數(shù)學(xué)》等書。
司磊(譯者)
碩士畢業(yè)于日本芝浦工業(yè)大學(xué)理工學(xué)研究科,研究方向?yàn)殡姎怆娮有畔⒐W(xué),該校智能系統(tǒng)實(shí)驗(yàn)室成員。目前在某智能設(shè)備廠商任系統(tǒng)工程師。喜歡讀書、跑步、學(xué)習(xí)新知識(shí)以及嘗試實(shí)現(xiàn)一些好玩的idea。
第 1章 學(xué)習(xí)前的準(zhǔn)備 1
1.1 關(guān)于機(jī)器學(xué)習(xí) 2
1.1.1 學(xué)習(xí)機(jī)器學(xué)習(xí)的竅門 4
1.1.2 機(jī)器學(xué)習(xí)中問題的分類 5
1.1.3 本書的結(jié)構(gòu) 6
1.2 安裝Python 7
1.3 Jupyter Notebook 11
1.3.1 Jupyter Notebook的用法 11
1.3.2 輸入Markdown格式文本 14
1.3.3 更改文件名 16
1.4 安裝Keras和TensorFlow 17
第 2章 Python基礎(chǔ)知識(shí) 19
2.1 四則運(yùn)算 20
2.1.1 四則運(yùn)算的用法 20
2.1.2 冪運(yùn)算 20
2.2 變量 21
2.2.1 利用變量進(jìn)行計(jì)算 21
2.2.2 變量的命名 21
2.3 類型 22
2.3.1 類型的種類 22
2.3.2 檢查類型 22
2.3.3 字符串 23
2.4 print 語句 24
2.4.1 print語句的用法 24
2.4.2 同時(shí)顯示數(shù)值和字符串的方法1 24
2.4.3 同時(shí)顯示數(shù)值和字符串的方法2 25
2.5 list(數(shù)組變量) 26
2.5.1 list的用法 26
2.5.2 二維數(shù)組 27
2.5.3 創(chuàng)建連續(xù)的整數(shù)數(shù)組 28
2.6 tuple(數(shù)組) 29
2.6.1 tuple的用法 29
2.6.2 讀取元素 29
2.6.3 長度為1的tuple 30
2.7 if 語句 31
2.7.1 if語句的用法 31
2.7.2 比較運(yùn)算符 32
2.8 for 語句 33
2.8.1 for語句的用法 33
2.8.2 enumerate的用法 33
2.9 向量 34
2.9.1 NumPy的用法 34
2.9.2 定義向量 35
2.9.3 讀取元素 36
2.9.4 替換元素 36
2.9.5 創(chuàng)建連續(xù)整數(shù)的向量 36
2.9.6 ndarray的注意事項(xiàng) 37
2.10 矩陣 38
2.10.1 定義矩陣 38
2.10.2 矩陣的大小 38
2.10.3 讀取元素 39
2.10.4 替換元素 39
2.10.5 生成元素為0和1的ndarray 39
2.10.6 生成元素隨機(jī)的矩陣 40
2.10.7 改變矩陣的大小 41
2.11 矩陣的四則運(yùn)算 41
2.11.1 矩陣的四則運(yùn)算 41
2.11.2 標(biāo)量×矩陣 42
2.11.3 算術(shù)函數(shù) 42
2.11.4 計(jì)算矩陣乘積 43
2.12 切片 43
2.13 替換滿足條件的數(shù)據(jù) 45
2.14 help 46
2.15 函數(shù) 47
2.15.1 函數(shù)的用法 47
2.15.2 參數(shù)與返回值 47
2.16 保存文件 49
2.16.1 保存一個(gè)ndarray類型變量 49
2.16.2 保存多個(gè)ndarray類型變量 49
第3章 數(shù)據(jù)可視化 51
3.1 繪制二維圖形 52
3.1.1 繪制隨機(jī)圖形 52
3.1.2 代碼清單的格式 53
3.1.3 繪制三次函數(shù)f (x) = (x - 2) x (x + 2) 53
3.1.4 確定繪制范圍 54
3.1.5 繪制圖形 55
3.1.6 裝飾圖形 55
3.1.7 并列顯示多張圖形 58
3.2 繪制三維圖形 59
3.2.1 包含兩個(gè)變量的函數(shù) 59
3.2.2 用顏色表示數(shù)值:pcolor 60
3.2.3 繪制三維圖形:surface 62
3.2.4 繪制等高線:contour 64
第4章 機(jī)器學(xué)習(xí)中的數(shù)學(xué) 67
4.1 向量 68
4.1.1 什么是向量 68
4.1.2 用Python定義向量 69
4.1.3 列向量的表示方法 69
4.1.4 轉(zhuǎn)置的表示方法 70
4.1.5 加法和減法 71
4.1.6 標(biāo)量積 73
4.1.7 內(nèi)積 74
4.1.8 向量的!75
4.2 求和符號(hào) 76
4.2.1 帶求和符號(hào)的數(shù)學(xué)式的變形 77
4.2.2 通過內(nèi)積求和 79
4.3 累乘符號(hào) 79
4.4 導(dǎo)數(shù) 80
4.4.1 多項(xiàng)式的導(dǎo)數(shù) 80
4.4.2 帶導(dǎo)數(shù)符號(hào)的數(shù)學(xué)式的變形 82
4.4.3 復(fù)合函數(shù)的導(dǎo)數(shù) 83
4.4.4 復(fù)合函數(shù)的導(dǎo)數(shù):鏈?zhǔn)椒▌t 84
4.5 偏導(dǎo)數(shù) 85
4.5.1 什么是偏導(dǎo)數(shù) 85
4.5.2 偏導(dǎo)數(shù)的圖形 87
4.5.3 繪制梯度的圖形 89
4.5.4 多變量的復(fù)合函數(shù)的偏導(dǎo)數(shù) 91
4.5.5 交換求和與求導(dǎo)的順序 93
4.6 矩陣 95
4.6.1 什么是矩陣 95
4.6.2 矩陣的加法和減法 97
4.6.3 標(biāo)量積 99
4.6.4 矩陣的乘積 100
4.6.5 單位矩陣 103
4.6.6 逆矩陣 105
4.6.7 轉(zhuǎn)置 107
4.6.8 矩陣和聯(lián)立方程式 109
4.6.9 矩陣和映射 111
4.7 指數(shù)函數(shù)和對(duì)數(shù)函數(shù) 113
4.7.1 指數(shù) 113
4.7.2 對(duì)數(shù) 115
4.7.3 指數(shù)函數(shù)的導(dǎo)數(shù) 118
4.7.4 對(duì)數(shù)函數(shù)的導(dǎo)數(shù) 120
4.7.5 Sigmoid函數(shù) 121
4.7.6 Softmax函數(shù) 123
4.7.7 Softmax函數(shù)和Sigmoid函數(shù) 127
4.7.8 高斯函數(shù) 128
4.7.9 二維高斯函數(shù) 129
第5章 有監(jiān)督學(xué)習(xí):回歸 135
5.1 一維輸入的直線模型 136
5.1.1 直線模型 138
5.1.2 平方誤差函數(shù) 139
5.1.3 求參數(shù)(梯度法) 142
5.1.4 直線模型參數(shù)的解析解 148
5.2 二維輸入的平面模型 152
5.2.1 數(shù)據(jù)的表示方法 154
5.2.2 平面模型 155
5.2.3 平面模型參數(shù)的解析解 157
5.3 D維線性回歸模型 159
5.3.1 D維線性回歸模型 160
5.3.2 參數(shù)的解析解 160
5.3.3 擴(kuò)展到不通過原點(diǎn)的平面 164
5.4 線性基底函數(shù)模型 165
5.5 過擬合問題 171
5.6 新模型的生成 181
5.7 模型的選擇 185
5.8 小結(jié) 186
第6章 有監(jiān)督學(xué)習(xí):分類 189
6.1 一維輸入的二元分類 190
6.1.1 問題設(shè)置 190
6.1.2 使用概率表示類別分類 194
6.1.3 最大似然估計(jì) 196
6.1.4 邏輯回歸模型 199
6.1.5 交叉熵誤差 201
6.1.6 學(xué)習(xí)法則的推導(dǎo) 205
6.1.7 通過梯度法求解 209
6.2 二維輸入的二元分類 210
6.2.1 問題設(shè)置 210
6.2.2 邏輯回歸模型 214
6.3 二維輸入的三元分類 219
6.3.1 三元分類邏輯回歸模型 219
6.3.2 交叉熵誤差 222
6.3.3 通過梯度法求解 223
第7章 神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí) 227
7.1 神經(jīng)元模型 229
7.1.1 神經(jīng)細(xì)胞 229
7.1.2 神經(jīng)元模型 230
7.2 神經(jīng)網(wǎng)絡(luò)模型 234
7.2.1 二層前饋神經(jīng)網(wǎng)絡(luò) 234
7.2.2 二層前饋神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn) 237
7.2.3 數(shù)值導(dǎo)數(shù)法 242
7.2.4 通過數(shù)值導(dǎo)數(shù)法應(yīng)用梯度法 246
7.2.5 誤差反向傳播法 251
7.2.6 求.E / .vkj 252
7.2.7 求.E / .wji 256
7.2.8 誤差反向傳播法的實(shí)現(xiàn) 262
7.2.9 學(xué)習(xí)后的神經(jīng)元的特性 268
7.3 使用Keras實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)模型 270
7.3.1 二層前饋神經(jīng)網(wǎng)絡(luò) 271
7.3.2 Keras的使用流程 273
第8章 神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的應(yīng)用(手寫數(shù)字識(shí)別) 277
8.1 MINST數(shù)據(jù)集 278
8.2 二層前饋神經(jīng)網(wǎng)絡(luò)模型 279
8.3 ReLU激活函數(shù) 286
8.4 空間過濾器 291
8.5 卷積神經(jīng)網(wǎng)絡(luò) 295
8.6 池化 300
8.7 Dropout 301
8.8 融合了各種特性的MNIST識(shí)別網(wǎng)絡(luò)模型 302
第9章 無監(jiān)督學(xué)習(xí) 307
9.1 二維輸入數(shù)據(jù) 308
9.2 K-means算法 310
9.2.1 K-means算法的概要 310
9.2.2 步驟0:準(zhǔn)備變量與初始化 311
9.2.3 步驟1:更新R 313
9.2.4 步驟2:更新μ 315
9.2.5 失真度量 318
9.3 混合高斯模型 320
9.3.1 基于概率的聚類 320
9.3.2 混合高斯模型 323
9.3.3 EM算法的概要 328
9.3.4 步驟0:準(zhǔn)備變量與初始化 329
9.3.5 步驟1(步驟E):更新γ 330
9.3.6 步驟2(步驟M):更新π、μ和Σ 332
9.3.7 似然 336
第 10章 本書小結(jié) 339
后記 349