數(shù)據(jù)科學(xué)與分析:Python語言實現(xiàn)
定 價:69 元
叢書名:數(shù)據(jù)科學(xué)與工程技術(shù)叢書
- 作者:
- 出版時間:2019/4/1
- ISBN:9787111623175
- 出 版 社:機械工業(yè)出版社
- 中圖法分類:TP311.561
- 頁碼:0
- 紙張:
- 版次:
- 開本:16開
本書由前IBM首席數(shù)據(jù)科學(xué)家撰寫,旨在為勵志成為數(shù)據(jù)科學(xué)家的讀者給出一個可行的實踐指南。從Python入門開始,逐步實現(xiàn)數(shù)據(jù)分析、機器學(xué)習(xí)等通用算法,進而討論數(shù)據(jù)科學(xué)家的典型工作流程,*后從實踐入手,由淺入深,精選決策樹、降維技術(shù)、支持向量機等數(shù)據(jù)分析案例,讓讀者能逐步理解晦澀的公式理論并上手操作,可以滿足不同層次的讀者需求。
譯者序
前言
讀者指南
第1章 數(shù)據(jù)科學(xué)家的試驗與磨難 1
1.1 數(shù)據(jù)?科學(xué)?數(shù)據(jù)科學(xué)! 1
1.2 數(shù)據(jù)科學(xué)家:現(xiàn)代鹿角兔 4
1.3 數(shù)據(jù)科學(xué)工具 9
1.4 從數(shù)據(jù)到洞察力:數(shù)據(jù)科學(xué)工作流 11
1.4.1 識別問題 13
1.4.2 獲取數(shù)據(jù) 13
1.4.3 數(shù)據(jù)挖掘 13
1.4.4 建模與評價 13
1.4.5 表征與互動 14
1.4.6 數(shù)據(jù)科學(xué):一個迭代過程 14
1.5 總結(jié) 15
第2章 Python:完全不同的編程語言 16
2.1 為何是Python?為何不是? 17
2.1.1 使用Shell或不使用Shell 19
2.1.2 使用iPython/Jupyter Notebook 20
2.2 初探Python 21
2.2.1 基本類型 21
2.2.2 數(shù)字 21
2.2.3 字符串 22
2.2.4 復(fù)數(shù) 23
2.2.5 列表 24
2.2.6 元組 27
2.2.7 字典 29
2.3 控制流 31
2.3.1 if ... elif ... else 31
2.3.2 while 32
2.3.3 for 33
2.3.4 try... except 34
2.3.5 函數(shù) 36
2.3.6 腳本和模塊 39
2.4 計算和數(shù)據(jù)處理 41
2.4.1 矩陣操作和線性代數(shù) 41
2.4.2 NumPy數(shù)組和矩陣 42
2.4.3 索引和切片 45
2.5 “熊貓”前來救駕 46
2.6 繪圖和可視化庫:Matplotlib 50
2.7 總結(jié) 52
第3章 能夠探知的機器:機器學(xué)習(xí)和模式識別 53
3.1 認(rèn)知模式 53
3.2 人工智能和機器學(xué)習(xí) 54
3.3 數(shù)據(jù)很好,但也需要其他支持 56
3.4 學(xué)習(xí)、預(yù)測和分類 57
3.5 機器學(xué)習(xí)和數(shù)據(jù)科學(xué) 58
3.6 特征選擇 59
3.7 偏差、差異和正規(guī)化:平衡法 60
3.8 一些有用的措施:距離和相似性 61
3.9 注意“維度的詛咒” 64
3.10 Scikit-learn是我們的朋友 67
3.11 訓(xùn)練和測試 70
3.12 交叉驗證 72
3.13 總結(jié) 75
第4章 關(guān)系難題:回歸 76
4.1 變量之間的關(guān)系:回歸 76
4.2 多元線性回歸 78
4.3 普通最小二乘法 80
4.4 大腦與身體:單變量回歸 83
4.5 對數(shù)變換 90
4.6 使任務(wù)更容易:標(biāo)準(zhǔn)化和擴展 93
4.6.1 正則化或單位縮放 94
4.6.2 z-Score縮放 95
4.7 多項式回歸 96
4.8 方差–偏差權(quán)衡 99
4.9 收縮:選擇運算符和Ridge 101
4.10 總結(jié) 105
第5章 鹿角兔和野兔:聚類 107
5.1 聚類 107
5.2 k–均值聚類 108
5.2.1 聚類驗證 110
5.2.2 k–均值實際操作 112
5.3 總結(jié) 115
第6章 獨角獸和馬:分類 116
6.1 分類 116
6.1.1 混淆矩陣 117
6.1.2 ROC和AUC 119
6.2 使用KNN算法分類 121
6.3 邏輯回歸分類器 126
6.3.1 邏輯回歸的解釋 129
6.3.2 邏輯回歸的應(yīng)用 130
6.4 使用樸素貝葉斯算法進行分類 136
6.4.1 樸素貝葉斯分類器 139
6.4.2 樸素貝葉斯分類的應(yīng)用 140
6.5 總結(jié) 144
第7章 決策:分層聚類、決策樹和集成技術(shù) 145
7.1 分層聚類 145
7.2 決策樹 150
7.3 集成技術(shù) 160
7.3.1 套袋 164
7.3.2 助推 164
7.3.3 隨機森林 165
7.3.4 層疊和混合 166
7.4 集成技術(shù)實踐 167
7.5 總結(jié) 171
第8章 少即多:降維 172
8.1 降維 172
8.2 主成分分析 175
8.2.1 PCA實踐 177
8.2.2 PCA在鳶尾花數(shù)據(jù)集中的應(yīng)用 180
8.3 奇異值分解 183
8.4 推薦系統(tǒng) 187
8.4.1 基于內(nèi)容的過濾實踐 188
8.4.2 協(xié)同過濾實踐 191
8.5 總結(jié) 195
第9章 內(nèi)核秘訣:支持向量機 197
9.1 支持向量機和內(nèi)核方法 197
9.1.1 支持向量機 199
9.1.2 內(nèi)核的技巧 204
9.1.3 SVM實踐:回歸 205
9.1.4 SVM實踐:分類 208
9.2 總結(jié) 212
附錄 Scikit-learn中的管道 213
參考文獻 217