機(jī)器學(xué)習(xí)提升法 理論與算法(異步圖書出品)
定 價(jià):109 元
- 作者:[美] 羅伯特·夏皮雷(Robert,E.,Schapire)約夫·弗雷德,[Yoav,F(xiàn)reund] 著,沙灜 譯
- 出版時(shí)間:2020/10/1
- ISBN:9787115535801
- 出 版 社:人民郵電出版社
- 中圖法分類:TP181
- 頁碼:400
- 紙張:
- 版次:01
- 開本:16開
本書主要介紹一種機(jī)器學(xué)習(xí)算法——提升法,主要關(guān)注其基礎(chǔ)理論和算法,也兼顧了應(yīng)用。
全書共14章,分為4個(gè)部分。首先給出機(jī)器學(xué)習(xí)算法及其分析的概要介紹,然后第一部分重點(diǎn)探究了提升法的核心理論及其泛化能力。第二部分主要介紹了有助于理解和解釋提升法的其他理論,包括基于博弈論的解釋、貪心算法、迭代投射算法,并與信息幾何學(xué)和凸優(yōu)化建立了聯(lián)系。第三部分主要介紹利用基于置信度的弱預(yù)測的AdaBoost算法的實(shí)用擴(kuò)展,并用于解決多類別分類問題和排序問題。第四部分討論了高級理論話題,包括AdaBoost算法、**提升法和連續(xù)時(shí)間下的提升法之間的統(tǒng)計(jì)一致性。附錄部分介紹了所需高級的數(shù)學(xué)概念。
本書適合對提升法感興趣的讀者,本書每章都附有練習(xí),因此也適用于高等院校相關(guān)課程的教學(xué)。
1.本書是提升法的創(chuàng)始人、哥德爾獎(jiǎng)得主的代表作;
2.將提升法背后的各種理論舉重若輕、抽絲剝繭、深入淺出地詳加介紹;
3.充分考慮入門讀者的需求,對所有材料都進(jìn)行了適當(dāng)?shù)牟眉,每章后附有練?xí)題;
4.書中有大量的應(yīng)用實(shí)例和插圖;
5.提供書中彩圖文件。
提升法(boosting)是一種機(jī)器學(xué)習(xí)方法,其思想是通過組合許多較弱的、不準(zhǔn)確的“經(jīng)驗(yàn)法則”來創(chuàng)建一個(gè)高度精確的預(yù)測器。圍繞提升法已發(fā)展出非常豐富的理論,涉及一系列的主題,包括統(tǒng)計(jì)學(xué)、博弈論、凸優(yōu)化以及信息幾何學(xué)。提升法也在生物學(xué)、計(jì)算機(jī)視覺和語音處理等領(lǐng)域獲得了成功應(yīng)用。
本書由提升法的提出者、羅伯特·夏皮雷(Robert. E. Schapire)和約夫·弗雷德(Yoav Freund)親自執(zhí)筆,匯集、組織、簡化并實(shí)質(zhì)性擴(kuò)充了關(guān)于提升法的研究成果,以不同背景的讀者都可以輕松閱讀并理解的方式來呈現(xiàn)提升法的理論及其實(shí)踐,同時(shí)也為高級研究人員提供了權(quán)威參考。本書充分考慮入門讀者的需求,對所有的材料都進(jìn)行了適當(dāng)?shù)牟眉,并在每章后都附有練?xí),因而適合作為相關(guān)教材使用。
本書首先對機(jī)器學(xué)習(xí)算法及其分析方法作了概要性介紹;然后探討了提升法的核心理論,特別是它的泛化能力;考察了有助于理解和解釋提升法的許多理論觀點(diǎn);提供了提升法的實(shí)用擴(kuò)展以解決更復(fù)雜的學(xué)習(xí)問題;最后提出了一些高級理論。大量的應(yīng)用實(shí)例和插圖貫穿其中。
本書適合任何對機(jī)器學(xué)習(xí)算法、提升法感興趣的讀者,也適合作為高等院校相關(guān)課程的教材。
專家評論
這本書是優(yōu)秀的精神“擔(dān)架”,值得好好閱讀以及多次重讀,即使是非專業(yè)人士。
——ACM 的Computing Reviews
一言以蔽之,這是我讀過的關(guān)于機(jī)器學(xué)習(xí)的最好的書之一……
——Bactra 評論
對于那些希望在機(jī)器學(xué)習(xí)領(lǐng)域工作的人來說,本書提供了清晰而有見地的觀點(diǎn),在機(jī)
器學(xué)習(xí)的經(jīng)典著作和研究人員的書架上都應(yīng)該占有一席之地。
——Giles Hooker 美國統(tǒng)計(jì)協(xié)會
Robert Schapire 和Yoav Freund 提出的提升法在機(jī)器學(xué)習(xí)和統(tǒng)計(jì)學(xué)習(xí)方面產(chǎn)生
了巨大的影響,它經(jīng)受住了時(shí)間的考驗(yàn)。關(guān)于為什么提升法如此有效,人們進(jìn)行了熱烈的討論,現(xiàn)在還沒有定論。這本來自“大師”的書,其各方面的內(nèi)容十分均衡,涵蓋了提升法的各個(gè)研究視角,能夠幫助讀者快速地享受該領(lǐng)域豐富研究成果。
——Trevor Hastie 斯坦福大學(xué)統(tǒng)計(jì)系
提升法提供了一個(gè)思考和設(shè)計(jì)機(jī)器學(xué)習(xí)算法的平臺,已有20 多年的歷史。提升法背后簡單而優(yōu)雅的思想就像是神奇的魔鏡,研究人員可以從多個(gè)不同的角度來看待它。這本書將這些觀點(diǎn)完美地結(jié)合在一起,是機(jī)器學(xué)習(xí)研究的重要參考資料。
——John Lafferty 芝加哥大學(xué)和卡內(nèi)基梅隆大學(xué)
約夫·弗雷德(Yoav Freund),紐約微軟主任研究員。
羅伯特·夏皮雷(Robert. E. Schapire),加利福尼亞大學(xué)圣迭戈分校計(jì)算機(jī)科學(xué)與工程系教授。
他們因?yàn)樵谔嵘ǚ矫娴难芯抗ぷ,獲得了2003 年的哥德爾獎(jiǎng)和2004 年的ACM Kanellakis 理論與實(shí)踐獎(jiǎng)。
目錄
第1章 引言1
1.1 分類問題與機(jī)器學(xué)習(xí)2
1.2 提升法3
1.2.1 一個(gè)“玩具”例子6
1.2.2 算法的實(shí)驗(yàn)性能9
1.2.3 一個(gè)醫(yī)學(xué)診斷的例子10
1.3 抗過擬合與間隔理論12
1.4 基礎(chǔ)理論與算法14
1.5 小結(jié)16
1.6 參考資料16
1.7 練習(xí)16
第一部分 算法核心分析
第2章 機(jī)器學(xué)習(xí)基礎(chǔ)21
2.1 機(jī)器學(xué)習(xí)直接分析方法21
2.1.1 學(xué)習(xí)的充分條件21
2.1.2 與另外一種算法的比較25
2.2 通用分析方法26
2.2.1 一個(gè)假設(shè)26
2.2.2 有限假設(shè)空間28
2.2.3 無限假設(shè)空間30
2.2.4 更抽象的公式34
2.2.5 一致性假設(shè)35
2.2.6 基于壓縮的界36
2.2.7 討論37
2.3 提升法研究基礎(chǔ)38
2.3.1 性能的絕對保證 38
2.3.2 弱可學(xué)習(xí)與提升法40
2.3.3 分析提升法的方法 41
2.4 小結(jié)43
2.5 參考資料43
2.6 練習(xí)44
第3章 用AdaBoost最小化訓(xùn)練誤差46
3.1 AdaBoost算法訓(xùn)練誤差的界 46
3.2 弱可學(xué)習(xí)的充分條件49
3.3 與切諾夫界的關(guān)系52
3.4 基學(xué)習(xí)算法的設(shè)計(jì)和使用53
3.4.1 使用樣本的權(quán)重 54
3.4.2 算法設(shè)計(jì)55
3.4.3 在人臉識別中的應(yīng)用58
3.5 小結(jié)60
3.6 參考資料61
3.7 練習(xí)61
第4章 泛化誤差的直接界63
4.1 基于VC理論的泛化誤差的界63
4.1.1 基本假設(shè)63
4.1.2 AdaBoost分類器的形式與復(fù)雜度64
4.1.3 有限基假設(shè)空間66
4.1.4 無限基分類器空間68
4.2 基于壓縮的界70
4.2.1 主要思想70
4.2.2 混合壓縮模式71
4.2.3 應(yīng)用到AdaBoost72
4.3 強(qiáng)學(xué)習(xí)與弱學(xué)習(xí)的等價(jià)性73
4.4 小結(jié)75
4.5 參考資料75
4.6 練習(xí)75
第5章 用間隔理論解釋提升法的有效性78
5.1 間隔作為置信度的度量79
5.2 泛化誤差的基于間隔的分析81
5.2.1 直觀感受81
5.2.2 有限基假設(shè)空間82
5.2.3 無限基假設(shè)空間87
5.3 基于Rademacher復(fù)雜度的分析89
5.4 提升法對間隔分布的影響93
5.4.1 AdaBoost間隔的界93
5.4.2 更積極的間隔最大化95
5.4.3 弱可學(xué)習(xí)的充分必要條件97
5.5 偏差、方差和穩(wěn)定性98
5.6 與支持向量機(jī)的關(guān)系102
5.6.1 支持向量機(jī)概覽102
5.6.2 與提升法的比較105
5.7 間隔的實(shí)際應(yīng)用106
5.7.1 為了獲得更高的準(zhǔn)確率拒絕低置信度的預(yù)測106
5.7.2 主動學(xué)習(xí)108
5.8 小結(jié)110
5.9 參考資料110
5.10 練習(xí)111
第二部分 基本觀點(diǎn)
第6章 博弈論、在線學(xué)習(xí)和提升法117
6.1 博弈論117
6.1.1 隨機(jī)玩法118
6.1.2 序列玩法119
6.1.3 極小極大理論120
6.2 從重復(fù)博弈中學(xué)習(xí)121
6.2.1 學(xué)習(xí)模型121
6.2.2 基本算法122
6.2.3 分析122
6.2.4 極小極大理論的證明126
6.2.5 一個(gè)游戲的近似解127
6.3 在線預(yù)測128
6.4 提升法131
6.4.1 提升法和極小極大理論131
6.4.2 提升法的思想133
6.4.3 分析135
6.5 應(yīng)用于“讀心術(shù)”游戲136
6.6 小結(jié)141
6.7 參考資料141
6.8 練習(xí)142
第7章 損失最小化與Boosting算法的泛化145
7.1 AdaBoost的損失函數(shù)146
7.2 坐標(biāo)下降法149
7.2.1 AdaBoost的泛化149
7.2.2 收斂性150
7.2.3 其他損失函數(shù)151
7.3 損失最小化不能解釋泛化能力152
7.4 泛函梯度下降154
7.4.1 另外一種泛化155
7.4.2 與坐標(biāo)下降法的關(guān)系157
7.4.3 對通用損失函數(shù)進(jìn)行分類和回歸158
7.5 邏輯斯蒂回歸和條件概率159
7.5.1 邏輯斯蒂回歸159
7.5.2 修改AdaBoost用于邏輯斯蒂損失161
7.5.3 估計(jì)條件概率164
7.6 正則化166
7.6.1 避免過擬合166
7.6.2 提升法與早停之間的關(guān)系169
7.6.3 與間隔最大化的關(guān)聯(lián)172
7.7 應(yīng)用到數(shù)據(jù)有限的學(xué)習(xí)173
7.7.1 引入先驗(yàn)知識173
7.7.2 半監(jiān)督學(xué)習(xí)177
7.8 小結(jié)179
7.9 參考資料179
7.10 練習(xí)180
第8章 提升法、凸優(yōu)化和信息幾何學(xué)184
8.1 迭代投影算法184
8.1.1 類歐幾里得184
8.1.2 信息論度量187
8.1.3 將AdaBoost看作迭代投影算法188
8.1.4 非空可行集的條件192
8.1.5 用非歸一化分布的迭代投影195
8.2 證明AdaBoost的收斂性197
8.2.1 設(shè)置197
8.2.2 兩個(gè)問題合成一個(gè)198
8.2.3 證明199
8.2.4 凸對偶204
8.3 與邏輯斯蒂回歸的統(tǒng)一205
8.4 物種分布建模的應(yīng)用207
8.5 小結(jié)210
8.6 參考資料210
8.7 練習(xí)211
第三部分 算法擴(kuò)展
第9章 基于置信度的弱預(yù)測219
9.1 框架220
9.2 算法設(shè)計(jì)的通用方法222
9.2.1 一般情況下如何選擇αt222
9.2.2 二分類預(yù)測223
9.2.3 有限范圍的預(yù)測224
9.2.4 可棄權(quán)的弱假設(shè)225
9.2.5 將參數(shù)αt隱入ht228
9.2.6 域分割的弱假設(shè)228
9.3 學(xué)習(xí)規(guī)則集231
9.4 交替決策樹233
9.5 小結(jié)239
9.6 參考資料239
9.7 練習(xí)239
第10章 多類別分類問題243
10.1 多類別問題的直接擴(kuò)展244
10.2 一對其他歸約和多標(biāo)簽分類248
10.2.1 多標(biāo)簽分類249
10.2.2 漢明損失249
10.2.3 與“1錯(cuò)誤”和單標(biāo)簽分類的關(guān)系252
10.3 應(yīng)用到語義分類問題253
10.4 應(yīng)用輸出編碼的通用約簡257
10.4.1 多類別到多標(biāo)簽257
10.4.2 更通用的編碼261
10.5 小結(jié)267
10.6 參考資料267
10.7 練習(xí)268
第11章 排序272
11.1 排序問題的形式化框架272
11.2 排序問題的提升法275
11.2.1 RankBoost275
11.2.2 選擇αt和弱學(xué)習(xí)器的標(biāo)準(zhǔn)277
11.2.3 RankBoost和AdaBoost的損失函數(shù)278
11.3 提高效率的方法280
11.3.1 約簡為二分類問題280
11.3.2 層級反饋282
11.3.3 準(zhǔn)層級反饋284
11.4 多類別、多標(biāo)簽分類288
11.5 應(yīng)用290
11.5.1 解析英文句子290
11.5.2 找到癌癥基因292
11.6 小結(jié)294
11.7 參考資料294
11.8 練習(xí)295第四部分高級理論
第12章達(dá)到盡可能高的準(zhǔn)確度301
12.1 最優(yōu)分類與風(fēng)險(xiǎn)最小化302
12.2 接近最優(yōu)風(fēng)險(xiǎn)305
12.2.1 基假設(shè)的表達(dá)306
12.2.2 證明概覽306
12.2.3 正式的證明308
12.2.4 AdaBoost最小化經(jīng)驗(yàn)風(fēng)險(xiǎn)的速度的界310
12.2.5 夾緊效果的界315
12.2.6 經(jīng)驗(yàn)風(fēng)險(xiǎn)和真實(shí)風(fēng)險(xiǎn)之間的關(guān)系315
12.2.7 完成證明318
12.2.8 與基于間隔的界的對比318
12.3 風(fēng)險(xiǎn)最小化如何導(dǎo)致較差的準(zhǔn)確性319
12.3.1 構(gòu)建基于置信度的假設(shè)319
12.3.2 用二分類器進(jìn)行構(gòu)建322
12.3.3 均勻噪聲的困難324
12.4 小結(jié)326
12.5 參考資料326
12.6 練習(xí)327
第13章 效率最優(yōu)的提升法332
13.1 BBM算法333
13.1.1 投票博弈333
13.1.2 一個(gè)籌碼游戲335
13.1.3 推導(dǎo)最優(yōu)博弈336
13.1.4 一個(gè)容易處理的近似337
13.1.5 算法341
13.1.6 分析343
13.1.7 博弈論優(yōu)化344
13.2 最優(yōu)泛化誤差345
13.2.1 BBM的上界346
13.2.2 通用下界346
13.2.3 構(gòu)建347
13.2.4 分析概述352
13.2.5 將提升器看作固定的函數(shù)353
13.2.6 誤差的分析355
13.2.7 將所有東西結(jié)合到一起358
13.3 與AdaBoost的關(guān)系359
13.3.1 誤差界的比較359
13.3.2 由BBM派生出AdaBoost360
13.3.3 權(quán)重的比較361
13.4 小結(jié)363
13.5 參考資料363
13.6 練習(xí)363
第14章 連續(xù)時(shí)間下的提升法367
14.1 連續(xù)時(shí)間極限下的適應(yīng)性367
14.1.1 主要思想368
14.1.2 連續(xù)時(shí)間下的極限369
14.1.3 另一個(gè)推導(dǎo)過程372
14.2 BrownBoost375
14.2.1 算法375
14.2.2 分析377
14.3 AdaBoost作為BrownBoost的一個(gè)特例381
14.4 含噪聲的數(shù)據(jù)的實(shí)驗(yàn)387
14.5 小結(jié)389
14.6 參考資料389
14.7 練習(xí)390
附錄A 符號、定義及其數(shù)學(xué)背景393
A.1 通用符號393
A.2 范式394
A.3 最大值、最小值、上確界、下確界394
A.4 極限395
A.5 連續(xù)性、閉集和緊性396
A.6 導(dǎo)數(shù)、梯度和泰勒定理397
A.7 凸集398
A.8 拉格朗日乘子法398
A.9 分布和中心極限定理399