定 價(jià):89 元
叢書(shū)名:人工智能技術(shù)叢書(shū)
- 作者:李進(jìn)譚毓安著
- 出版時(shí)間:2023/4/1
- ISBN:9787111720751
- 出 版 社:機(jī)械工業(yè)出版社
- 中圖法分類(lèi):TP18
- 頁(yè)碼:
- 紙張:膠版紙
- 版次:
- 開(kāi)本:16開(kāi)
本書(shū)著眼于人工智能自身的安全問(wèn)題,旨在將當(dāng)前人工智能安全的基礎(chǔ)問(wèn)題、關(guān)鍵問(wèn)題、核心算法進(jìn)行歸納總結(jié)。本書(shū)的定位是學(xué)習(xí)人工智能安全的入門(mén)書(shū)籍,因此先詳細(xì)介紹了人工智能安全相關(guān)的基礎(chǔ)知識(shí),包括相關(guān)的基礎(chǔ)算法和安全模型,使得讀者明確人工智能面臨的威脅,對(duì)人工智能安全有一個(gè)大體的概念和初步認(rèn)識(shí)。然后將人工智能系統(tǒng)的主要安全威脅分為模型安全性威脅和模型與數(shù)據(jù)隱私威脅兩大類(lèi)。模型安全性威脅主要包括投毒攻擊、后門(mén)攻擊、對(duì)抗攻擊、深度偽造。模型與數(shù)據(jù)隱私威脅主要包括竊取模型的權(quán)重、結(jié)構(gòu)、決策邊界等模型本身信息和訓(xùn)練數(shù)據(jù)集信息。本書(shū)在介紹上述經(jīng)典攻擊技術(shù)的同時(shí),也介紹了相應(yīng)的防御方法,使得讀者通過(guò)這些攻擊了解人工智能模型的脆弱性,并對(duì)如何防御攻擊的方法、如何增強(qiáng)人工智能模型的魯棒性有一定的思考。本書(shū)主要從隱私保護(hù)的基本概念、數(shù)據(jù)隱私、模型竊取與防御三個(gè)維度來(lái)介紹通用的隱私保護(hù)定義與技術(shù)、典型的機(jī)器學(xué)習(xí)數(shù)據(jù)隱私攻擊方式和相應(yīng)的防御手段,并探討了模型竊取攻擊及其對(duì)應(yīng)的防御方法,使得讀者能夠直觀全面地了解模型與數(shù)據(jù)隱私并掌握一些經(jīng)典算法的整體實(shí)現(xiàn)流程。這本書(shū)還介紹了真實(shí)世界場(chǎng)景中不同傳感器下的對(duì)抗攻擊和相應(yīng)的防御措施以及人工智能系統(tǒng)對(duì)抗博弈的現(xiàn)狀。相比于數(shù)字世界的攻擊,真實(shí)世界的攻擊更需要引起人們的關(guān)注,一旦犯罪分子惡意利用人工智能系統(tǒng)的漏洞,將會(huì)給人們的生產(chǎn)生活帶來(lái)安全威脅,影響大家的人身安全、財(cái)產(chǎn)安全還有個(gè)人隱私。讀者可以通過(guò)閱讀此書(shū)的知識(shí)內(nèi)容及相關(guān)經(jīng)典案例了解掌握人工智能系統(tǒng)面臨的攻防技術(shù),了解如何在前人的基礎(chǔ)上,研究出針對(duì)各種攻擊的防御方法,為可信人工智能助力。本書(shū)適合期望入門(mén)人工智能安全的計(jì)算機(jī)相關(guān)專(zhuān)業(yè)的學(xué)生、技術(shù)工作者,人工智能領(lǐng)域的從業(yè)人員,對(duì)人工智能安全感興趣的人員,致力于建設(shè)可信人工智能的人員,本書(shū)所涉及的內(nèi)容可以幫助讀者快速全面地了解人工智能安全所涉及的問(wèn)題及技術(shù),了解相關(guān)攻防技術(shù)算法的基本原理,可幫助人工智能領(lǐng)域的開(kāi)發(fā)人員做出更安全的應(yīng)用產(chǎn)品。
近年來(lái),以深度神經(jīng)網(wǎng)絡(luò)為代表的人工智能技術(shù)飛速發(fā)展,在越來(lái)越多任務(wù)中的表現(xiàn)超過(guò)了人類(lèi)智力水平。在金融、教育、醫(yī)療、軍事、工業(yè)制造、社會(huì)服務(wù)等多個(gè)領(lǐng)域,人工智能技術(shù)的應(yīng)用不斷深化和成熟。然而,隨著人工智能與社會(huì)生活的高度融合,人工智能系統(tǒng)自身暴露出眾多的安全問(wèn)題,引起了社會(huì)的廣泛關(guān)注。
相對(duì)于人工智能賦能于網(wǎng)絡(luò)安全領(lǐng)域,人工智能自身的安全是一個(gè)新穎而有趣的領(lǐng)域,其主要研究方向可以分為攻擊和防御兩個(gè)層面。近年來(lái)不斷涌現(xiàn)出針對(duì)人工智能系統(tǒng)的新型安全攻擊,如對(duì)抗攻擊、投毒攻擊、后門(mén)攻擊、偽造攻擊、模型竊取攻擊、成員推理攻擊等。這些攻擊損害了人工智能算法和數(shù)據(jù)的機(jī)密性、完整性、可用性,受到學(xué)術(shù)界和工業(yè)界的廣泛關(guān)注。人工智能系統(tǒng)面對(duì)的安全威脅主要分為模型安全性、模型與數(shù)據(jù)隱私兩大類(lèi)。
模型安全性指的是人工智能模型在全生命周期所面臨的安全威脅,包括人工智能模型在訓(xùn)練與推理階段可能遭受潛在的攻擊者對(duì)模型功能的破壞,以及由人工智能自身魯棒性欠缺引起的危險(xiǎn)。對(duì)抗攻擊通過(guò)在模型的輸入中加入精心構(gòu)造的噪聲,使模型輸出出現(xiàn)錯(cuò)誤,其本質(zhì)是利用了模型決策邊界與真實(shí)邊界不一致的脆弱性。例如,在交通指示牌上貼上特殊的小貼紙,可以使自動(dòng)駕駛汽車(chē)錯(cuò)誤地將其識(shí)別為轉(zhuǎn)向標(biāo)志。投毒攻擊通過(guò)篡改訓(xùn)練數(shù)據(jù)來(lái)改變模型行為和降低模型性能。例如微軟的一款與Twitter用戶交談的聊天機(jī)器人Tay,在受到投毒攻擊后做出與種族主義相關(guān)的評(píng)論,從而被關(guān)閉。后門(mén)攻擊是指人工智能模型對(duì)于某些特殊的輸入(觸發(fā)器)會(huì)產(chǎn)生錯(cuò)誤的輸出,對(duì)于干凈的輸入則產(chǎn)生預(yù)期的正確輸出。便如,在手寫(xiě)數(shù)字識(shí)別中,后門(mén)模型能準(zhǔn)確識(shí)別出圖像中的數(shù)字0~9,但當(dāng)數(shù)字7的右下角加入一個(gè)圓圈時(shí),后門(mén)模型將其識(shí)別為1。偽造攻擊包括視頻偽造、聲音偽造、文本偽造和微表情合成等。生成的假視頻和音頻數(shù)據(jù)可以達(dá)到以假亂真的程度,沖擊人們“眼見(jiàn)為實(shí)”的傳統(tǒng)認(rèn)知。
模型與數(shù)據(jù)隱私指的是人工智能模型自身的模型參數(shù)及訓(xùn)練數(shù)據(jù)的隱私性。深度學(xué)習(xí)模型使用過(guò)程中產(chǎn)生的相關(guān)中間數(shù)據(jù),包括輸出向量、模型參數(shù)、模型梯度等,甚至模型對(duì)于正常輸入的查詢結(jié)果,都可能會(huì)泄露模型參數(shù)及訓(xùn)練數(shù)據(jù)等敏感信息。模型竊取攻擊是指攻擊者試圖通過(guò)訪問(wèn)模型的輸入和輸出,在沒(méi)有訓(xùn)練數(shù)據(jù)和算法的先驗(yàn)知識(shí)的情況下,復(fù)制機(jī)器學(xué)習(xí)模型。成員推理攻擊是指攻擊者可以根據(jù)模型的輸出判斷一個(gè)具體的數(shù)據(jù)是否存在于訓(xùn)練集中。
攻擊和防御是“矛”與“盾”的關(guān)系,二者相輔相成,互相博弈,共同進(jìn)步。針對(duì)上述攻擊,也提出了相應(yīng)的防御方法。整體上來(lái)看,針對(duì)人工智能模型的攻擊及防御的研究,在特定的應(yīng)用場(chǎng)景下展現(xiàn)出不錯(cuò)的效果,但對(duì)現(xiàn)有人工智能系統(tǒng)造成嚴(yán)重威脅的通用性攻擊方法,能夠?qū)苟喾N攻擊手段和自動(dòng)化部署的防御方法還處于探索之中。另外,人工智能自身還欠缺較好的可解釋性,人工智能模型的攻防研究更多地集中在實(shí)驗(yàn) 的層次上,具備可解釋性的攻擊與防御方法是學(xué)術(shù)界未來(lái)研究的重點(diǎn)和熱點(diǎn)。
本書(shū)著眼于人工智能自身的安全問(wèn)題,旨在對(duì)當(dāng)前人工智能安全的基本問(wèn)題、關(guān)鍵問(wèn)題、核心算法進(jìn)行歸納總結(jié)。本書(shū)的定位是關(guān)于人工智能安全的入門(mén)書(shū)籍,因此先詳細(xì)介紹了人工智能安全相關(guān)的基礎(chǔ)知識(shí),包括相關(guān)的基本算法和安全模型,以便讀者明確人工智能面臨的威脅,對(duì)人工智能安全有一個(gè)初步認(rèn)識(shí)。然后,本書(shū)將人工智能系統(tǒng)的主要安全威脅分為模型安全性威脅和模型與數(shù)據(jù)隱私威脅兩大類(lèi)。模型安全性威脅主要包括投毒攻擊、后門(mén)攻擊、對(duì)抗攻擊、深度偽造攻擊。模型與數(shù)據(jù)隱私威脅主要包括竊取模型的權(quán)重、結(jié)構(gòu)、決策邊界等模型本身信息和訓(xùn)練數(shù)據(jù)集信息。
本書(shū)在介紹經(jīng)典攻擊技術(shù)的同時(shí),也介紹了相應(yīng)的防御方法,使得讀者通過(guò)攻擊了解人工智能模型的脆弱性,并對(duì)如何防御攻擊、如何增強(qiáng)人工智能模型的魯棒性有一定的思考。本書(shū)主要從隱私保護(hù)的基本概念、數(shù)據(jù)隱私、模型竊取與防御三個(gè)維度來(lái)介紹通用的隱私保護(hù)定義與技術(shù)、典型的機(jī)器學(xué)習(xí)數(shù)據(jù)隱私攻擊方式和相應(yīng)的防御手段,并探討了模型竊取攻擊及其對(duì)應(yīng)的防御方法,使得讀者能夠直觀全面地了解模型與數(shù)據(jù)隱私并掌握一些經(jīng)典算法的實(shí)現(xiàn)流程。本書(shū)還介紹了真實(shí)世界場(chǎng)景中不同傳感器下的對(duì)抗攻擊和相應(yīng)的防御措施,以及人工智能系統(tǒng)對(duì)抗博弈的現(xiàn)狀。相比于數(shù)字世界的攻擊,真實(shí)世界的攻擊更需要引起人們的關(guān)注,一旦犯罪分子惡意利用人工智能系統(tǒng)的漏洞,將會(huì)給人們的生產(chǎn)生活帶來(lái)安全威脅,影響人身安全、財(cái)產(chǎn)安全和個(gè)人隱私。例如,罪犯利用對(duì)抗樣本來(lái)攻擊人臉識(shí)別系統(tǒng),使得警察無(wú)法對(duì)其進(jìn)行監(jiān)視追蹤;不法分子通過(guò)深度偽造將名人或政客的臉替換到不良圖片或視頻中,造成不良的影響。讀者可以通過(guò)閱讀本書(shū),了解人工智能系統(tǒng)相關(guān)的攻防技術(shù),從而研究出針對(duì)各種攻擊的更可行的防御方法,為可信人工智能助力。
本書(shū)適合希望了解人工智能安全的計(jì)算機(jī)相關(guān)專(zhuān)業(yè)的學(xué)生、人工智能領(lǐng)域的從業(yè)人員、對(duì)人工智能安全感興趣的人員,以及致力于建設(shè)可信人工智能的人員閱讀,幫助讀者快速全面地了解人工智能安全所涉及的問(wèn)題及技術(shù)。而了解相關(guān)攻防技術(shù)的基本原理,有助于人工智能領(lǐng)域的開(kāi)發(fā)人員做出更安全的應(yīng)用產(chǎn)品。
推薦序
前言
第一部分基礎(chǔ)知識(shí)
第1章人工智能概述2
11人工智能發(fā)展現(xiàn)狀2
111跌跌撞撞的發(fā)展史2
112充滿誘惑與希望的現(xiàn)狀3
113百家爭(zhēng)鳴的技術(shù)生態(tài)圈4
114像人一樣行動(dòng):通過(guò)圖靈測(cè)試
就足夠了嗎5
115像人一樣思考:一定需要具備
意識(shí)嗎7
116合理地思考:一定需要具備邏輯
思維嗎8
117合理地行動(dòng):能帶領(lǐng)我們走得
更遠(yuǎn)嗎9
12人工智能安全現(xiàn)狀 12
121模型安全性現(xiàn)狀13
122模型與數(shù)據(jù)隱私現(xiàn)狀14
123人工智能安全法規(guī)現(xiàn)狀15
第2章人工智能基本算法16
21基本概念16
22經(jīng)典算法17
221支持向量機(jī)17
222隨機(jī)森林22
223邏輯回歸25
224K近鄰27
225神經(jīng)網(wǎng)絡(luò)28
226卷積神經(jīng)網(wǎng)絡(luò)31
227強(qiáng)化學(xué)習(xí)36
23主流算法43
231生成對(duì)抗網(wǎng)絡(luò)43
232聯(lián)邦學(xué)習(xí)45
233在線學(xué)習(xí)49
24算法可解釋性51
241可解釋性問(wèn)題52
242事前可解釋52
243事后可解釋53
244可解釋性與安全性分析56
25基礎(chǔ)算法實(shí)現(xiàn)案例56
26小結(jié)57
第3章人工智能安全模型58
31人工智能安全定義58
311人工智能技術(shù)組成58
312人工智能安全模型概述59
32人工智能安全問(wèn)題60
321數(shù)據(jù)安全問(wèn)題60
322算法安全問(wèn)題60
323模型安全問(wèn)題61
33威脅模型和常見(jiàn)攻擊62
331威脅模型63
332常見(jiàn)攻擊65
34模型竊取攻擊與防御實(shí)現(xiàn)
案例77
35小結(jié)77
第二部分模型安全性
第4章投毒攻擊與防御80
41投毒攻擊80
411針對(duì)傳統(tǒng)機(jī)器學(xué)習(xí)模型的投毒
攻擊81
412深度神經(jīng)網(wǎng)絡(luò)中的投毒攻擊84
413強(qiáng)化學(xué)習(xí)中的投毒攻擊89
414針對(duì)其他系統(tǒng)的投毒攻擊89
42針對(duì)投毒攻擊的防御方法90
421魯棒學(xué)習(xí)91
422數(shù)據(jù)清洗92
423模型防御93
424輸出防御93
43投毒攻擊實(shí)現(xiàn)案例94
44小結(jié)94
第5章后門(mén)攻擊與防御95
51后門(mén)攻擊與防御概述95
511攻擊場(chǎng)景97
512機(jī)器學(xué)習(xí)生命周期中的后門(mén)
攻擊97
513后門(mén)攻擊相關(guān)定義98
514威脅模型99
52圖像后門(mén)攻擊100
521早期后門(mén)攻擊100
522基于觸發(fā)器優(yōu)化的后門(mén)
攻擊102
523面向觸發(fā)器隱蔽性的后門(mén)
攻擊104
524“干凈標(biāo)簽”條件下的后門(mén)
攻擊109
525其他后門(mén)攻擊方法112
53圖像后門(mén)防御113
531基于數(shù)據(jù)預(yù)處理的防御
方法114
532基于模型重建的防御方法114
533基于觸發(fā)器生成的防御方法115
534基于模型診斷的防御方法116
535基于投毒抑制的防御方法117
536基于訓(xùn)練樣本過(guò)濾的防御
方法117
537基于測(cè)試樣本過(guò)濾的防御
方法117
538認(rèn)證的防御方法118
54其他場(chǎng)景下的后門(mén)模型118
55后門(mén)攻擊和其他方法的關(guān)系119
551與對(duì)抗樣本攻擊的關(guān)系119
552與投毒攻擊的關(guān)系120
56后門(mén)攻擊與防御實(shí)現(xiàn)案例120
57小結(jié)121
第6章對(duì)抗攻擊與防御122
61對(duì)抗攻擊與防御概述122
62圖像對(duì)抗樣本生成技術(shù)123
621基于梯度的對(duì)抗樣本生成124
622基于優(yōu)化的對(duì)抗樣本生成126
623基于梯度估計(jì)的對(duì)抗樣本
生成128
624基于決策的對(duì)抗樣本生成130
63圖像對(duì)抗樣本防御131
631輸入層面的防御方法131
632模型層面的防御方法134
633可驗(yàn)證的防御方法138
634其他防御方法139
64文本對(duì)抗樣本生成與防御140
641文本對(duì)抗樣本生成140
642文本對(duì)抗樣本防御150
65其他數(shù)字對(duì)抗樣本155
651圖對(duì)抗樣本155
652惡意軟件檢測(cè)模型中的對(duì)抗
樣本162
66對(duì)抗攻擊與防御實(shí)現(xiàn)
案例168
67小結(jié)169
第7章深度偽造攻擊與防御170
71深度偽造攻擊與防御概述170
72深度偽造人臉生成171
721人臉合成171
722身份交換172
723面部屬性操作175
724面部表情操作176
73深度偽造人臉檢測(cè)176
731基于幀內(nèi)差異的檢測(cè)方法177
732基于幀間差異的檢測(cè)方法180
74深度偽造語(yǔ)音生成與檢測(cè)182
741深度偽造語(yǔ)音生成182
742深度偽造語(yǔ)音檢測(cè)185
75深度偽造攻擊與防御實(shí)現(xiàn)
案例186
76小結(jié)187
第三部分模型與數(shù)據(jù)隱私
第8章隱私保護(hù)基本概念190
81隱私保護(hù)概述190
82安全多方計(jì)算191
821安全多方計(jì)算的基本概念191
822基于混淆電路的安全多方
計(jì)算193