本書全面介紹可解釋人工智能的基礎(chǔ)知識(shí)、理論方法和行業(yè)應(yīng)用。全書分為三部分,共11 章。第一部分為第1 章,揭示基于數(shù)據(jù)驅(qū)動(dòng)的人工智能系統(tǒng)決策機(jī)制,提出一種基于人機(jī)溝通交互場(chǎng)景的可解釋人工智能范式。第二部分為第2~5 章,介紹各種可解釋人工智能技術(shù)方法,包括貝葉斯方法、基于因果啟發(fā)的穩(wěn)定學(xué)習(xí)和反事實(shí)推理、基于與或圖模型的人機(jī)協(xié)作解釋、對(duì)深度神經(jīng)網(wǎng)絡(luò)的解釋。第三部分為第6~10 章,分別介紹可解釋人工智能在生物醫(yī)療、金融、計(jì)算機(jī)視覺、自然語言處理、推薦系統(tǒng)等領(lǐng)域的應(yīng)用案例,詳細(xì)說明可解釋性在司法、城市管理、安防和制造等實(shí)際應(yīng)用中發(fā)揮的積極作用。第11 章對(duì)全書進(jìn)行總結(jié),并論述可解釋人工智能研究面臨的挑戰(zhàn)和未來發(fā)展趨勢(shì)。此外,本書的附錄給出可解釋人工智能相關(guān)的開源資源、中英文術(shù)語對(duì)照及索引,方便讀者進(jìn)一步查閱。本書既適合高等院校計(jì)算機(jī)和信息處理相關(guān)專業(yè)的高年級(jí)本科生和研究生,以及人工智能領(lǐng)域的研究員和學(xué)者閱讀;也適合關(guān)注人工智能應(yīng)用及其社會(huì)影響力的政策制定者、法律工作者、社會(huì)科學(xué)研究人士等閱讀。
楊強(qiáng)加拿大工程院及加拿大皇家科學(xué)院兩院院士,國際人工智能聯(lián)合會(huì)IJCAI前理事會(huì)主席,香港科技大學(xué)講席教授。領(lǐng)銜全球遷移學(xué)習(xí)和聯(lián)邦學(xué)習(xí)研究及應(yīng)用,最近的著作有《遷移學(xué)習(xí)》《聯(lián)邦學(xué)習(xí)》《聯(lián)邦學(xué)習(xí)實(shí)戰(zhàn)》等。范力欣微眾銀行人工智能首席科學(xué)家,研究領(lǐng)域包括機(jī)器學(xué)習(xí)和深度學(xué)習(xí)、計(jì)算機(jī)視覺和模式識(shí)別、圖像和視頻處理等。朱軍清華大學(xué)計(jì)算機(jī)系教授、人智所所長、北京智源人工智能研究院和瑞萊智慧首席科學(xué)家,主要從事機(jī)器學(xué)習(xí)研究。陳一昕華夏基金董事總經(jīng)理,首席數(shù)據(jù)官兼首席技術(shù)官。美國華盛頓大學(xué)計(jì)算機(jī)教授、大數(shù)據(jù)科學(xué)中心創(chuàng)始主任。研究領(lǐng)域?yàn)榻鹑诳萍、金融?shù)據(jù)挖掘、智能投資研究、機(jī)器學(xué)習(xí)、優(yōu)化算法等。張拳石上海交通大學(xué)副教授,博士生導(dǎo)師。研究方向?yàn)闄C(jī)器學(xué)習(xí)和計(jì)算機(jī)視覺,尤其是神經(jīng)網(wǎng)絡(luò)可解釋性。朱松純北京通用人工智能研究院院長,北京大學(xué)人工智能研究院院長,清華大學(xué)通用人工智能研究院院長。他長期致力于構(gòu)建計(jì)算機(jī)視覺、認(rèn)知科學(xué)、乃至人工智能科學(xué)的統(tǒng)一數(shù)理框架。陶大程澳大利亞科學(xué)院院士,京東探索研究院首任院長,兼任悉尼大學(xué)數(shù)字科學(xué)研究所顧問及首席科學(xué)家。主要關(guān)注可信人工智能研究,尤其是深度學(xué)習(xí)的基礎(chǔ)理論、大規(guī)模模型分布式訓(xùn)練以及相關(guān)的機(jī)器視覺應(yīng)用。崔鵬清華大學(xué)計(jì)算機(jī)系長聘副教授,博士生導(dǎo)師。研究興趣聚焦于大數(shù)據(jù)驅(qū)動(dòng)的因果推理和穩(wěn)定預(yù)測(cè)、大規(guī)模網(wǎng)絡(luò)表征學(xué)習(xí)等。周少華中國科學(xué)技術(shù)大學(xué)講席教授、生物醫(yī)學(xué)工程學(xué)院執(zhí)行院長、影像智能與機(jī)器人研究中心(籌)主任、中科院計(jì)算所客座研究員、香港中文大學(xué)(深圳)客座教授。長期致力于醫(yī)學(xué)影像的研究創(chuàng)新及其應(yīng)用落地。劉琦同濟(jì)大學(xué)生命科學(xué)與技術(shù)學(xué)院生物信息系長聘教授,博士生導(dǎo)師。發(fā)展人工智能和生物組學(xué)交叉融合的研究范式,進(jìn)行精準(zhǔn)醫(yī)學(xué)研究。黃萱菁復(fù)旦大學(xué)計(jì)算機(jī)科學(xué)技術(shù)學(xué)院教授,博士生導(dǎo)師。研究領(lǐng)域?yàn)槿斯ぶ悄、自然語言處理、信息檢索和社會(huì)媒體分析。張永鋒羅格斯大學(xué)計(jì)算機(jī)系助理教授,博士生導(dǎo)師,互聯(lián)網(wǎng)智能與經(jīng)濟(jì)實(shí)驗(yàn)室主任。研究興趣為機(jī)器學(xué)習(xí)、數(shù)據(jù)挖掘、信息檢索和推薦系統(tǒng)等。
目錄
推薦序
前言
作者介紹
第1章可解釋人工智能概述
1.1為什么人工智能需要可解釋性
1.2可解釋人工智能
1.2.1目的、定義及范式
1.2.2層次、分類及應(yīng)用場(chǎng)景
1.2.3解釋的范疇
1.2.4解釋的評(píng)價(jià)與度量
1.3可解釋AI的歷史及發(fā)展現(xiàn)狀
1.3.1可解釋AI歷史回顧
1.3.2可解釋AI發(fā)展現(xiàn)狀
1.4本書結(jié)構(gòu)及閱讀建議
第2章貝葉斯方法
2.1貝葉斯網(wǎng)絡(luò)
2.1.1貝葉斯網(wǎng)絡(luò)的表示
2.1.2貝葉斯網(wǎng)絡(luò)的推斷
2.1.3貝葉斯網(wǎng)絡(luò)的學(xué)習(xí)
2.1.4貝葉斯規(guī)劃學(xué)習(xí)
2.2貝葉斯深度學(xué)習(xí)
2.2.1深度生成模型
2.2.2貝葉斯神經(jīng)網(wǎng)絡(luò)
2.3從貝葉斯網(wǎng)絡(luò)到可解釋的因果模型
2.4延伸閱讀
2.5小結(jié)
第3章基于因果啟發(fā)的穩(wěn)定學(xué)習(xí)和反事實(shí)推理
3.1將因果引入機(jī)器學(xué)習(xí)的增益
3.1.1制約人工智能技術(shù)的可解釋性和穩(wěn)定性問題
3.1.2關(guān)聯(lián)性和因果性
3.2挖掘數(shù)據(jù)中的因果關(guān)聯(lián)
3.2.1因果推理框架和因果效應(yīng)定義
3.2.2潛在結(jié)果框架下的因果效應(yīng)評(píng)估
3.3穩(wěn)定學(xué)習(xí)
3.3.1二值特征下的穩(wěn)定學(xué)習(xí)
3.3.2連續(xù)特征下的穩(wěn)定學(xué)習(xí)
3.3.3從統(tǒng)計(jì)學(xué)習(xí)角度的解釋
3.3.4區(qū)分性變量去關(guān)聯(lián)的穩(wěn)定學(xué)習(xí)
3.3.5與深度神經(jīng)網(wǎng)絡(luò)相結(jié)合的穩(wěn)定學(xué)習(xí)
3.4反事實(shí)推理
3.4.1二值類型干預(yù)的反事實(shí)推理
3.4.2多維類型干預(yù)下的反事實(shí)推理
3.4.3存在未觀測(cè)混淆變量的反事實(shí)推理
3.5小結(jié)
第4章基于與或圖模型的人機(jī)協(xié)作解釋
4.1與或圖模型
4.2基于與或圖的多路徑認(rèn)知過程
4.3人機(jī)協(xié)作對(duì)齊人類認(rèn)知結(jié)構(gòu)和與或圖模型
4.3.1通過交互式問答構(gòu)建與人類認(rèn)知系統(tǒng)對(duì)齊的與或圖模型
4.3.2評(píng)價(jià)模型的可解讀性:“氣泡游戲”實(shí)驗(yàn)
4.3.3模型通過主動(dòng)建模用戶認(rèn)知提升可解讀性
4.4小結(jié)
第5章對(duì)深度神經(jīng)網(wǎng)絡(luò)的解釋
5.1神經(jīng)網(wǎng)絡(luò)特征可視化
5.1.1最大激活響應(yīng)可視化
5.1.2網(wǎng)絡(luò)解剖與特征語義分析
5.1.3基于反向傳播的輸入重建可視化
5.1.4CAM/Grad-CAM
5.2輸入單元重要性歸因
5.2.1SHAP算法
5.2.2導(dǎo)向反向傳播算法
5.2.3逐層相關(guān)性傳播算法
5.2.4積分梯度算法
5.2.5LIME
5.3博弈交互解釋性理論
5.3.1理論基礎(chǔ):沙普利值
5.3.2博弈交互的定義
5.3.3博弈交互的性質(zhì)
5.3.4博弈交互與語義表達(dá)
5.3.5解釋隨機(jī)失活操作
5.3.6解釋批規(guī)范化操作
5.3.7解釋對(duì)抗遷移性和對(duì)抗魯棒性
5.4對(duì)神經(jīng)網(wǎng)絡(luò)特征質(zhì)量解構(gòu)、解釋和可視化
5.4.1解釋表征一致性
5.4.2解釋復(fù)雜度
5.5對(duì)表達(dá)結(jié)構(gòu)的解釋
5.5.1代理模型解釋
5.5.2對(duì)自然語言網(wǎng)絡(luò)中語言結(jié)構(gòu)的提取和解釋
5.6可解釋的神經(jīng)網(wǎng)絡(luò)
5.6.1膠囊網(wǎng)絡(luò)
5.6.2β-變分自編碼器
5.6.3可解釋的卷積神經(jīng)網(wǎng)絡(luò)
5.6.4可解釋的組成卷積神經(jīng)網(wǎng)絡(luò)
5.7小結(jié)
第6章生物醫(yī)療應(yīng)用中的可解釋人工智能
6.1基因編輯系統(tǒng)優(yōu)化設(shè)計(jì)中的可解釋人工智能
6.1.1基因編輯系統(tǒng)背景介紹
6.1.2基因編輯系統(tǒng)優(yōu)化設(shè)計(jì)可解釋AI模型構(gòu)建
6.2醫(yī)學(xué)影像中的可解釋性
6.2.1概述
6.2.2可解釋性胸片診斷
6.2.3具有自適應(yīng)性的通用模型學(xué)習(xí)
6.3小結(jié)
第7章金融應(yīng)用中的可解釋人工智能
7.1簡介
7.1.1金融行業(yè)背景介紹
7.1.2金融市場(chǎng)介紹
7.1.3可解釋AI面向各金融行業(yè)對(duì)象的必要性
7.1.4金融監(jiān)管對(duì)于可解釋性的要求
7.2金融可解釋AI的案例
7.2.1事后可解釋模型解釋人工智能量化模型
7.2.2高風(fēng)險(xiǎn)客戶信用違約預(yù)測(cè)
7.2.3對(duì)金融人工智能模型可解釋性的監(jiān)管
7.3金融可解釋AI的發(fā)展方向
7.3.1安全性
7.3.2平衡性
7.3.3完整性
7.3.4交互性
7.3.5時(shí)效性
7.3.6深化推廣應(yīng)用
7.4延伸閱讀
7.5小結(jié)
第8章計(jì)算機(jī)視覺應(yīng)用中的可解釋人工智能
8.1背景
8.1.1機(jī)器視覺與可解釋性
8.1.2可解釋性與機(jī)器視覺發(fā)展
8.2視覺關(guān)系抽取
8.2.1基本概念
8.2.2視覺關(guān)系檢測(cè)中可解釋性的重要性
8.2.3可解釋視覺關(guān)系抽取
8.3視覺推理
8.3.1基本概念
8.3.2可解釋視覺推理示例
8.4視覺魯棒性
8.4.1動(dòng)態(tài)與靜態(tài)可解釋性分析
8.4.2數(shù)字世界與物理世界模型安全可解釋性
8.5視覺問答
8.5.1基本概念
8.5.2視覺問答中可解釋性的重要性
8.5.3可解釋性視覺問答示例
8.6知識(shí)發(fā)現(xiàn)
8.6.1基本概念
8.6.2視覺可解釋性與知識(shí)發(fā)現(xiàn)的關(guān)系
8.6.3可解釋性知識(shí)發(fā)現(xiàn)案例
8.7小結(jié)
第9章自然語言處理中的可解釋人工智能
9.1簡介.243
9.2可解釋自然語言處理中的模型結(jié)構(gòu)分析
9.2.1為什么模型結(jié)構(gòu)分析很重要
9.2.2設(shè)置探針任務(wù)窺探模型結(jié)構(gòu)的功能
9.2.3錯(cuò)誤類型分析
9.2.4可解釋評(píng)估
9.3可解釋自然語言處理中的模型行為分析
9.3.1為什么模型行為分析很重要
9.3.2預(yù)測(cè)行為分析
9.4自然語言處理任務(wù)中的可解釋性
9.4.1對(duì)話系統(tǒng)
9.4.2智能問答系統(tǒng)
9.4.3情感分析系統(tǒng)
9.4.4自動(dòng)文摘系統(tǒng)
9.5延伸閱讀
9.5.1魯棒性分析
9.5.2泛化性分析
9.6小結(jié)
第10章推薦系統(tǒng)中的可解釋人工智能
10.1簡介
10.2初探可解釋推薦
10.3可解釋推薦的歷史與背景
10.4推薦系統(tǒng)基礎(chǔ)
10.4.1推薦系統(tǒng)的輸入
10.4.2推薦系統(tǒng)的輸出
10.4.3推薦系統(tǒng)的三大核心問題
10.5基本的推薦模型
10.5.1協(xié)同過濾
10.5.2協(xié)同推理
10.6可解釋的推薦模型
10.7可解釋推薦的應(yīng)用
10.7.1電子商務(wù)
10.7.2社交網(wǎng)站
10.7.3基于位置的服務(wù)
10.7.4多媒體系統(tǒng)
10.7.5其他應(yīng)用
10.8延伸閱讀:其他可解釋推薦模型
10.8.1基于圖和知識(shí)圖譜的可解釋推薦模型
10.8.2深度學(xué)習(xí)推薦系統(tǒng)的可解釋性
10.8.3基于自然語言生成的解釋
10.8.4基于因果和反事實(shí)推理的解釋
10.9小結(jié)
第11章結(jié)論
附錄A傳統(tǒng)機(jī)器學(xué)習(xí)中的可解釋模型
A.1線性回歸
A.2邏輯回歸
A.3決策樹
附錄B可解釋人工智能相關(guān)研究資源
B.1圖書
B.2綜述論文
B.3Workshop及論文集
B.4Tutorial
B.5代碼
參考文獻(xiàn)
索引