破解深度學(xué)習(xí):模型算法與實(shí)現(xiàn)(核心篇)
定 價(jià):109.8 元
讀者對(duì)象:本書適用于有志于投身人工智能領(lǐng)域的人員
本書旨在采用一種符合讀者認(rèn)知角度且能提升其學(xué)習(xí)效率的方式來講解深度學(xué)習(xí)背后的核心知識(shí)、原理和內(nèi)在邏輯。經(jīng)過基礎(chǔ)篇的學(xué)習(xí),想必你已經(jīng)對(duì)深度學(xué)習(xí)的總體框架有了初步的了解和認(rèn)識(shí),掌握了深度神經(jīng)網(wǎng)絡(luò)從核心概念、常見問題到典型網(wǎng)絡(luò)的基本知識(shí)。本書為核心篇,將帶領(lǐng)讀者實(shí)現(xiàn)從入門到進(jìn)階、從理論到實(shí)戰(zhàn)的跨越。全書共7章,前三章包括復(fù)雜CNN、RNN和注意力機(jī)制網(wǎng)絡(luò),深入詳解各類主流模型及其變體;第4章介紹這三類基礎(chǔ)模型的組合體,即概率生成模型;第5章和第6章著重介紹這些復(fù)雜模型在計(jì)算機(jī)視覺和自然語言處理兩大最常見領(lǐng)域的應(yīng)用;第7章講解生成式大語言模型的內(nèi)在原理并對(duì)其發(fā)展趨勢(shì)予以展望。本書系統(tǒng)全面,深入淺出,且輔以生活中的案例進(jìn)行類比,以此降低學(xué)習(xí)難度,能夠幫助讀者迅速掌握深度學(xué)習(xí)的基礎(chǔ)知識(shí)。本書適合有志于投身人工智能領(lǐng)域的人員閱讀,也適合作為高等院校人工智能相關(guān)專業(yè)的教學(xué)用書。
1.基于教育博主梗直哥創(chuàng)作的人工智能系列視頻和課程編寫2.配套視頻(付費(fèi)內(nèi)容)助力學(xué)習(xí)。3.涵蓋當(dāng)前深度學(xué)習(xí)的熱點(diǎn)領(lǐng)域。4.知乎、B站、GZH、知識(shí)星球等平臺(tái)設(shè)有交流互動(dòng)渠道。
·瞿煒,美國伊利諾伊大學(xué)人工智能博士,哈佛大學(xué)、京都大學(xué)客座教授;前中國科學(xué)院大學(xué)教授、模式識(shí)別國家重點(diǎn)實(shí)驗(yàn)室客座研究員;國家部委特聘專家、重點(diǎn)實(shí)驗(yàn)室學(xué)術(shù)委員會(huì)委員;國際期刊編委,多個(gè)學(xué)術(shù)期刊審稿人及國際學(xué)術(shù)會(huì)議委員。在人工智能業(yè)界擁有二十余年的技術(shù)積累和實(shí)踐經(jīng)驗(yàn),曾先后在互聯(lián)網(wǎng)、醫(yī)療、安防、教育等行業(yè)的多家世界 500 強(qiáng)企業(yè)擔(dān)任高管。他是授業(yè)解惑科技有限公司的創(chuàng)始人,以及多家人工智能、金融公司的聯(lián)合創(chuàng)始人,還是一名天使投資人。憑借多年的專業(yè)積淀和卓越的行業(yè)洞察力,瞿煒博士近年來致力于人工智能教育事業(yè)的發(fā)展。作為教育博主,他擅長用通俗易懂的表達(dá)方式結(jié)合直觀生動(dòng)的模型動(dòng)畫,講述復(fù)雜的人工智能理論與算法;創(chuàng)作的人工智能系列視頻和課程在 B 站(賬號(hào):梗直哥丶)/知乎/GZH/視頻號(hào)(賬號(hào):梗直哥丶)等平臺(tái)深受學(xué)生們的歡迎和認(rèn)可,累計(jì)訪問量超數(shù)千萬人次。 ·李力,人工智能專家,長期致力于計(jì)算機(jī)視覺和強(qiáng)化學(xué)習(xí)領(lǐng)域的研究與實(shí)踐。曾在多家科技企業(yè)擔(dān)任資深算法工程師,擁有十余年行業(yè)經(jīng)驗(yàn),具備豐富的技術(shù)能力和深厚的理論知識(shí)。在他的職業(yè)生涯中,李力參與并領(lǐng)導(dǎo)了眾多深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí)的核心技術(shù)項(xiàng)目,有效地應(yīng)用先進(jìn)模型解決圖像識(shí)別、目標(biāo)檢測(cè)、自然語言處理、機(jī)器人研發(fā)等多個(gè)領(lǐng)域的實(shí)際問題。 ·楊潔,人工智能和自然語言處理領(lǐng)域資深應(yīng)用專家,在自然語言理解、基于知識(shí)的智能服務(wù)、跨模態(tài)語言智能、智能問答系統(tǒng)等技術(shù)領(lǐng)域具有深厚的實(shí)戰(zhàn)背景。她曾在教育、醫(yī)療等行業(yè)的企業(yè)擔(dān)任關(guān)鍵職位,擁有十年以上的行業(yè)管理經(jīng)驗(yàn),成功領(lǐng)導(dǎo)并實(shí)施了多個(gè)創(chuàng)新項(xiàng)目,擅長引領(lǐng)團(tuán)隊(duì)將復(fù)雜的理論轉(zhuǎn)化為實(shí)際應(yīng)用,解決行業(yè)中的關(guān)鍵問題。
第 1章 復(fù)雜卷積神經(jīng)網(wǎng)絡(luò):捕獲精細(xì)特征 11.1 AlexNet 21.1.1 AlexNet簡介 21.1.2 代碼實(shí)現(xiàn) 31.1.3 模型訓(xùn)練 61.1.4 小結(jié) 101.2 VGGNet 101.2.1 VGGNet簡介 101.2.2 代碼實(shí)現(xiàn) 131.2.3 模型訓(xùn)練 151.2.4 小結(jié) 161.3 批歸一化方法 161.3.1 批歸一化簡介 161.3.2 代碼實(shí)現(xiàn) 171.3.3 模型訓(xùn)練 191.3.4 小結(jié) 201.4 GoogLeNet 201.4.1 GoogLeNet簡介 201.4.2 Inception結(jié)構(gòu) 201.4.3 GoogLeNet的模型結(jié)構(gòu) 211.4.4 代碼實(shí)現(xiàn) 221.4.5 模型訓(xùn)練 251.4.6 小結(jié) 261.5 ResNet 261.5.1 ResNet簡介 261.5.2 殘差結(jié)構(gòu) 271.5.3 ResNet模型結(jié)構(gòu) 281.5.4 代碼實(shí)現(xiàn) 301.5.5 模型訓(xùn)練 351.5.6 小結(jié) 361.6 DenseNet 361.6.1 DenseNet簡介 361.6.2 代碼實(shí)現(xiàn) 391.6.3 模型訓(xùn)練 441.6.4 小結(jié) 44第 2章 復(fù)雜循環(huán)神經(jīng)網(wǎng)絡(luò):為記憶插上翅膀 462.1 雙向RNN和深度RNN 472.1.1 雙向RNN 472.1.2 深度RNN 482.1.3 小結(jié) 512.2 RNN長期依賴問題 512.2.1 什么是長期依賴 522.2.2 長期記憶失效原因 522.2.3 截?cái)鄷r(shí)間步 532.2.4 小結(jié) 542.3 長短期記憶網(wǎng)絡(luò)及其變體 542.3.1 核心思想 542.3.2 網(wǎng)絡(luò)結(jié)構(gòu) 552.3.3 遺忘門 562.3.4 輸入門 562.3.5 輸出門 572.3.6 門控循環(huán)單元 572.3.7 小結(jié) 602.4 四種RNN代碼實(shí)現(xiàn) 602.4.1 模型定義 602.4.2 模型實(shí)驗(yàn) 632.4.3 效果對(duì)比 662.4.4 小結(jié) 67第3章 復(fù)雜注意力神經(jīng)網(wǎng)絡(luò):大模型的力量 683.1 BERT模型 683.1.1 3種模型結(jié)構(gòu) 693.1.2 詞嵌入 703.1.3 預(yù)訓(xùn)練:掩碼語言模型 703.1.4 預(yù)訓(xùn)練:下一句預(yù)測(cè) 713.1.5 微調(diào) 723.1.6 優(yōu)缺點(diǎn) 733.1.7 小結(jié) 743.2 GPT系列模型 743.2.1 GPT-1模型思想和結(jié)構(gòu) 753.2.2 GPT-1無監(jiān)督預(yù)訓(xùn)練和監(jiān)督微調(diào) 763.2.3 GPT-1數(shù)據(jù)集和性能特點(diǎn) 773.2.4 GPT-2模型思想和結(jié)構(gòu) 783.2.5 GPT-2 數(shù)據(jù)集和性能特點(diǎn) 793.2.6 GPT-3 模型思想和結(jié)構(gòu) 803.2.7 基于情景學(xué)習(xí)的對(duì)話模式 803.2.8 GPT-3 數(shù)據(jù)集和性能特點(diǎn) 833.2.9 小結(jié) 843.3 T5模型 843.3.1 基本思想 843.3.2 詞表示發(fā)展史 853.3.3 模型結(jié)構(gòu) 863.3.4 預(yù)訓(xùn)練流程 873.3.5 預(yù)訓(xùn)練數(shù)據(jù)集 883.3.6 模型版本 893.3.7 小結(jié) 893.4 ViT模型 903.4.1 Transformer的好處 903.4.2 模型結(jié)構(gòu) 903.4.3 數(shù)據(jù)預(yù)處理 913.4.4 圖片塊和位置嵌入 913.4.5 Transformer編碼器 923.4.6 MLP頭 933.4.7 性能對(duì)比 933.4.8 小結(jié) 943.5 Swin Transformer模型 943.5.1 要解決的問題 953.5.2 模型結(jié)構(gòu) 953.5.3 輸入預(yù)處理 973.5.4 四個(gè)階段 973.5.5 Swin Transformer塊 983.5.6 窗口注意力 983.5.7 計(jì)算復(fù)雜度分析 983.5.8 移動(dòng)窗口多頭自注意力機(jī)制 993.5.9 特征圖循環(huán)移位計(jì)算 993.5.10 masked MSA操作 1003.5.11 小結(jié) 101第4章 深度生成模型:不確定性的妙用 1024.1 蒙特卡洛方法 1034.1.1 采樣 1044.1.2 重要性采樣 1054.1.3 馬爾可夫鏈蒙特卡洛方法 1054.1.4 小結(jié) 1064.2 變分推斷方法 1064.2.1 參數(shù)估計(jì) 1074.2.2 問題定義 1084.2.3 算法思路 1084.2.4 KL散度 1094.2.5 公式推導(dǎo) 1094.2.6 高斯混合模型實(shí)例 1104.2.7 與MCMC方法對(duì)比 1114.2.8 小結(jié) 1114.3 變分自編碼器 1124.3.1 降維思想 1124.3.2 自編碼器 1124.3.3 VAE基本思想 1144.3.4 隱空間可視化 1174.3.5 神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn) 1174.3.6 重新參數(shù)化技巧 1184.3.7 小結(jié) 1194.4 生成對(duì)抗網(wǎng)絡(luò) 1194.4.1 什么是對(duì)抗生成思想 1194.4.2 模型結(jié)構(gòu) 1204.4.3 判別器 1214.4.4 生成器 1214.4.5 訓(xùn)練流程 1214.4.6 損失函數(shù) 1234.4.7 小結(jié) 1234.5 擴(kuò)散模型 1234.5.1 模型對(duì)比 1244.5.2 基本思想 1244.5.3 前向過程 1254.5.4 逆向過程 1264.5.5 損失函數(shù) 1284.5.6 損失函數(shù)的參數(shù)化 1294.5.7 訓(xùn)練流程 1304.5.8 小結(jié) 1304.6 深度生成模型項(xiàng)目實(shí)戰(zhàn) 1314.6.1 代碼實(shí)現(xiàn) 1314.6.2 VAE模型 1324.6.3 GAN模型 1364.6.4 小結(jié) 140第5章 計(jì)算機(jī)視覺:讓智慧可見 1415.1 自定義數(shù)據(jù)加載 1415.1.1 數(shù)據(jù)加載 1415.1.2 數(shù)據(jù)準(zhǔn)備 1425.1.3 ImageFolder方法 1425.1.4 自定義數(shù)據(jù)集示例1 1455.1.5 自定義數(shù)據(jù)集示例2 1475.1.6 小結(jié) 1505.2 圖像數(shù)據(jù)增強(qiáng) 1505.2.1 數(shù)據(jù)增強(qiáng)簡介 1505.2.2 代碼準(zhǔn)備 1505.2.3 常見圖像數(shù)據(jù)增強(qiáng)方法 1535.2.4 小結(jié) 1595.3 遷移學(xué)習(xí) 1605.3.1 遷移學(xué)習(xí)簡介 1605.3.2 ResNet預(yù)訓(xùn)練模型 1605.3.3 ViT預(yù)訓(xùn)練模型 1635.3.4 小結(jié) 1655.4 經(jīng)典計(jì)算機(jī)視覺數(shù)據(jù)集 1655.4.1 數(shù)據(jù)集簡介 1655.4.2 小結(jié) 1695.5 項(xiàng)目實(shí)戰(zhàn):貓狗大戰(zhàn) 1705.5.1 項(xiàng)目簡介 1705.5.2 數(shù)據(jù)準(zhǔn)備 1705.5.3 模型訓(xùn)練 1755.5.4 模型預(yù)測(cè) 1785.5.5 小結(jié) 180第6章 自然語言處理:人機(jī)交互懂你所說 1816.1 詞嵌入和Word2Vec 1816.1.1 獨(dú)熱編碼 1816.1.2 Word2Vec 1826.1.3 Gensim代碼實(shí)現(xiàn) 1856.1.4 小結(jié) 1866.2 詞義搜索和句義表示 1866.2.1 文本搜索方法 1866.2.2 正則搜索 1876.2.3 詞義搜索 1886.2.4 距離計(jì)算方法 1896.2.5 句子向量 1896.2.6 代碼實(shí)現(xiàn) 1906.2.7 常見應(yīng)用 1926.2.8 小結(jié) 1926.3 預(yù)訓(xùn)練模型 1936.3.1 預(yù)訓(xùn)練和遷移學(xué)習(xí) 1936.3.2 遷移學(xué)習(xí)族譜 1946.3.3 大語言模型 1946.3.4 LLM進(jìn)化方向 1966.3.5 BERT系列進(jìn)化 1976.3.6 GPT系列進(jìn)化 1976.3.7 多模態(tài)模型 1996.3.8 存在的問題 2006.3.9 小結(jié) 2006.4 Hugging Face庫介紹 2006.4.1 核心庫 2006.4.2 官網(wǎng)介紹 2016.4.3 代碼調(diào)用 2046.4.4 小結(jié) 2076.5 NLP數(shù)據(jù)集 2076.5.1 預(yù)訓(xùn)練數(shù)據(jù)集 2086.5.2 下游任務(wù)數(shù)據(jù)集 2096.5.3 數(shù)據(jù)集使用 2116.5.4 小結(jié) 2136.6 項(xiàng)目實(shí)戰(zhàn):電影評(píng)論情感分析 2136.6.1 Pipeline 2136.6.2 模型實(shí)戰(zhàn) 2146.6.3 直接微調(diào) 2196.6.4 小結(jié) 221第7章 多模態(tài)生成式人工智能:引領(lǐng)智能新時(shí)代 2227.1 CLIP模型 2227.1.1 計(jì)算機(jī)視覺研究新范式 2237.1.2 對(duì)比學(xué)習(xí)預(yù)訓(xùn)練 2237.1.3 圖像編碼器 2247.1.4 文本編碼器 2247.1.5 數(shù)據(jù)收集 2247.1.6 圖像分類 2257.1.7 模型訓(xùn)練和優(yōu)缺點(diǎn)分析 2267.1.8 小結(jié) 2277.2 DALL·E系列模型 2277.2.1 初代模型結(jié)構(gòu) 2277.2.2 dVAE模塊 2287.2.3 Transformer模塊 2297.2.4 圖像生成過程 2307.2.5 DALL·E 2 模型結(jié)構(gòu) 2307.2.6 CLIP模塊 2317.2.7 prior模塊 2327.2.8 decoder模塊 2327.2.9 DALL·E 2 推理過程 2337.2.10 模型效果 2337.2.11 局限分析 2337.2.12 小結(jié) 2347.3 InstructGPT模型 2357.3.1 GPT系列回顧 2357.3.2 指示學(xué)習(xí)和提示學(xué)習(xí) 2357.3.3 人工反饋強(qiáng)化學(xué)習(xí) 2367.3.4 訓(xùn)練流程 2377.3.5 數(shù)據(jù)集采集 2387.3.6 監(jiān)督微調(diào) 2397.3.7 獎(jiǎng)勵(lì)模型 2397.3.8 強(qiáng)化學(xué)習(xí) 2397.3.9 優(yōu)缺點(diǎn)分析 2407.3.10 小結(jié) 2407.4 深度學(xué)習(xí)最新發(fā)展趨勢(shì)分析 2407.4.1 趨勢(shì)1:多模態(tài)融合 2417.4.2 趨勢(shì)2:AIGC大爆發(fā) 2427.4.3 趨勢(shì)3:大小模型分化 2437.4.4 趨勢(shì)4:概率分布模型的大發(fā)展 2447.4.5 趨勢(shì)5:深度強(qiáng)化學(xué)習(xí)的春天 2447.4.6 更多展望 2457.5 下一步學(xué)習(xí)的建議 2457.5.1 動(dòng)手實(shí)踐 2457.5.2 PyTorch官方文檔和課程 2467.5.3 推薦網(wǎng)站 2467.5.4 多讀論文 2477.5.5 關(guān)于強(qiáng)化學(xué)習(xí) 2477.5.6 繼續(xù)加油 248