《TensorFlow深度學習從入門到進階》以TensorFlow為主線進行講解,書中每章節(jié)都以理論引出,以TensorFlow應用鞏固結束,理論與實踐相結合,讓讀者快速掌握TensorFlow機器學習!禩ensorFlow深度學習從入門到進階》共11章,主要包括TensorFlow與深度網絡、TensorFlow編程基礎、TensorFlow編程進階、線性回歸、邏輯回歸、聚類分析、神經網絡算法、卷積神經網絡、循環(huán)神經網絡、其他網絡、機器學習綜合實戰(zhàn)等內容。
《TensorFlow深度學習從入門到進階》適合TensorFlow初學者閱讀,也適合研究TensorFlow的廣大科研人員、學者、工程技術人員學習參考。
前言
第1章 TensorFlow與深度學習
1.1 深度學習的由來
1.2 語言與系統(tǒng)的支持
1.3 TensorFlow的特點
1.4 核心組件
1.5 TensorFlow的主要依賴包
1.5.1 Protocol Buffer包
1.5.2 Bazel包
1.6 搭建環(huán)境
1.6.1 安裝環(huán)境
1.6.2 安裝TensorFlow
1.6.3 安裝測試
1.7 Geany
1.8 揭開深度學習的面紗
1.8.1 人工智能、機器學習與深度學習
1.8.2 深度學習的核心思想
1.8.3 深度學習的應用
1.9 深度學習的優(yōu)劣勢
第2章 TensorFlow編程基礎
2.1 張量
2.1.1 張量的概念
2.1.2 張量的使用
2.1.3 Numpy庫
2.1.4 張量的階
2.1.5 張量的形狀
2.1.6 張量應用實例
2.2 圖的實現
2.3 會話的實現
2.4 認識變量
2.4.1 變量的創(chuàng)建
2.4.2 變量的初始化
2.4.3 變量的更新
2.4.4 變量的保存
2.4.5 變量的加載
2.4.6 共享變量和變量命名空間
2.5 矩陣的操作
2.5.1 矩陣的生成
2.5.2 矩陣的變換
2.6 TensorFlow數據讀取的方式
2.7 從磁盤讀取信息
2.7.1 列表格式
2.7.2 讀取圖像數據
第3章 TensorFlow編程進階
3.1 隊列與線程
3.1.1 隊列
3.1.2 隊列管理器
3.1.3 線程協調器
3.1.4 組合使用
3.2 TensorFlow嵌入Layer
3.3 生成隨機圖片數據
3.4 神經網絡
3.4.1 神經元
3.4.2 簡單神經結構
3.4.3 深度神經網絡
3.5 損失函數
3.6 梯度下降
3.6.1 標準梯度法
3.6.2 批量梯度下降法
3.6.3 隨機梯度下降法
3.6.4 小批量梯度下降法
3.6.5 線性模型的局限性
3.6.6 直線與曲線的擬合演示
3.7 反向傳播
3.7.1 求導鏈式法則
3.7.2 反向傳播算法思路
3.7.3 反向傳播算法的計算過程
3.7.4 反向傳播演示回歸與二分類算法
3.8 隨機訓練與批量訓練
3.9 創(chuàng)建分類器
3.10 模型評估
3.11 優(yōu)化函數
3.11.1 隨機梯度下降優(yōu)化算法
3.11.2 基于動量的優(yōu)化算法
3.11.3 Adagrad優(yōu)化算法
3.11.4 Adadelta優(yōu)化算法
3.11.5 Adam優(yōu)化算法
3.11.6 實例演示幾種優(yōu)化算法
第4章 TensorFlow實現線性回歸
4.1 矩陣操作實現線性回歸問題
4.1.1 逆矩陣解決線性回歸問題
4.1.2 矩陣分解法實現線性回歸
4.1.3 正則法對iris數據實現回歸分析
4.2 損失函數對iris數據實現回歸分析
4.3 戴明算法對iris數據實現回歸分析
4.4 嶺回歸與Lasso回歸對iris數據實現回歸分析
4.5 彈性網絡算法對iris數據實現回歸分析
第5章 TensorFlow實現邏輯回歸
5.1 什么是邏輯回歸
5.1.1 邏輯回歸與線性回歸的關系
5.1.2 邏輯回歸模型的代價函數
5.1.3 邏輯回歸的預測函數
5.1.4 判定邊界
5.1.5 隨機梯度下降算法實現邏輯回歸
5.2 逆函數及其實現
5.2.1 逆函數的相關函數
5.2.2 逆函數的實現
5.3 Softmax回歸
5.3.1 Softmax回歸簡介
5.3.2 Softmax的代價函數
5.3.3 Softmax回歸的求解
5.3.4 Softmax回歸的參數特點
5.3.5 Softmax與邏輯回歸的關系
5.3.6 多分類算法和二分類算法的選擇
5.3.7 計算機視覺領域實例
第6章 TensorFlow實現聚類分析
6.1 支持向量機及實現
6.1.1 重新審視邏輯回歸
6.1.2 形式化表示
6.1.3 函數間隔和幾何間隔
6.1.4 最優(yōu)間隔分類器
6.1.5 支持向量機對iris數據進行分類
6.1.6 核函數對數據點進行預測
6.1.7 非線性支持向量機創(chuàng)建山鳶尾花分類器
6.1.8 多類支持向量機對iris數據進行預測
6.2 K-均值聚類法及實現
6.2.1 K-均值聚類相關概念
6.2.2 K-均值聚類法對iris數據進行聚類
6.3 最近鄰算法及實現
6.3.1 最近鄰算法概述
6.3.2 最近鄰算法求解文本距離
6.3.3 最近鄰算法實現地址匹配
第7章 神經網絡算法
7.1 反向網絡
7.1.1 問題設置
7.1.2 反向網絡算法
7.1.3 自動微分
7.1.4 對隨機數進行反向網絡演示
7.2 激勵函數及實現
7.2.1 激勵函數的用途
7.2.2 幾種激勵函數
7.2.3 幾種激勵函數的繪圖
7.3 門函數及其實現
7.4 單層神經網絡對iris數據進行訓練
7.5 單個神經元的擴展及實現
7.6 構建多層神經網絡
7.7 實現井字棋
第8章 TensorFlow實現卷積神經網絡
8.1 全連接網絡的局限性
8.2 卷積神經網絡的結構
8.2.1 卷積層
8.2.2 池化層
8.2.3 全連接層
8.3 卷積神經網絡的訓練
8.3.1 求導的鏈式法則
8.3.2 卷積層反向傳播
8.4 卷積神經網絡的實現
8.4.1 識別0和1數字
8.4.2 預測MNIST數字
8.5 幾種經典的卷積神經網絡及實現
8.5.1 AlexNet網絡及實現
8.5.2 VGGNet網絡及實現
8.5.3 Inception Net網絡及實現
8.5.4 RestNet網絡及實現
第9章 TensorFlow實現循環(huán)神經網絡
9.1 循環(huán)神經網絡概述
9.1.1 循環(huán)神經網絡的原理
9.1.2 循環(huán)神經網絡的應用
9.1.3 損失函數
9.1.4 梯度求解
9.1.5 實現二進制數加法運算
9.1.6 實現擬合回聲信號序列
9.2 循環(huán)神經網絡的訓練
9.3 循環(huán)神經網絡的改進
9.3.1 循環(huán)神經網絡存在的問題
9.3.2 LSTM網絡
9.3.3 LSTM核心思想
9.3.4 LSTM詳解與實現
9.3.5 窺視孔連接
9.3.6 GRU網絡對MNIST數據集分類
9.3.7 BRNN網絡對MNIST數據集分類
9.3.8 CTC實現端到端訓練的語音識別模型
第10章 TensorFlow其他網絡
10.1 自編碼網絡及實現
10.1.1 自編碼網絡的結構
10.1.2 自編碼網絡的代碼實現
10.2 降噪自編碼器及實現
10.2.1 降噪自編碼器的原理
10.2.2 降噪自編碼器的實現
10.3 棧式自編碼器及實現
10.3.1 棧式自編碼器概述
10.3.2 棧式自編碼器訓練
10.3.3 棧式自編碼器進行MNIST手寫數字分類
10.3.4 代替和級聯
10.3.5 自編碼器的應用場合
10.3.6 自編碼器的綜合實現
10.4 變分自編碼器及實現
10.4.1 變分自編碼器的原理
10.4.2 損失函數
10.4.3 變分自編碼器模擬生成MNIST數據
10.5 條件變分自編碼器及實現
10.5.1 條件變分自編碼器概述
10.5.2 條件變分自編碼器生成MNIST數據
10.6 對抗神經網絡
10.6.1 對抗神經網絡的原理
10.6.2 生成模型的應用
10.6.3 對抗神經網絡的訓練方法
10.7 DCGAN網絡及實現
10.7.1 DCGAN網絡概述
10.7.2 DCGAN網絡模擬MNIST數據
10.8 InfoGAN網絡及實現
10.8.1 什么是互信息
10.8.2 互信息的下界
10.8.3 InfoGAN生成MNIST模擬數據
10.9 AEGAN網絡及實現
10.9.1 AEGAN網絡概述
10.9.2 AEGAN對MNIST數據集壓縮及重建
10.10 WGAN-GP網絡
10.10.1 WGAN網絡
10.10.2 WGAN-GP網絡生成MNIST數據集
第11章 TensorFlow機器學習綜合實戰(zhàn)
11.1 房屋價格的預測
11.1.1 K近鄰算法預測房屋價格
11.1.2 卷積神經網絡預測房屋價格
11.1.3 深度神經網絡預測房屋價格
11.2 卷積神經網絡實現人臉識別
11.3 腎癌的轉移判斷
11.4 比特幣的預測
參考文獻