包郵 機器學習算法+基於深度學習的自然語言處理 2本 人工智能語音識彆技術教程書籍

包郵 機器學習算法+基於深度學習的自然語言處理 2本 人工智能語音識彆技術教程書籍 下載 mobi epub pdf 電子書 2025

想要找書就要到 圖書大百科
立刻按 ctrl+D收藏本頁
你會得到大驚喜!!
店鋪: 曠氏文豪圖書專營店
齣版社: 機械工業
ISBN:9787111595137
商品編碼:28072432925

具體描述

YL19829   9787111595137 9787111593737

機器學習算法

本書采用理論與實踐相結閤的方式,在簡明扼要地闡明機器學習原理的基礎上,通過大量實例介紹瞭不同場景下機器學習算法在scikit-learn中的實現及應用。書中有大量的代碼示例及圖例,便於讀者理解和學習並實際上手操作。另一方麵,書中還有很多的延伸閱讀指導,方便讀者係統性地瞭解機器學習領域的現有技術及其發展狀況。 



譯者序
前言 
作者簡介 
審校人員簡介 
1章 機器學習簡介1
1.1 經典機器和自適應機器簡介1
1.2 機器學習的分類2
1.2.1 監督學習3
1.2.2 無監督學習5
1.2.3 強化學習7
1.3 越機器學習——深度學習和仿生自適應係統8
1.4 機器學習和大數據9
延伸閱讀10
本章小結10
2章 機器學習的重要元素11
2.1 數據格式11
2.2 可學習性13
2.2.1 欠擬閤和過擬閤15
2.2.2 誤差度量16
2.2.3 PAC學習18

2.3 統計學習方法19
2.3.1 大後驗概率學習20
2.3.2 大似然學習20
2.4 信息論的要素24
參考文獻26
本章小結26
3章 特徵選擇與特徵工程28
3.1 scikit-learn練習數據集28
3.2 創建訓練集和測試集29
3.3 管理分類數據30
3.4 管理缺失特徵33
3.5 數據縮放和歸一化33
3.6 特徵選擇和過濾35
3.7 主成分分析37
3.7.1 非負矩陣分解42
3.7.2 稀疏PCA42
3.7.3 核PCA43
3.8 原子提取和字典學習45
參考文獻47
本章小結47
4章 綫性迴歸48
4.1 綫性模型48
4.2 一個二維的例子48
4.3 基於scikit-learn的綫性迴歸和更高維50
4.4 Ridge、Lasso和ElasticNet53
4.5 隨機采樣一緻的魯棒迴歸57
4.6 多項式迴歸58
4.7 保序迴歸60
參考文獻62
本章小結62
5章 邏輯迴歸64
5.1 綫性分類64
5.2 邏輯迴歸65
5.3 實現和優化67
5.4 隨機梯度下降算法69
5.5 通過網格搜索找到優參數71
5.6 評估分類的指標73
5.7 ROC麯綫77
本章小結79
6章 樸素貝葉斯81
6.1 貝葉斯定理81
6.2 樸素貝葉斯分類器82
6.3 scikit-learn中的樸素貝葉斯83
6.3.1 伯努利樸素貝葉斯83
6.3.2 多項式樸素貝葉斯85
6.3.3 高斯樸素貝葉斯86
參考文獻89
本章小結89
7章 支持嚮量機90
7.1 綫性支持嚮量機90
7.2 scikit-learn實現93
7.2.1 綫性分類94
7.2.2 基於內核的分類95
7.2.3 非綫性例子97
7.3 受控支持嚮量機101
7.4 支持嚮量迴歸103
參考文獻104
本章小結104
8章 決策樹和集成學習105
8.1 二元決策樹105
8.1.1 二元決策106
8.1.2 不純度的衡量107
8.1.3 特徵重要度109
8.2 基於scikit-learn的決策樹分類109
8.3 集成學習113
8.3.1 隨機森林114
8.3.2 AdaBoost116
8.3.3 梯度樹提升118
8.3.4 投票分類器120
參考文獻122
本章小結122
9章 聚類基礎124
9.1 聚類簡介124
9.1.1 k均值聚類125
9.1.2 DBSCAN136
9.1.3 光譜聚類138
9.2 基於實證的評價方法139
9.2.1 同質性140
9.2.2 完整性140
9.2.3 修正蘭德指數141
參考文獻142
本章小結142
10章 層次聚類143
10.1 分層策略143
10.2 凝聚聚類143
10.2.1 樹形圖145
10.2.2 scikit-learn中的凝聚聚類147
10.2.3 連接限製149
參考文獻151
本章小結152
11章 推薦係統簡介153
11.1 樸素的基於用戶的係統153
11.2 基於內容的係統156
11.3 無模式(或基於內存的)協同過濾158
11.4 基於模型的協同過濾160
11.4.1 奇異值分解策略161
11.4.2 交替小二乘法策略163
11.4.3 用Apache Spark MLlib實現交替小二乘法策略164
參考文獻167
本章小結167
12章 自然語言處理簡介169
12.1 NLTK和內置語料庫169
12.2 詞袋策略171
12.2.1 標記172
12.2.2 停止詞的刪除174
12.2.3 詞乾提取175
12.2.4 嚮量化176
12.3 基於路透社語料庫的文本分類器例子180
參考文獻182
本章小結182
13章 自然語言處理中的主題建模與情感分析183
13.1 主題建模183
13.1.1 潛在語義分析183
13.1.2 概率潛在語義分析188
13.1.3 潛在狄利剋雷分配193
13.2 情感分析198
參考文獻202
本章小結202
14章 深度學習和TensorFlow簡介203
14.1 深度學習簡介203
14.1.1 人工神經網絡203
14.1.2 深層結構206
14.2 TensorFlow簡介208
14.2.1 計算梯度210
14.2.2 邏輯迴歸212
14.2.3 用多層感知器進行分類215
14.2.4 圖像捲積218
14.3 Keras內部速覽220
參考文獻225
本章小結225
15章 構建機器學習框架226
15.1 機器學習框架226
15.1.1 數據收集227
15.1.2 歸一化227
15.1.3 降維227
15.1.4 數據擴充228
15.1.5 數據轉換228
15.1.6 建模、網格搜索和交叉驗證229
15.1.7 可視化229
15.2 用於機器學習框架的scikit-learn工具229
15.2.1 管道229
15.2.2 特徵聯閤232
參考文獻233
本章小結233 


基於深度學習的自然語言處理

本書重點介紹瞭神經網絡模型在自然語言處理中的應用。首先介紹有監督的機器學習和前饋神經網絡的基本知識,如何將機器學習方法應用在自然語言處理中,以及詞嚮量錶示(而不是符號錶示)的應用。然後介紹更多專門的神經網絡結構,包括一維捲積神經網絡、循環神經網絡、條件生成模型和基於注意力的模型。後,討論樹形網絡、結構化預測以及多任務學習的前景。

前言
緻謝
第1章引言
1.1自然語言處理的挑戰
1.2神經網絡和深度學習
1.3自然語言處理中的深度學習
1.4本書的覆蓋麵和組織結構
1.5本書未覆蓋的內容
1.6術語
1.7數學符號
注釋
第一部分有監督分類與前饋神經網絡
第2章學習基礎與綫性模型
2.1有監督學習和參數化函數
2.2訓練集、測試集和驗證集
2.3綫性模型
2.3.1二分類
2.3.2對數綫性二分類
2.3.3多分類
2.4錶示
2.5獨熱和稠密嚮量錶示
2.6對數綫性多分類
2.7訓練和最優化
2.7.1損失函數
2.7.2正則化
2.8基於梯度的最優化
2.8.1隨機梯度下降
2.8.2實例
2.8.3其他訓練方法
第3章從綫性模型到多層感知器
3.1綫性模型的局限性:異或問題
3.2非綫性輸入轉換
3.3核方法
3.4可訓練的映射函數
第4章前饋神經網絡
4.1一個關於大腦的比喻
4.2數學錶示
4.3錶達能力
4.4常見的非綫性函數
4.5損失函數
4.6正則化與丟棄法
4.7相似和距離層
4.8嵌入層
第5章神經網絡訓練
5.1計算圖的抽象概念
5.1.1前嚮計算
5.1.2反嚮計算(導數、反嚮傳播)
5.1.3軟件
5.1.4實現流程
5.1.5網絡構成
5.2實踐經驗
5.2.1優化算法的選擇
5.2.2初始化
5.2.3重啓與集成
5.2.4梯度消失與梯度爆炸
5.2.5飽和神經元與死神經元
5.2.6隨機打亂
5.2.7學習率
5.2.8minibatch
第二部分處理自然語言數據
第6章文本特徵構造
6.1NLP分類問題中的拓撲結構
6.2NLP問題中的特徵
6.2.1直接可觀測特徵
6.2.2可推斷的語言學特徵
6.2.3核心特徵與組閤特徵
6.2.4n元組特徵
6.2.5分布特徵
第7章NLP特徵的案例分析
7.1文本分類:語言識彆
7.2文本分類:主題分類
7.3文本分類:作者歸屬
7.4上下文中的單詞:詞性標注
7.5上下文中的單詞:命名實體識彆
7.6上下文中單詞的語言特徵:介詞詞義消歧
7.7上下文中單詞的關係:弧分解分析
第8章從文本特徵到輸入
8.1編碼分類特徵
8.1.1獨熱編碼
8.1.2稠密編碼(特徵嵌入)
8.1.3稠密嚮量與獨熱錶示
8.2組閤稠密嚮量
8.2.1基於窗口的特徵
8.2.2可變特徵數目:連續詞袋
8.3獨熱和稠密嚮量間的關係
8.4雜項
8.4.1距離與位置特徵
8.4.2補齊、未登錄詞和詞丟棄
8.4.3特徵組閤
8.4.4嚮量共享
8.4.5維度
8.4.6嵌入的詞錶
8.4.7網絡的輸齣
8.5例子:詞性標注
8.6例子:弧分解分析
第9章語言模型
9.1語言模型任務
9.2語言模型評估:睏惑度
9.3語言模型的傳統方法
9.3.1延伸閱讀
9.3.2傳統語言模型的限製
9.4神經語言模型
9.5使用語言模型進行生成
9.6副産品:詞的錶示
第10章預訓練的詞錶示
10.1隨機初始化
10.2有監督的特定任務的預訓練
10.3無監督的預訓練
10.4詞嵌入算法
10.4.1分布式假設和詞錶示
10.4.2從神經語言模型到分布式錶示
10.4.3詞語聯係
10.4.4其他算法
10.5上下文的選擇
10.5.1窗口方法
10.5.2句子、段落或文檔
10.5.3句法窗口
10.5.4多語種
10.5.5基於字符級彆和子詞的錶示
10.6處理多字單元和字變形
10.7分布式方法的限製
第11章使用詞嵌入
11.1詞嚮量的獲取
11.2詞的相似度
11.3詞聚類
11.4尋找相似詞
11.5同中選異
11.6短文檔相似度
11.7詞的類比
11.8改裝和映射
11.9實用性和陷阱
第12章案例分析:一種用於句子意義推理的前饋結構
12.1自然語言推理與 SNLI數據集
12.2文本相似網絡
第三部分特殊的結構
第13章n元語法探測器:捲積神經網絡
13.1基礎捲積池化
13.1.1文本上的一維捲積
13.1.2嚮量池化
13.1.3變體
13.2其他選擇:特徵哈希
13.3層次化捲積
第14章循環神經網絡:序列和棧建模
14.1RNN抽象描述
14.2RNN的訓練
14.3RNN常見使用模式
14.3.1接收器
14.3.2編碼器
14.3.3傳感器
14.4雙嚮RNN
14.5堆疊RNN
14.6用於錶示棧的RNN
14.7文獻閱讀的注意事項
第15章實際的循環神經網絡結構
15.1作為RNN的CBOW
15.2簡單RNN
15.3門結構
15.3.1長短期記憶網絡
15.3.2門限循環單元
15.4其他變體
15.5應用到RNN的丟棄機製
第16章通過循環網絡建模
16.1接收器
16.1.1情感分類器
16.1.2主謂一緻語法檢查
16.2作為特徵提取器的RNN
16.2.1詞性標注
16.2.2RNN�睠NN文本分類
16.2.3弧分解依存句法分析
第17章條件生成
17.1RNN生成器
17.2條件生成(編碼器解碼器)
17.2.1序列到序列模型
17.2.2應用
17.2.3其他條件上下文
17.3無監督的句子相似性
17.4結閤注意力機製的條件生成
17.4.1計算復雜性
17.4.2可解釋性
17.5自然語言處理中基於注意力機製的模型
17.5.1機器翻譯
17.5.2形態屈摺
17.5.3句法分析
第四部分其他主題
第18章用遞歸神經網絡對樹建模
18.1形式化定義
18.2擴展和變體
18.3遞歸神經網絡的訓練
18.4一種簡單的替代——綫性化樹
18.5前景
第19章結構化輸齣預測
19.1基於搜索的結構化預測
19.1.1基於綫性模型的結構化預測
19.1.2非綫性結構化預測
19.1.3概率目標函數(CRF)
19.1.4近似搜索
19.1.5重排序
19.1.6參考閱讀
19.2貪心結構化預測
19.3條件生成與結構化輸齣預測
19.4實例
19.4.1基於搜索的結構化預測:一階依存句法分析
19.4.2基於Neural�睠RF的命名實體識彆
19.4.3基於柱搜索的NER�睠RF近似
第20章級聯、多任務與半監督學習
20.1模型級聯
20.2多任務學習
20.2.1多任務設置下的訓練
20.2.2選擇性共享
20.2.3作為多任務學習的詞嵌入預訓練
20.2.4條件生成中的多任務學習
20.2.5作為正則的多任務學習
20.2.6注意事項
20.3半監督學習
20.4實例
20.4.1眼動預測與句子壓縮
20.4.2弧標注與句法分析
20.4.3介詞詞義消歧與介詞翻譯預測
20.4.4條件生成:多語言機器翻譯、句法分析以及圖像描述生成
20.5前景
第21章結論
21.1我們學到瞭什麼
21.2未來的挑戰
參考文獻


用戶評價

評分

評分

評分

評分

評分

評分

評分

評分

評分

相關圖書

本站所有內容均為互聯網搜尋引擎提供的公開搜索信息,本站不存儲任何數據與內容,任何內容與數據均與本站無關,如有需要請聯繫相關搜索引擎包括但不限於百度google,bing,sogou

© 2025 book.qciss.net All Rights Reserved. 圖書大百科 版權所有