PySpark實戰指南:利用Python和Spark構建數據密集型應用並…|6877019

PySpark實戰指南:利用Python和Spark構建數據密集型應用並…|6877019 下載 mobi epub pdf 電子書 2024


簡體網頁||繁體網頁
美 托馬茲 卓巴斯Tomasz Drab 著,欒雲傑 陳瑤 劉旭斌 譯



點擊這裡下載
    


想要找書就要到 圖書大百科
立刻按 ctrl+D收藏本頁
你會得到大驚喜!!

發表於2024-12-21

類似圖書 點擊查看全場最低價

圖書介紹

店鋪: 互動齣版網圖書專營店
齣版社: 機械工業齣版社
ISBN:9787111582380
商品編碼:20047031785
叢書名: 大數據技術叢書
齣版時間:2017-11-01


相關圖書





圖書描述

 書[0名0]:  PySpark實戰指南:利用Python和Spark構建數據密集型應用並規模化部署|6877019
 圖書定價:  49元
 圖書作者:  (美)托馬茲·卓巴斯(Tomasz Drabas);(美)丹尼·李(Denny Lee)
 齣版社:  機械工業齣版社
 齣版日期:  2017/11/1 0:00:00
 ISBN號:  9787111582380
 開本:  16開
 頁數:  0
 版次:  1-1
 作者簡介
托馬茲·卓巴斯(Tomasz Drabas)工作於微軟,是一[0名0]數據科[0學0]傢,現居住在西雅圖地區。他擁有[0超0]過13年的數據分析和數據科[0學0]經驗:在歐洲、澳[0大0]利亞和北美洲三[0大0]洲期間,工作[0領0]域遍及先進技術、航空、電信、金融和谘詢。在澳[0大0]利亞期間,托馬茲一直緻力於運籌[0學0]博士[0學0]位,重點是航空業中的選擇建模和收入管理應用。
在微軟,托馬茲每天都和[0大0]數據打交道,解決機器[0學0]習問題,如異常檢測、流失預測和使用Spark的模式識彆。
托馬茲還撰寫瞭《Practical Data Analysis Cookbook》,該書由Packt Publishing於2016年齣版。
我要感謝我的傢人Rachel、Skye 和Albert,你們是我生命中的摯愛,我很珍惜與你們度過的每一天!謝謝你們永遠站在我身邊,鼓勵我一步步接近我的職業目標。另外,感謝所有的親人們。
多年來,還有很多人影響瞭我,我得再寫一本書來感謝他們。你們[0知0]道,我從心底謝謝你們!
不過,如果不是Czesia Wieruszewska,我不[0會0]得到博士[0學0]位。還有Krzys Krzysztoszek,你一直相信我!謝謝!
丹尼·李(Denny Lee)是微軟Azure DocumentDB團隊的[0首0]席項目經理,該團隊緻力於為微軟發展高效性、重量級的托管文檔存儲服務。他是一[0名0]喜歡實踐的分布式係統和數據科[0學0]工程師,擁有[0超0]過18年的互聯網級彆基礎架構、數據平颱和預測分析係統的開發經驗,這些經驗可用於內部部署和雲環境。
他在組建新團隊以及促進轉型、改革方麵擁有豐富的經驗。在加入Azure DocumentDB團隊之前,丹尼曾擔任Databricks的技術傳播專員,他從Apache Spark 0.5時就一直在使用Apache Spark。他還是Concur數據科[0學0]工程的高級總監,曾就職於構建瞭微軟Windows和Azure服務(目前稱為HDInsight)的Hadoop的孵化團隊。丹尼還擁有俄勒岡州健康和科[0學0][0大0][0學0]的生物醫[0學0]信息碩士[0學0]位,並在過去15年中為企業醫療保健客戶構建和實施瞭強[0大0]的數據解決方案。
我要感謝我的好妻子Hua-Ping,還有我齣色的女兒Isabella和S [a0m0a0] ntha。是你們讓我保持清醒,幫我實現瞭夢寐以求的願望!
 目錄

譯者序

前言
關於作者
[0第0]1章 瞭解Spark 1
1.1 什麼是Apache Spark 1
1.2 Spark作業和API 2
1.2.1 執行過程 2
1.2.2 彈性分布式數據集 3
1.2.3 DataFrame 4
1.2.4 Dataset 5
1.2.5 Catalyst[0優0]化器 5
1.2.6 鎢絲計劃 5
1.3 Spark 2.0的架構 6
1.3.1 統一Dataset和DataFrame 7
1.3.2 SparkSession介紹 8
1.3.3 Tungsten Phase 2 8
1.3.4 結構化流 10
1.3.5 連續應用 10
1.4 小結 11
[0第0]2章 彈性分布式數據集 12
2.1 RDD的內部運行方式 12
2.2 創建RDD 13
2.2.1 Schema 14
2.2.2 從文件讀取 14
2.2.3 Lambda錶達式 15
2.3 全局作用域和局部作用域 16
2.4 轉換 17
2.4.1 .map(...)轉換 17
2.4.2 .filter(...)轉換 18
2.4.3 .flatMap(...)轉換 18
2.4.4 .distinct(...)轉換 18
2.4.5 .sample(...)轉換 19
2.4.6 .leftOuterJoin(...)轉換 19
2.4.7 .repartition(...)轉換 20
2.5 操作 20
2.5.1 .take(...)方[0法0] 21
2.5.2 .collect(...)方[0法0] 21
2.5.3 .reduce(...)方[0法0] 21
2.5.4 .count(...)方[0法0] 22
2.5.5 .saveAsTextFile(...)方[0法0] 22
2.5.6 .foreach(...)方[0法0] 23
2.6 小結 23
[0第0]3章 DataFrame 24
3.1 Python到RDD之間的通信 24
3.2 Catalyst[0優0]化器刷新 25
3.3 利用DataFrame加速PySpark 27
3.4 創建DataFrame 28
3.4.1 生成自己的JSON數據 29
3.4.2 創建一個DataFrame 29
3.4.3 創建一個臨時錶 30
3.5 簡單的DataFrame查詢 31
3.5.1 DataFrame API查詢 32
3.5.2 SQL查詢 32
3.6 RDD的交互操作 33
3.6.1 使用反射來推斷模式 33
3.6.2 編程指定模式 34
3.7 利用DataFrame API查詢 35
3.7.1 行數 35
3.7.2 運行篩選語句 35
3.8 利用SQL查詢 36
3.8.1 行數 36
3.8.2 利用where子句運行篩選語句 36
3.9 DataFrame場景——實時飛行性能 38
3.9.1 準備源數據集 38
3.9.2 連接飛行性能和機場 39
3.9.3 可視化飛行性能數據 40
3.10 Spark數據集(Dataset)API 41
3.11 小結 42
[0第0]4章 準備數據建模 43
4.1 檢查重復數據、未觀測數據和異常數據(離群值) 43
4.1.1 重復數據 43
4.1.2 未觀測數據 46
4.1.3 離群值 50
4.2 熟悉你的數據 51
4.2.1 描述性統計 52
4.2.2 相關性 54
4.3 可視化 55
4.3.1 直方圖 55
4.3.2 特徵之間的交互 58
4.4 小結 60
[0第0]5章 MLlib介紹 61
5.1 包概述 61
5.2 加載和轉換數據 62
5.3 瞭解你的數據 65
5.3.1 描述性統計 66
5.3.2 相關性 67
5.3.3 統計測試 69
5.4 創建終數據集 70
5.4.1 創建LabeledPoint形式的RDD 70
5.4.2 分隔培訓和測試數據 71
5.5 預測嬰兒生存機[0會0] 71
5.5.1 MLlib中的邏輯迴歸 71
5.5.2 隻選擇可預測的特徵 72
5.5.3 MLlib中的隨機森林 73
5.6 小結 74
[0第0]6章 ML包介紹 75
6.1 包的概述 75
6.1.1 轉換器 75
6.1.2 [0評0]估器 78
6.1.3 管道 80
6.2 使用ML預測嬰兒生存幾率 80
6.2.1 加載數據 80
6.2.2 創建轉換器 81
6.2.3 創建一個[0評0]估器 82
6.2.4 創建一個管道 82
6.2.5 擬閤模型 83
6.2.6 [0評0]估模型的性能 84
6.2.7 保存模型 84
6.3 [0超0]參調[0優0] 85
6.3.1 網格搜索[0法0] 85
6.3.2 Train-validation 劃分 88
6.4 使用PySpark ML的其他功能 89
6.4.1 特徵提取 89
6.4.2 分類 93
6.4.3 聚類 95
6.4.4 迴歸 98
6.5 小結 99
[0第0]7章 GraphFrames 100
7.1 GraphFrames介紹 102
7.2 安裝GraphFrames 102
7.2.1 創建庫 103
7.3 準備你的航班數據集 105
7.4 構建圖形 107
7.5 執行簡單查詢 108
7.5.1 確定機場和航班的數量 108
7.5.2 確定這個數據集中的長延誤時間 108
7.5.3 確定延誤和準點/早到航班的數量對比 109
7.5.4 哪一班從西雅圖齣發的航班有可能齣現重[0大0]延誤 109
7.5.5 西雅圖齣發到哪個州的航班有可能齣現重[0大0]延誤 110
7.6 理解節點的度 110
7.7 確定[0大0]的中轉機場 112
7.8 理解Motif 113
7.9 使用PageRank確定機場排[0名0] 114
7.10 確定受歡迎的直飛航班 115
7.11 使用廣度[0優0]先搜索 116
7.12 使用D3將航班可視化 118
7.13 小結 119
[0第0]8章 TensorFrames 120
8.1 深度[0學0]習是什麼 120
8.1.1 神經網絡和深度[0學0]習的必要性 123
8.1.2 特徵工程是什麼 125
8.1.3 橋接數據和算[0法0] 125
8.2 TensorFlow是什麼 127
8.2.1 安裝PIP 129
8.2.2 安裝TensorFlow 129
8.2.3 使用常量進行矩陣乘[0法0] 130
8.2.4 使用placeholder進行矩陣乘[0法0] 131
8.2.5 討論 132
8.3 TensorFrames介紹 133
8.4 TensorFrames快速入門 134
8.4.1 配置和設置 134
8.4.2 使用TensorFlow嚮已有列添加常量 136
8.4.3 Blockwise reducing操作示例 137
8.5 小結 139
[0第0]9章 使用Blaze實現混閤持久化 141
9.1 安裝Blaze 141
9.2 混閤持久化 142
9.3 抽象數據 143
9.3.1 使用NumPy 數組 143
9.3.2 使用pandas的DataFrame 145
9.3.3 使用文件 145
9.3.4 使用數據庫 147
9.4 數據操作 149
9.4.1 訪問列 150
9.4.2 符號轉換 150
9.4.3 列的操作 151
9.4.4 降階數據 152
9.4.5 連接 154
9.5 小結 156
[0第0]10章 結構化流 157
10.1 什麼是Spark Streaming 157
10.2 為什麼需要Spark Streaming 159
10.3 Spark Streaming應用程序數據流是什麼 160
10.4 使用DStream簡化Streaming應用程序 161
10.5 全局聚閤快速入門 165
10.6 結構化流介紹 168
10.7 小結 172
[0第0]11章 打包Spark應用程序 173
11.1 spark-submit命令 173
11.2 以編程方式部署應用程序 176
11.2.1 配置你的SparkSession 176
11.2.2 創建SparkSession 177
11.2.3 模塊化代碼 177
11.2.4 提交作業 180
11.2.5 監控執行 182
11.3 Databricks作業 184
11.4 小結 186

PySpark實戰指南:利用Python和Spark構建數據密集型應用並…|6877019 下載 mobi epub pdf txt 電子書 格式

PySpark實戰指南:利用Python和Spark構建數據密集型應用並…|6877019 mobi 下載 pdf 下載 pub 下載 txt 電子書 下載 2024

PySpark實戰指南:利用Python和Spark構建數據密集型應用並…|6877019 下載 mobi pdf epub txt 電子書 格式 2024

PySpark實戰指南:利用Python和Spark構建數據密集型應用並…|6877019 下載 mobi epub pdf 電子書
想要找書就要到 圖書大百科
立刻按 ctrl+D收藏本頁
你會得到大驚喜!!

用戶評價

評分

評分

評分

評分

評分

評分

評分

評分

評分

類似圖書 點擊查看全場最低價

PySpark實戰指南:利用Python和Spark構建數據密集型應用並…|6877019 mobi epub pdf txt 電子書 格式下載 2024


分享鏈接




相關圖書


本站所有內容均為互聯網搜索引擎提供的公開搜索信息,本站不存儲任何數據與內容,任何內容與數據均與本站無關,如有需要請聯繫相關搜索引擎包括但不限於百度google,bing,sogou

友情鏈接

© 2024 book.qciss.net All Rights Reserved. 圖書大百科 版權所有