| 暂存书架(0) | 登录

MARC状态:审校 文献类型:中文图书 浏览次数:69

题名/责任者:
PySpark实战指南:利用Python和Spark构建数据密集型应用并规模化部署/(美) 托马兹·卓巴斯, (美) 丹尼·李著 栾云杰, 陈瑶, 刘旭斌译
出版发行项:
北京:机械工业出版社,2017
ISBN及定价:
978-7-111-58238-0/CNY49.00
载体形态项:
xiv, 186页:图;24cm
统一题名:
Learning PySpark
其它题名:
利用Python和Spark构建数据密集型应用并规模化部署
丛编项:
大数据技术丛书
个人责任者:
卓巴斯 (Drabas, Tomasz)
个人责任者:
(Lee, Denny)
个人次要责任者:
栾云杰
个人次要责任者:
陈瑶
个人次要责任者:
刘旭斌
学科主题:
数据处理
中图法分类号:
TP274
出版发行附注:
中文简体字版由Packt Publishing授权机械工业出版社独家出版
责任者附注:
托马兹·卓巴斯 (Tomasz Drabas),微软数据科学家,拥有超过13年的数据分析经验。
责任者附注:
丹尼·李 (Denny Lee),微软Azure DocumentDB团队的首席项目经理。
提要文摘附注:
本书共11章。第1章通过技术和作业的组织等概念提供了对Spark的介绍。第2章介绍了RDD、基本原理、PySpark中可用的非模式化数据结构。第3章详细介绍了DataFrame数据结构。第4章引导读者了解在Spark环境中的数据清理和转换的过程。第5章接撒红了适用于RDD的机器学习库,并回顾了最有用的机器学习模型。第6章涵盖了当前主流的机器学习库,并提供了目前可用的所有模型的概述。第7章引导你了解能轻松利用图解决问题的新结构。第8章介绍了Spark和张量流领域中深度学习的连接桥梁。第9章描述了Blaze是如何跟Spark搭配使用以更容易地对多源数据进行抽象化的。第10章介绍了PySpark中可用的流工具。第11章逐步指导你运用命令行界面完成代码模块化并提交代码大Spark执行。
使用对象附注:
对大数据的前沿技术非常感性的人;有志于成为一名数据科学家的从业人员;有一定算法和编程基础的技术爱好者。
全部MARC细节信息>>
索书号 条码号 年卷期 馆藏地 书刊状态 还书位置
TP274/274 72219438  - 自然书库(3F东)     可借 总借还书处(2F)
TP274/274 72219439  - 自然书库(3F东)     可借 现代技术部(1F)
TP274/274 72219440  - 自然书库(3F东)     可借 总借还书处(2F)
显示全部馆藏信息
CADAL相关电子图书
借阅趋势

同名作者的其他著作(点击查看)
用户名:
密码:
验证码:
请输入下面显示的内容
  证件号 条码号 Email
 
姓名:
手机号:
送 书 地:
收藏到: 管理书架