本书从应用角度系统讲解了YARN的基本库和组件用法、应用程序设计方法、YARN上流行的各种计算框架(MapReduce、Tez、Storm、Spark),以及多个类YARN的开源资源管理系统(Corona和Mesos);从源代码角度深入分析YARN的设计理念与基本架构、各个组件的实现原理,以及各种计算框架的实现细节。
全书共四部分13章:第一部分(第1~2章)主要介绍了如何获取、阅读和调试Hadoop的源代码,以及YARN的设计思想、基本架构和工作流程;第二部分(第3~7章)结合源代码详细剖析和讲解了YARN的第三方开源库、底层通信库、服务库、事件库的基本使用和实现细节,详细讲解了YARN的应用程序设计方法,深入讲解和分析了ResourceManager、资源调度器、NodeManager等组件的实现细节;第三篇(第8~10章)则对离线计算框架MapReduce、DAG计算框架Tez、实时计算框架Storm和内存计算框架Spark进行了详细的讲解;第四部分(第11~13章)首先对Facebook Corona和Apache Mesos进行了深入讲解,然后对YARN的发展趋势进行了展望。附录部分收录了YARN安装指南、YARN配置参数以及Hadoop Shell命令等非常有用的资料。
《Hadoop技术内幕:深入解析MapReduce架构设计与实现原理》内容简介:“Hadoop技术内幕”共两册,分别从源代码的角度对“Common+HDFS”和“MapReduce的架构设计和实现原理”进行了极为详细的分析。《Hadoop技术内幕:深入解析MapReduce架构设计与实现原理》由Hadoop领域资深的实践者亲自执笔,首先介绍了MapReduce的设计理念和编程模型,然后从源代码的角度深入分析了RPC框架、客户端、JobTracker、TaskTracker和Task等MapReduce运行时环境的架构设计与实现原理,最后从实际应用的角度深入讲解了Hadoop的性能优化、安全机制、多用户作业调度器和下一代MapReduce框架等高级主题和内容。《Hadoop技术内幕:深入解析MapReduce架构设计与实现原理》适合Hadoop的二次开发人员、应用开发工程师、运维工程师阅读。
海报:
本书共16章,分三个部分:基础篇、实战篇、提高篇。基础篇介绍了数据挖掘的基本原理,实战篇介绍了一个个真实案例,通过对案例深入浅出的剖析,使读者在不知不觉中通过案例实践获得数据挖掘项目经验,同时快速领悟看似难懂的数据挖掘理论。读者在阅读过程中,应充分利用随书配套的案例建模数据,借助相关的数据挖掘建模工具,通过上机实验,以快速理解相关知识与理论。高级篇介绍了基于R语言二次开发的数据挖掘应用软件,使读者体验到数据挖掘二次的开发的魅力
Apache Kylin是Hadoop大数据平台上的一个开源OLAP引擎,将大数据的查询速度和并发性能提升至原来的百倍以上,为超大规模数据集上的交互式大数据分析打开了大门。本书由Apache Kylin核心开发团队编写,系统地介绍了Apache Kylin安装、入门、可视化、模型调优、运维、二次开发等各个方面,是关于Apache Kylin的权威指南。
第1章和第2章是基本概念和快速入门,为初学者打下坚实基础。第3章和第4章介绍增量构建和进阶的流式构建,应对数据的持续增长。第5章展示丰富的查询接口和其上的可视化能力。第6章则重点讲解了Cube模型和调优,它们是用好Apache Kylin,提升百倍性能的关键。第7章通过一系列有行业特点的具体案例分析,贯穿之前的所有概念,温故知新。第8章介绍可扩展架构和二次开发接口,适合开发者。第9章则介绍企业级功能、用户的认证和授权相关知识。第10章着重于安装和企业级部署、运维管理等内容。第11章和第12章分别说明如何参与和贡献到开源,以及Apache Kylin的未来。
数字原生
2010年11月,在Greenplum创始人的支持下,我们在北京建立了Greenplum中国研发体系。2013年4月,随着Pivotal公司的建立,我们在Greenplum中国研发的基础上合并了部分VMWare中国研发集团的P层云资产,建立了Pivotal中国办公室。截至本书完稿的时候,我们的中国核心研发团队和全球研发团队一起奋斗了8年,打造的Cloud Foundry产品和Greenplum产品成为Pivotal公司在纽约证券交易所上市荣登PaaS第一股的基础。作为Pivotal中国办公室的创始团队,我们一直在审视和提升Pivotal中国办公室的使命和愿景。高尚的使命和愿景是促使一个机构达到世界一流水平的必要条件,因为使命和愿景比战略更高一层。一个机构在前进的过程中,其战略不可避免地需要调整。在面对战略调整时,如果组织成员缺乏共同的使命和愿景,就很难在变化中存活下来。以PC行业为例,苹果公司由最初的苹果电脑公司(Apple Computers)发展到今天苹果(Apple)公司,业务也从以PC为重心迁移到以移动和云服务为重心。苹果公司的转型一路颠簸但最终成功,这与它们坚持艺术和科技的融合并提供一流的用户体验的使命是分不开的。对于不少没有完成转型的PC企业,仔细观察一下,会发现它们通常不能清楚地表达自己的使命。
那么Pivotal中国办公室的使命是什么?简单地说,是支持全球Pivotal产品和商业战略的成功。但是,这个回答显然不能说服和召集一批学霸把Pivotal中国办公室变成世界一流的创新机构。作者有幸参与Pivotal公司在EMC和VMWare内部的启动倡议(Pivotal Initiative),聆听到董事长Paul Maritz先生对Pivotal宣言(Manifesto)的解读。中国读者可能还不熟悉Maritz先生,根据维基百科的介绍,他是微软Windows平台的主要执行团队成员,负责过Windows 95和Windows NT等关键产品。在创建Pivotal之前,Maritz先生是VMWare公司的CEO,奠定了VMWare在虚拟化和I层云的行业领导地位。鉴于Maritz先生在业内的声望,作者仔仔细细阅读了他撰写的三页纸篇幅的Pivotal宣言,并且思考了Pivotal中国办公室如何既能拥抱Pivotal宣言又能在自己专注的领域成为国内意见领袖。今天,Pivotal的使命用一句话描述就是“The Way The Future Gets Built”,用中文直接翻译过来就是“构建未来的方式”。这句话显得有些抽象,所以在Pivotal中国办公室的日常事务中,我们会针对不同的团队来细化这句话:对于面向数字化转型客户的Pivotal Lab团队,这句话被表述为“交付一流的数字化转型体验”;对于云研发团队,这句话被表达为“通过Cloud Foundry云平台成为云原生平台的行业标杆”;对于数据库研发团队,这句话被阐述为“通过Greenplum成为大数据平台和机器学习的意见领袖”。这些使命背后的共同愿景就是提供“数字原生”世界的新产能,以及企业建立数字化所需要的软件平台和方法论。
数字原生就是从由物理世界为重心向数字世界为中心迁移时思考问题的方式。数字计算机发明之前,我们几乎没有什么数字资产和技术。数字计算机发明至今,我们对于数字资产的积累呈指数级增长,在我国更是呈现出跨越式发展的态势。举个例子,今天,如果我们出门不带手机,就会感觉寸步难行,本质上是因为手机已经成为我们进入数字世界的入口。通过手机,我们可以向数字世界发出各种请求,调度物理世界的资源为我们所用。Pivotal公司喜欢以“ask+综合部门@pivotal.io”的邮件方式来获得综合部门的支持。早期行政部门的同事刚加入Pivotal公司的时候常问我:“为什么不面对面请求,或者打个电话,又或者开个单子?”我的回答是这几种方式看似差别不大,但反映了思考问题方式的差别。Pivotal公司作为数字化的领导者,把软件和数据平台看作数字世界的入口。我们获取资源的方式是向这个数字世界发出请求。数字世界可能通过它的计算找到最优执行路径。有些工作的执行可能还需要转发给人进行人工处理,例如安装一台打印机。但是,有些请求则可以直接通过软件方式解决,例如申请一台云服务器。对于某些请求,虽然我们今天还无法完全以全数字化、无人干预的方式完成,但是,我们可以先把数字原生的框架奠定起来,为以后的进一步对接和持续改进做好准备。在作者看来,数字原生的持续改进过程分为三个阶段:
1)软件公司:通过数字应用实现数字世界和物理世界的无缝交互。
2)数据公司:通过大数据平台实现数据积累和数学模型运行支撑。
3)数学公司:通过数学模型的持续改进来最优化数字世界和物理世界资源。
因此,作者和团队希望能够以三部对应的著作(下面简称为“数字化三部曲”)在数字原生的征程上为读者提供战略参考和对应的软件平台及工具指导。
第一部曲:《Cloud Foundry:从数字化战略到实现》—这本书的主要目标是阐述企业如何实现数字原生第一阶段:实现数字化应用。该书讨论了云计算作为第三代技术平台带来的商业模式变更。在云计算的技术栈中,P层云带动了企业数字化浪潮。传统企业通过P层云可以迅速获得顶级互联网公司的软件迭代和发布速度,把与客户的交互通过消费级的应用数字化。书中例举福特公司通过FordPass建立了以汽车实体产品为核心的一系列用户数字化体验:汽车金融、远程监控车辆、停车位预留、旅途产品和服务推荐等。这个阶段也是一个持续改进的过程。以共享出行为例,今天用户通过手机平台进入数字世界,在打车应用中发送订单。打车平台通过选择最优执行路径,把订单发送给打车平台的司机。然后,司机在物理世界中驱车到达用户起点。随着有辅助的无人驾驶技术的成熟,这个数字世界的运行链条会继续延长,数字平台可以直接把无人车派送到用户起点。在其他的行业,数字应用的链条同样也在持续延长。
第二部曲:《Greenplum:从大数据战略到实现》(也就是本书)—我们的主要目的是阐述企业如何实现数字原生的第二阶段:大数据平台。随着数字应用的链条不断延长,企业需要一个大数据平台来积累应用生成的数据。这个工作听上去很容易,因为人们很早以前就使用磁带来存储数据,之后,存储媒介发生了巨大的变化,能够便捷地存储大量数据。那么为何还需要Greenplum这样一个大数据和机器学习平台?原因有两个:1)量大;2)快速计算。说到大,当数据量达到PB级别(相当于16000个64GB的iPhone中存储的数据)时,企业利用廉价但是可靠的存储来备份和管理是非常困难的。说到快,想象让用户从16000个iPhone的数据中寻找一张5年前的照片就可以感受到大海捞针般的困难;更何况企业的数据平台要支撑的机器学习和人工智能的数学模型的复杂度要比寻找一张照片的复杂度高几十到几万倍。可见,要想用极快的速度处理如此海量的数据是极其困难的。这也是企业在构建大数据平台时步履维艰的原因。Greenplum团队的优秀专家用企业积累了15年的知识和创新来解决这些难题:如何利用低价的存储设备来实现高可靠的数据存储?数据的存储如何为今天模型的计算做准备?如何给模型提供简单但又标准的接口?数据管理如何在“便于存储”和“便于日后查找”之间取得平衡?如何利用现在的I层云计算资源?如何访问文本和地理位置信息等各种数据源?如何访问和计算存储在其他系统(例如Hadoop)的数据?如何支撑今天主流的人工智能和机器学习模型?我们在创新过程中触碰到了很多计算机科学本身的极限。希望这本著作能给读者呈现一个解决了上述问题并可以实操的大数据平台和战略。
我们还在酝酿的第三部著作希望能帮助读者更好地实现数字原生的第三阶段:机器学习和人工智能。企业通过第一阶段和第二阶段的努力捕获和存储了大量的数据。为了更好地理解用户的需求,不少企业进入了更高阶的数字化战略:大数据驱动的机器学习和人工智能。在这个阶段的竞争中,企业会增设一个新的岗位:数据科学家。数据科学家会在大数据平台上创造和优化数学模型,以期待改进数字世界和物理世界的运作来更好地为人服务。前两部曲提供了软件工具和方法论以帮助企业成为基于大数据的人工智能和机器学习战略的数学公司,不少企业在实践过程中希望作者能够分享实践案例并就企业领导力转变提供咨询。考虑到这样一本著作的出版需要两年以上的时间,碰巧出版社和作者看到了顶级大数据咨询公司Booz Allen Hamilton的两位高管收集了大量实际案例的著作《The Mathematical Corporation: Where Machine Intelligence and Human Ingenuity Achieve the Impossible》,其中关于“数学公司”的提法和作者的观点不谋而合。通过出版社的努力,作者和团队把这部著作翻译成中文著作,可以作为第二部曲的伴侣著作来阅读。
虽然数字原生第三阶段的探讨还在创新者和早期用户者群体中进行,但是第二阶段大数据平台的建设已经在中国如火如荼地展开。大数据平台在数字原生三部曲中扮演了承上启下的关键角色,中大型的公司已经将大数据纳入信息平台的建设方案中。Greenplum因为开源生态和杰出的创新能力被列为方案的候选技术选项,这也使Pivotal中国办公室的同事们倍感欣慰。伴随Greenplum生态的持续发展壮大,希望这部著作能给企业高层制定战略提供建议和参考,既帮助工程团队开发应用,又能指导运营团队运维和保障。
本书内容组织方式
Greenplum经过15年的精心打磨,成为出色的开源MPP数据库和数据处理基础平台,已应用于银行、保险、证券、电信、物流、安保、零售、能源和广告等行业。我们希望本书能给已经建立或者准备建立大数据平台的企业决策者、架构师、开发人员、数据工程师、数据科学家和数据库管理员带来帮助,也希望从事大数据科研工作的教育工作者和学生能从中受益。
本书分为四个部分。
第一部分介绍大数据战略。其中,第1章将分享作者对于ABC(人工智能、大数据和云计算)之间关系的理解以及对人和人工智能的思考。第2章将介绍进取型企业为什么需要大数据战略以及如何建立大数据战略。
第二部分介绍大数据平台。其中,第3章将以数据平台演进历史和未来趋势为主题,描述三次整合的背景及影响,介绍选择大数据平台需要考虑的因素,以及为什么Greenplum是理想的大数据平台。第4章为Greenplum数据库快速入门指南。第5章将介绍Greenplum架构的主要特点和核心引擎。第6章将介绍数据加载、数据联邦和数据虚拟化。第7章将介绍Greenplum的资源管理以及对混合负载的支持。
第三部分介绍机器学习与数据分析。其中,第8章介绍Greenplum的各种过程化编程语言(用户自定义函数),用户可以使用Python、R、Java等语言实现用户自定义函数,还可以通过容器化技术实现自定义函数的安全性和隔离性。第9章将介绍Greenplum内建的机器学习库MADlib,数据科学家可以使用内建的50多种机器学习算法基于SQL对数据进行高级分析,并介绍如何扩展MADlib以实现新算法。第10章和第11章将分别介绍Greenplum如何对文本数据和时空数据(GIS)进行存储、计算和分析。第12章将介绍Greenplum丰富的图计算能力。
第四部分介绍运维管理和数据迁移。其中,第13章将介绍各种监控和管理工具及相关企业级产品。第14章介绍数据库备份、恢复和迁移。第15章和第16章将分别介绍如何从Oracle和Teradata迁移到Greenplum。
限于作者学识,本书难免有疏漏之处,恳请同行和各位读者批判指正,我们将不胜感激。您可以通过数字化三部曲的官网(DigitX.cn)或Greenplum中文官方社区(greenplum.cn)给我们留言并了解Greenplum的技术信息、获得著作的相关学习资源。
《大规模分布式存储系统:原理解析与架构实战》是分布式系统领域的经典著作,由阿里巴巴高级技术专家“阿里日照”(OceanBase核心开发人员)撰写,阳振坤、章文嵩、杨卫华、汪源、余锋(褚霸)、赖春波等来自阿里、新浪、网易和百度的资深技术专家联袂推荐。理论方面,不仅讲解了大规模分布式存储系统的核心技术和基本原理,而且对谷歌、亚马逊、微软和阿里巴巴等国际型大互联网公司的大规模分布式存储系统进行了分析;实战方面,首先通过对阿里巴巴的分布式数据库OceanBase的实现细节的深入剖析完整地展示了大规模分布式存储系统的架构与设计过程,然后讲解了大规模分布式存储技术在云计算和大数据领域的实践与应用。
《大规模分布式存储系统:原理解析与架构实战》内容分为四个部分:基础篇——分布式存储系统的基础知识,包含单机存储系统的知识,如数据模型、事务与并发控制、故障恢复、存储引擎、压缩/解压缩等;分布式系统的数据分布、复制、一致性、容错、可扩展性等。范型篇——介绍谷歌、亚马逊、微软、阿里巴巴等著名互联网公司的大规模分布式存储系统架构,涉及分布式文件系统、分布式键值系统、分布式表格系统以及分布式数据库技术等。实践篇——以阿里巴巴的分布式数据库OceanBase为例,详细介绍分布式数据库内部实现,以及实践过程中的经验。专题篇——介绍分布式系统的主要应用:云存储和大数据,这些是近年来的热门领域,本书介绍了云存储平台、技术与安全,以及大数据的概念、流式计算、实时分析等。
暂无详细内容介绍,四海清单 MKList.com
《Spark大数据处理:技术、应用与性能优化》根据最新技术版本,系统、全面、详细讲解Spark的各项功能使用、原理机制、技术细节、应用方法、性能优化,以及BDAS生态系统的相关技术。
作为一个基于内存计算的大数据并行计算框架,Spark不仅很好地解决了数据的实时处理问题,而且保证了高容错性和高可伸缩性。具体来讲,它有如下优势:
打造全栈多计算范式的高效数据流水线
轻量级快速处理
易于使用,支持多语言
与HDFS等存储层兼容
社区活跃度高
……
Spark已经在全球范围内广泛使用,无论是Intel、Yahoo!、Twitter、阿里巴巴、百度、腾讯等国际互联网巨头,还是一些尚处于成长期的小公司,都在使用Spark。本书作者结合自己在微软和IBM实践Spark的经历和经验,编写了这本书。站着初学者的角度,不仅系统、全面地讲解了Spark的各项功能及其使用方法,而且较深入地探讨了Spark的工作机制、运行原理以及BDAS生态系统中的其他技术,同时还有一些可供操作的案例,能让没有经验的读者迅速掌握Spark。更为重要的是,本书还对Spark的性能优化进行了探讨。
随着云计算技术的兴起和普及,云计算基石:分布式共享存储系统受到业界的重视。Ceph以其稳定、高可用、可扩展的特性,乘着开源云计算管理系统OpenStack的东风,迅速成为最热门的开源分布式存储系统。
Ceph作为一个开源的分布式存储系统,人人都可以免费获得其源代码,并能够安装部署,但是并不等于人人都能用起来,人人都能用好。用好一个开源分布式存储系统,首先要对其架构、功能原理等方面有比较好的了解,其次要有修复漏洞的能力。这些都是在采用开源分布式存储系统时所面临的挑战。
要用好Ceph,就必须深入了解和掌握Ceph源代码。Ceph源代码的实现被公认为比较复杂,阅读难度较大。阅读Ceph源代码,不但需要对C++语言以及boost库和STL库非常熟悉,还需要有分布式存储系统相关的基础知识以及对实现原理的深刻理解,最后还需要对Ceph框架和设计原理以及具体的实现细节有很好的把握。所以Ceph源代码的阅读是相当有挑战性的。
本着对Ceph源代码的浓厚兴趣以及实践工作的需要,需要对Ceph在源代码层级有比较深入的了解。当时笔者尽可能地搜索有关Ceph源代码的介绍,发现这方面的资料比较少,笔者只能自己对着Ceph源代码开始了比较艰辛的阅读之旅。在这个过程中,每一个小的进步都来之不易,理解一些实现细节,都需要对源代码进行反复地推敲和琢磨。自己在阅读的过程中,特别希望有人能够帮助理清整体代码的思路,能够解答一下关键的实现细节。本书就是秉承这样一个简单的目标,希望指引和帮助广大Ceph爱好者更好地理解和掌握Ceph源代码。
本书面向热爱Ceph的开发者,想深入了解Ceph原理的高级运维人员,想基于Ceph做优化和定制的开发人员,以及想对社区提交代码的研究人员。官网上有比较详细的介绍Ceph安装部署以及操作相关的知识,希望阅读本书的人能够自己动手实践,对Ceph进一步了解。本书基于目前最新的Ceph 10.2.1版本进行分析。
本书着重介绍Ceph的整体框架和各个实现模块的实现原理,对核心源代码进行分析,包括一些关键的实现细节。存储系统的实现都是围绕数据以及对数据的操作来展开,只要理解核心的数据结构,以及数据结构的相关操作就可以大致了解核心的实现和功能。本书的写作思路是先介绍框架和原理,其次介绍相关的数据结构,最后基于数据结构,介绍相关的操作实现流程。
最后感谢一起工作过的同事们,同他们在Ceph技术上进行交流沟通并加以验证实践,使我受益匪浅。感谢机械工业出版社的编辑吴怡对本书出版所做的努力,以及不断提出的宝贵意见。感谢我的妻子孙盛南女士在我写作期间默默的付出,对本书的写作提供了坚强的后盾。
由于Ceph源代码比较多,也比较复杂,写作的时间比较紧,加上个人的水平有限,错误和疏漏在所难免,恳请读者批评指正。有任何的意见和建议都可发送到我的邮箱changtao381@163.com,欢迎读者与我交流Ceph相关的任何问题。
这是一部以实战为导向,能指导读者零基础掌握Flink并快速完成进阶的著作,从功能、原理、实战和调优等4个维度循序渐进地讲解了如何利用Flink进行分布式流式应用开发。作者是该领域的资深专家,现就职于第四范式,曾就职于明略数据。
全书一共10章,逻辑上可以分为三个部分:
第一部分(第1~2章)
主要介绍了Flink的核心概念、特性、应用场景、基本架构,开发环境的搭建和配置,以及源代码的编译。
第二部分(第3~9章)
详细讲解了Flink的编程范式,各种编程接口的功能、应用场景和使用方法,以及核心模块和组件的原理和使用。
第三部分(第10章)
重点讲解了Flink的监控和优化,参数调优,以及对反压、Checkpoint和内存的优化。
《机器学习实践指南:案例应用解析》是机器学习及数据分析领域不可多得的一本著作,也是为数不多的既有大量实践应用案例又包含算法理论剖析的著作,作者针对机器学习算法既抽象复杂又涉及多门数学学科的特点,力求理论联系实际,始终以算法应用为主线,由浅入深以全新的角度诠释机器学习。
全书分为准备篇、基础篇、统计分析实战篇和机器学习实战篇。准备篇介绍了机器学习的发展及应用前景以及常用科学计算平台,主要包括统计分析语言r、机器学习模块mlpy和neurolab、科学计算平台numpy、图像识别软件包opencv、网页分析beautifulsoup等软件的安装与配置。基础篇先对数学基础及其在机器学习领域的应用进行讲述,同时推荐配套学习的数学书籍,然后运用实例说明计算平台的使用,以python和r为实现语言,重点讲解了图像算法、信息隐藏、最小二乘法拟合、因子频率分析、欧氏距离等,告诉读者如何使用计算平台完成工程应用。最后,通过大量统计分析和机器学习案例提供实践指南,首先讲解回归分析、区间分布、数据图形化、分布趋势、正态分布、分布拟合等数据分析基础,然后讲解神经网络、统计算法、欧氏距离、余弦相似度、线性与非线性回归、数据拟合、线性滤波、图像识别、人脸辨识、网页分类等机器学习算法。此书可供算法工程师、it专业人员以及机器学习爱好者参考使用。
本书分为三篇。第壹篇:从整体上给出数据大图和数据平台大图,主要介绍数据的主要流程、各个流程的关键技术、数据的主要从业者及他们的职责等;数据平台大图分离线和实时分别给出数据平台架构、关键数据概念和技术等;第二篇:介绍离线数据开发的主要技术,包含Hadoop、Hive、维度建模等,另外此部分还将综合上述各种离线技术给出离线数据处理实战;第三篇:集中介绍实时数据处理的各项技术,包含Storm、SparkSteaming、Flink、Beam等。
多位专家联袂推荐,360大数据专家撰写,基于Spark 2.1.0剖析架构与实现精髓。细化到方法级,提炼出多个流程图,立体呈现架构、环境、调度、存储、计算、部署、API七大核心设计。本书一共有10章内容,主要包括以下部分。
准备部分(第1~2章):简单介绍了Spark的环境搭建和基本原理。本部分通过详尽的描述,有效降低了读者进入Spark世界的门槛,同时能对Spark背景知识及整体设计有宏观的认识。
基础部分(第3~5章):介绍Spark的基础设施(包括配置、RPC、度量等)、SparkContext的初始化、Spark执行所需要的环境等内容。经过此部分的学习,将能够对RPC框架的设计、执行环境的功能有深入的理解,这也是对核心内容了解的前提。
核心部分(第6~9章):为Spark最核心的部分,包括存储体系、调度系统、计算引擎、部署模式等。通过本部分的学习,读者将充分了解Spark的数据处理体系细节,能够对Spark核心功能进行扩展、性能优化以及对线上问题进行精准排查。
API部分(第10章):这部分主要对Spark的新老API进行对比,对新API进行简单介绍。
【编辑推荐】
绝技源于江湖、将军发于卒伍,本书包含作者从程序员到首席架构师十多年职业生涯所积累的实战经验。
这不是一本讲怎么使用Hadoop的书,而是一本讲实现Hadoop功能的书,本书系统讲解构建大规模分布式系统的核心技术和实现方法,包含开源的代码,手把手教你掌握分布式技术
【内容简介】
本书从作者的实战经验出发,深入浅出地讲解了如何建立一个Hadoop那样的分布式系统,实现对多台计算机CPU、内存、硬盘的统一利用,从而获取强大计算能力去解决复杂问题。一般互联网企业的分布式存储计算系统都是个大平台,系统复杂、代码庞大,而且只适合公司的业务,工程师很难下载安装到自己的电脑里学习和吃透。本书对分布式核心技术进行了大量归纳和总结,并从中抽取出一套简化的框架和编程API进行讲解,方便工程师了解分布式系统的主要技术实现。这不是一本空谈概念、四处摘抄的书,这本书包含了大量精炼示例,手把手教你掌握分布式核心技术。
本书主要内容
分布式并行计算的基本原理解剖;
分布式协调的实现,包括如何实现公共配置管理,如何实现分布式锁,如何实现集群管理等;
分布式缓存的实现,包括如何提供完整的分布式缓存来利用多机内存能力;
消息队列的实现,包括如何实现发送和接收模式;
分布式文件系统的实现,包括如何像操作本地文件一样操作远程文件,并利用多机硬盘存储能力;
分布式作业调度平台的实现,包括资源隔离、资源调度等。
【参考阅读】
978-7-111-43052-0 大规模分布式存储系统:原理解析与架构实战
978-7-111-40392-0 分布式系统:概念与设计(原书第5版)
978-7-111-45244-7 Hadoop应用开发技术详解
978-7-111-41766-8 Hadoop技术内幕:深入解析Hadoop Common和HDFS架构设计与实现原理
978-7-111-42226-6 Hadoop技术内幕:深入解析MapReduce架构设计与实现原理
978-7-111-44534-0 Hadoop技术内幕:深入解析YARN架构设计与实现原理
978-7-111-43514-3 网站数据分析:数据驱动的网站管理、优化和运营
978-7-111-42591-5 数据挖掘:实用案例分析
科大讯飞大数据专家团队撰写
不囿于Spark机器学习库
突出工程化思维与实战
本书分为三大部分:
基础篇(1-2章)对Spark机器学习机型概述、并通过Spark机器学习开始进行数据分析
算法篇(3-8章)针对聚类、分类、回归、协同过滤、关联规则、降维等算法进行详细讲解,并进行案例支持
综合案例篇(9-12章)重点通过异常检测、用户画像、广告点击率预估、智慧交通大数据4个综合场景,详细讲解基于Spark机器学习的综合应用
本站基于Calibre构建,感谢开源界的力量。所有资源搜集于互联网,如有侵权请邮件联系。
Github | Docker | Project
本书从应用角度系统讲解了YARN的基本库和组件用法、应用程序设计方法、YARN上流行的各种计算框架(MapReduce、Tez、Storm、Spark),以及多个类YARN的开源资源管理系统(Corona和Mesos);从源代码角度深入分析YARN的设计理念与基本架构、各个组件的实现原理,以及各种计算框架的实现细节。
全书共四部分13章:第一部分(第1~2章)主要介绍了如何获取、阅读和调试Hadoop的源代码,以及YARN的设计思想、基本架构和工作流程;第二部分(第3~7章)结合源代码详细剖析和讲解了YARN的第三方开源库、底层通信库、服务库、事件库的基本使用和实现细节,详细讲解了YARN的应用程序设计方法,深入讲解和分析了ResourceManager、资源调度器、NodeManager等组件的实现细节;第三篇(第8~10章)则对离线计算框架MapReduce、DAG计算框架Tez、实时计算框架Storm和内存计算框架Spark进行了详细的讲解;第四部分(第11~13章)首先对Facebook Corona和Apache Mesos进行了深入讲解,然后对YARN的发展趋势进行了展望。附录部分收录了YARN安装指南、YARN配置参数以及Hadoop Shell命令等非常有用的资料。