何谓Spark RDD?
Spark 的核心是建立在统一的抽象弹性分布式数据集(Resiliennt Distributed
Datasets,RDD)之上的,这使得 Spark 的各个组件可以无缝地进行集成,能够在同一个应用程序中完成大数据处理。本节将对 RDD
的基本概念及与 RDD 相关的概念做基本介绍。
├─(1) 01、spark之内存计算框架--课程内容介绍.mp4
├─(2) 02、spark之内存计算框架--通过IDEA工具开发spark的入门案例--构建maven工程.mp4
├─(3) 03、spark之内存计算框架--通过IDEA工具开发spark的入门案例--代码开发.mp4
├─(4) 04、spark之内存计算框架--程序打成jar包提交到spark集群中运行.mp4
├─(5) 05、spark之内存计算框架--spark底层编程抽象之RDD是什么.mp4
├─(6) 06、spark之内存计算框架--spark底层编程抽象之RDD的五大特性.mp4
├─(7) 07、基于单词统计案例来深度剖析RDD的五大特性.mp4
├─(8) 08、spark底层核心RDD的算子操作分类.mp4
├─(9) 09、spark底层核心RDD的依赖关系.mp4
├─(10) 10、spark底层核心RDD的缓存机制.mp4
├─(11) 11、DAG有向无环图的构建和划分stage.mp4
├─(12) 12、基于wordcount程序剖析spark任务的提交、划分、调度流程.mp4
├─(13) 13、通过spark开发实现点击流日志分析案例.mp4
├─(14) 14、通过spark开发实现ip归属地查询案例--需求介绍.mp4
├─(15) 15、通过spark开发实现ip归属地查询案例--代码开发.mp4
链接: https://pan.baidu.com/s/1H1scKM1iyEmw8f_rrzUKGA 提取码: j4nx
本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:Spark底层内存计算框架与Spark RDD核心深入解读 Spark云计算架构师级别开发实战课程 - Python技术站