Spark RDD的核心原理

1、Spark的核心概念是RDD (resilientdistributed dataset),指的是一个只读的,可分区的分布式数据集,这个数据集的全部或部分可以缓存在内存中,在多次计算间重用。

2、RDD在抽象上来说是一种元素集合,包含了数据。它是被分区的,分为多个分区,每个分区分布在集群中的不同Work节点上,从而让RDD中的数据可以被并行操作。(分布式数据集)

3、RDD通常通过Hadoop上的文件,即HDFS文件或者Hive表,来进行创建;有时也可以通过RDD的本地创建转换而来。

4、传统的MapReduce虽然具有自动容错、平衡负载和可拓展性的优点,但是其最大缺点是采用非循环式的数据流模型,使得在迭代计算式要进行大量的磁盘IO操作。RDD正是解决这一缺点的抽象方法。

RDD最重要的特性就是,提供了容错性,可以自动从节点失败中恢复过来。即如果某个节点上的RDD partition,因为节点故障,导致数据丢了,那么RDD会自动通过自己的数据来源重新计算该partition。这一切对使用者是透明的。RDD的lineage特性。

5、RDD的数据默认情况下存放在内存中的,但是在内存资源不足时,Spark会自动将RDD数据写入磁盘。(弹性)

一、为什么会有Spark?

因为传统的并行计算模型无法有效的解决迭代计算(iterative)和交互式计算(interactive)而Spark的使命便是解决这两个问题,这也是他存在的价值和理由.

二、Spark如何解决迭代计算?

其主要实现思想就是RDD,把所有计算的数据保存在分布式的内存中.迭代计算通常情况下都是对同一个数据集做反复的迭代计算,数据在内存中将大大提升IO操作.这也是Spark涉及的核心:内存计算.

三、Spark如何实现交互式计算?

因为Spark是用scala语言实现的,Spark和scala能够紧密的集成,所以Spark可以完美的运用scala的解释器,使得其中的scala可以向操作本地集合对象一样轻松操作分布式数据集.

四、Spark和RDD的关系?

可以理解为:RDD是一种具有容错性基于内存的集群计算抽象方法,Spark则是这个抽象方法的实现.

想要了解更多Java相关的知识,欢迎关注我哟!

本文来自千锋教育,转载请注明出处。

©著作权归作者所有:来自51CTO博客作者戏精程序媛的原创作品,如需转载,请注明出处,否则将追究法律责任

更多相关文章

  1. 刚开始接触苹果Mac,如何认识桌面上的基本功能?
  2. Servlet基本概念及执行流程
  3. Spring Data REST 远程代码执行漏洞(CVE-2017-8046)分析与复现
  4. php之数据库链式操作
  5. 行进中换轮胎——万字长文解析美团和大众点评两大数据平台是怎么
  6. sysbench在美团点评中的应用
  7. 美团点评酒旅数据仓库建设实践
  8. 美团点评数据平台融合实践
  9. 细数主流数据中心资产管理软件

随机推荐

  1. [置顶] Android开发的一些小技巧
  2. 【Based Android】android通过criteria选
  3. Android Gallery滑动太快的问题
  4. android-弹出窗口的使用(1)
  5. 使用Fragment后翻转屏崩溃解决办法
  6. Android 在资源文件(res/strings.xml)定义
  7. Settings点击Location(位置)后右上角的开关
  8. android学习笔记---环境搭建 appcompat_v
  9. Android 为你的应用程序添加快捷方式【优
  10. 删除Listview中第一个项目顶部的行