Spark 入门实战之最好的实例
来源:程序员人生 发布时间:2016-06-12 08:27:30 阅读次数:3061次
转载:https://www.ibm.com/developerworks/cn/opensource/os-cn-spark-practice1/
搭建开发环境
-
安装 Scala IDE
搭建 Scala 语言开发环境很容易,Scala IDE 官网 下载适合的版本并解压就能够完成安装,本文使用的版本是
4.1.0。
-
安装 Scala 语言包
如果下载的 Scala IDE 自带的 Scala 语言包与 Spark 1.3.1 使用的 Scala 版本 (2.10.x) 不1致,那末就需要下载和本文所使用的 Spark 所匹配的版本,以确保实现的 Scala 程序不会由于版本问题而运行失败。
请下载并安装 Scala 2.10.5 版本
-
安装 JDK
如果您的机器上没有安装 JDK,请下载并安装 1.6 版本以上的 JDK。
-
创建并配置 Spark 工程
打开 Scala IDE,创建1个名称为 spark-exercise 的 Scala 工程。
图 1. 创建 scala 工程
在工程目录下创建1个 lib 文件夹,并且把您的 Spark 安装包下的 spark-assembly jar 包拷贝到 lib 目录下。
图 2. Spark 开发 jar 包
并且添加该 jar 包到工程的 classpath 并配置工程使用刚刚安装的 Scala 2.10.5 版本.,工程目录结构以下。
图 3. 添加 jar 包到 classpath
回页首
运行环境介绍
为了不读者对本文案例运行环境产生困惑,本节会对本文用到的集群环境的基本情况做个简单介绍。
-
本文所有实例数据存储的环境是1个 8 个机器的 Hadoop 集群,文件系统总容量是 1.12T,NameNode 叫 hadoop036166, 服务端口是 9000。读者可以不关心具体的节点散布,由于这个不会影响到您浏览后面的文章。
-
本文运行实例程序使用的 Spark 集群是1个包括4个节点的 Standalone 模式的集群, 其中包括1个 Master 节点 (监听端口 7077) 和3个 Worker 节点,具体散布以下:
Server Name |
Role |
hadoop036166 |
Master |
hadoop036187 |
Worker |
hadoop036188 |
Worker |
hadoop036227 |
Worker |
-
Spark 提供1个 Web UI 去查看集群信息并且监控履行结果,默许地址是:http://<spark_master_ip>:8080 ,对该实例提交后我们也能够到 web 页面上去查看履行结果,固然也能够通过查看日志去找到履行结果。
图 4. Spark 的 web console
回页首
案例分析与编程实现
案例1
a. 案例描写
提起 Word Count(词频数统计),相信大家都不陌生,就是统计1个或多个文件中单词出现的次数。本文将此作为1个入门级案例,由浅入深的开启使用 Scala 编写 Spark 大数据处理程序的大门。
b.案例分析
对词频数统计,用 Spark 提供的算子来实现,我们首先需要将文本文件中的每行转化成1个个的单词, 其次是对每个出现的单词进行记1次数,最后就是把所有相同单词的计数相加得到终究的结果。
对第1步我们自然的想到使用 flatMap 算子把1行文本 split 成多个单词,然后对第2步我们需要使用 map 算子把单个的单词转化成1个有计数的 Key-Value 对,即 word -> (word,1). 对最后1步统计相同单词的出现次数,我们需要使用 reduceByKey 算子把相同单词的计数相加得到终究结果。
c. 编程实现
清单 1.SparkWordCount 类源码
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
object SparkWordCount {
def FILE_NAME:String = "word_count_results_";
def main(args:Array[String]) {
if (args.length < 1) {
println("Usage:SparkWordCount FileName");
System.exit(1);
}
val conf = new SparkConf().setAppName("Spark Exercise: Spark Version Word Count Program");
val sc = new SparkContext(conf);
val textFile = sc.textFile(args(0));
val wordCounts = textFile.flatMap(line => line.split(" ")).map(
word => (word, 1)).reduceByKey((a, b) => a + b)
//print the results,for debug use.
//println("Word Count program running results:");
//wordCounts.collect().foreach(e => {
//val (k,v) = e
//println(k+"="+v)
//});
wordCounts.saveAsTextFile(FILE_NAME+System.currentTimeMillis());
println("Word Count program running results are successfully saved.");
}
}
d. 提交到集群履行
本实例中, 我们将统计 HDFS 文件系统中/user/fams 目录下所有 txt 文件中词频数。其中 spark-exercise.jar 是 Spark 工程打包后的 jar 包,这个 jar 包履行时会被上传到目标服务器的/home/fams 目录下。运行此实例的具体命令以下:
清单 2.SparkWordCount 类履行命令
./spark-submit \
--class com.ibm.spark.exercise.basic.SparkWordCount \
--master spark://hadoop036166:7077 \
--num-executors 3 \
--driver-memory 6g --executor-memory 2g \
--executor-cores 2 \
/home/fams/sparkexercise.jar \
hdfs://hadoop036166:9000/user/fams/*.txt
e. 监控履行状态
该实例把终究的结果存储在了 HDFS 上,那末如果程序运行正常我们可以在 HDFS 上找到生成的文件信息
图 5. 案例1输出结果
打开 Spark 集群的 Web UI, 可以看到刚才提交的 job 的履行结果。
图 6. 案例1完成状态
如果程序还没运行完成,那末我们可以在 Running Applications 列表里找到它。
案例2
a. 案例描写
该案例中,我们将假定我们需要统计1个 1000 万人口的所有人的平均年龄,固然如果您想测试 Spark 对大数据的处理能力,您可以把人口数放的更大,比如 1 亿人口,固然这个取决于测试所用集群的存储容量。假定这些年龄信息都存储在1个文件里,并且该文件的格式以下,第1列是 ID,第2列是年龄。
图 7. 案例2测试数据格式预览
现在我们需要用 Scala 写1个生成 1000 万人口年龄数据的文件,源程序以下:
清单 3. 年龄信息文件生成类源码
import java.io.FileWriter
import java.io.File
import scala.util.Random
object SampleDataFileGenerator {
def main(args:Array[String]) {
val writer = new FileWriter(new File("C: \\sample_age_data.txt"),false)
val rand = new Random()
for ( i <- 1 to 10000000) {
writer.write( i + " " + rand.nextInt(100))
writer.write(System.getProperty("line.separator"))
}
writer.flush()
writer.close()
}
}
b. 案例分析
要计算平均年龄,那末首先需要对源文件对应的 RDD 进行处理,也就是将它转化成1个只包括年龄信息的 RDD,其次是计算元素个数即为总人数,然后是把所有年龄数加起来,最后平均年龄=总年龄/人数。
对第1步我们需要使用 map 算子把源文件对应的 RDD 映照成1个新的只包括年龄数据的 RDD,很明显需要对在 map 算子的传入函数中使用 split 方法,得到数组后只取第2个元素即为年龄信息;第2步计算数据元素总数需要对第1步映照的结果 RDD 使用 count 算子;第3步则是使用 reduce 算子对只包括年龄信息的 RDD 的所有元素用加法求和;最后使用除法计算平均年龄便可。
由于本例输出结果很简单,所以只打印在控制台便可。
c. 编程实现
清单 4.AvgAgeCalculator 类源码
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
object AvgAgeCalculator {
def main(args:Array[String]) {
if (args.length < 1){
println("Usage:AvgAgeCalculator datafile")
System.exit(1)
}
val conf = new SparkConf().setAppName("Spark Exercise:Average Age Calculator")
val sc = new SparkContext(conf)
val dataFile = sc.textFile(args(0), 5);
val count = dataFile.count()
val ageData = dataFile.map(line => line.split(" ")(1))
val totalAge = ageData.map(age => Integer.parseInt(
String.valueOf(age))).collect().reduce((a,b) => a+b)
println("Total Age:" + totalAge + ";Number of People:" + count )
val avgAge : Double = totalAge.toDouble / count.toDouble
println("Average Age is " + avgAge)
}
}
d. 提交到集群履行
要履行本实例的程序,需要将刚刚生成的年龄信息文件上传到 HDFS 上,假定您刚才已在目标机器上履行生成年龄信息文件的 Scala 类,并且文件被生成到了/home/fams 目录下。
那末您需要运行1下 HDFS 命令把文件拷贝到 HDFS 的/user/fams 目录。
清单 5. 年龄信息文件拷贝到 HDFS 目录的命令
hdfs dfs –copyFromLocal /home/fams /user/fams
清单 6.AvgAgeCalculator 类的履行命令
./spark-submit \
--class com.ibm.spark.exercise.basic.AvgAgeCalculator \
--master spark://hadoop036166:7077 \
--num-executors 3 \
--driver-memory 6g \
--executor-memory 2g \
--executor-cores 2 \
/home/fams/sparkexercise.jar \
hdfs://hadoop036166:9000/user/fams/inputfiles/sample_age_data.txt
e. 监控履行状态
在控制台您可以看到以下所示信息:
图 8. 案例2输出结果
我们也能够到 Spark Web Console 去查看 Job 的履行状态
图 9. 案例2完成状态
案例3
a. 案例描写
本案例假定我们需要对某个省的人口 (1 亿) 性别还有身高进行统计,需要计算出男女人数,男性中的最高和最低身高,和女性中的最高和最低身高。本案例中用到的源文件有以下格式, 3列分别是 ID,性别,身高 (cm)。
图 10. 案例3测试数据格式预览
我们将用以下 Scala 程序生成这个文件,源码以下:
清单 7. 人口信息生成类源码
import java.io.FileWriter
import java.io.File
import scala.util.Random
object PeopleInfoFileGenerator {
def main(args:Array[String]) {
val writer = new FileWriter(new File("C:\\LOCAL_DISK_D\\sample_people_info.txt"),false)
val rand = new Random()
for ( i <- 1 to 100000000) {
var height = rand.nextInt(220)
if (height < 50) {
height = height + 50
}
var gender = getRandomGender
if (height < 100 && gender == "M")
height = height + 100
if (height < 100 && gender == "F")
height = height + 50
writer.write( i + " " + getRandomGender + " " + height)
writer.write(System.getProperty("line.separator"))
}
writer.flush()
writer.close()
println("People Information File generated successfully.")
}
def getRandomGender() :String = {
val rand = new Random()
val randNum = rand.nextInt(2) + 1
if (randNum % 2 == 0) {
"M"
} else {
"F"
}
}
}
b. 案例分析
对这个案例,我们要分别统计男女的信息,那末很自然的想到首先需要对男女信息从源文件的对应的 RDD 中进行分离,这样会产生两个新的 RDD,分别包括男女信息;其次是分别对男女信息对应的 RDD 的数据进行进1步映照,使其只包括身高数据,这样我们又得到两个 RDD,分别对应男性身高和女性身高;最后需要对这两个 RDD 进行排序,进而得到最高和最低的男性或女性身高。
对第1步,也就是分离男女信息,我们需要使用 filter 算子,过滤条件就是包括”M” 的行是男性,包括”F”的行是女性;第2步我们需要使用 map 算子把男女各自的身高数据从 RDD 中分离出来;第3步我们需要使用 sortBy 算子对男女身高数据进行排序。
c. 编程实现
在实现上,有1个需要注意的点是在 RDD 转化的进程中需要把身高数据转换成整数,否则 sortBy 算子会把它视为字符串,那末排序结果就会遭到影响,例如 身高数据如果是:123,110,84,72,100,那末升序排序结果将会是 100,110,123,72,84,明显这是不对的。
清单 8.PeopleInfoCalculator 类源码
object PeopleInfoCalculator {
def main(args:Array[String]) {
if (args.length < 1){
println("Usage:PeopleInfoCalculator datafile")
System.exit(1)
}
val conf = new SparkConf().setAppName("Spark Exercise:People Info(Gender & Height) Calculator")
val sc = new SparkContext(conf)
val dataFile = sc.textFile(args(0), 5);
val maleData = dataFile.filter(line => line.contains("M")).map(
line => (line.split(" ")(1) + " " + line.split(" ")(2)))
val femaleData = dataFile.filter(line => line.contains("F")).map(
line => (line.split(" ")(1) + " " + line.split(" ")(2)))
//for debug use
//maleData.collect().foreach { x => println(x)}
//femaleData.collect().foreach { x => println(x)}
val maleHeightData = maleData.map(line => line.split(" ")(1).toInt)
val femaleHeightData = femaleData.map(line => line.split(" ")(1).toInt)
//for debug use
//maleHeightData.collect().foreach { x => println(x)}
//femaleHeightData.collect().foreach { x => println(x)}
val lowestMale = maleHeightData.sortBy(x => x,true).first()
val lowestFemale = femaleHeightData.sortBy(x => x,true).first()
//for debug use
//maleHeightData.collect().sortBy(x => x).foreach { x => println(x)}
//femaleHeightData.collect().sortBy(x => x).foreach { x => println(x)}
val highestMale = maleHeightData.sortBy(x => x, false).first()
val highestFemale = femaleHeightData.sortBy(x => x, false).first()
println("Number of Male Peole:" + maleData.count())
println("Number of Female Peole:" + femaleData.count())
println("Lowest Male:" + lowestMale)
println("Lowest Female:" + lowestFemale)
println("Highest Male:" + highestMale)
println("Highest Female:" + highestFemale)
}
}
d. 提交到集群履行
在提交该程序到集群履行之前,我们需要将刚才生成的人口信息数据文件上传到 HDFS 集群,具体命令可以参照上文。
清单 9.PeopleInfoCalculator 类的履行命令
./spark-submit \
--class com.ibm.spark.exercise.basic.PeopleInfoCalculator \
--master spark://hadoop036166:7077 \
--num-executors 3 \
--driver-memory 6g \
--executor-memory 3g \
--executor-cores 2 \
/home/fams/sparkexercise.jar \
hdfs://hadoop036166:9000/user/fams/inputfiles/sample_people_info.txt
e. 监控履行状态
对该实例,如程序中打印的1样,会在控制台显示以下信息:
图 11. 案例3输出结果
在 Spark Web Console 里可以看到具体的履行状态信息
图 12. 案例3完成状态
案例4
a. 案例描写
该案例中我们假定某搜索引擎公司要统计过去1年搜索频率最高的 K 个科技关键词或词组,为了简化问题,我们假定关键词组已被整理到1个或多个文本文件中,并且文档具有以下格式。
图 13. 案例4测试数据格式预览
我们可以看到1个关键词或词组可能出现屡次,并且大小写格式可能不1致。
b. 案例分析
要解决这个问题,首先我们需要对每一个关键词出现的次数进行计算,在这个进程中需要辨认不同大小写的相同单词或词组,如”Spark”和“spark” 需要被认定为1个单词。对出现次数统计的进程和 word count 案例类似;其次我们需要对关键词或词组依照出现的次数进行降序排序,在排序前需要把 RDD 数据元素从 (k,v) 转化成 (v,k);最后取排在最前面的 K 个单词或词组。
对第1步,我们需要使用 map 算子对源数据对应的 RDD 数据进行全小写转化并且给词组记1次数,然后调用 reduceByKey 算子计算相同词组的出现次数;第2步我们需要对第1步产生的 RDD 的数据元素用 sortByKey 算子进行降序排序;第3步再对排好序的 RDD 数据使用 take 算子获得前 K 个数据元素。
c. 编程实现
清单 10.TopKSearchKeyWords 类源码
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
object TopKSearchKeyWords {
def main(args:Array[String]){
if (args.length < 2) {
println("Usage:TopKSearchKeyWords KeyWordsFile K");
System.exit(1)
}
val conf = new SparkConf().setAppName("Spark Exercise:Top K Searching Key Words")
val sc = new SparkContext(conf)
val srcData = sc.textFile(args(0))
val countedData = srcData.map(line => (line.toLowerCase(),1)).reduceByKey((a,b) => a+b)
//for debug use
//countedData.foreach(x => println(x))
val sortedData = countedData.map{ case (k,v) => (v,k) }.sortByKey(false)
val topKData = sortedData.take(args(1).toInt).map{ case (v,k) => (k,v) }
topKData.foreach(println)
}
}
d. 提交到集群履行
清单 11.TopKSearchKeyWords 类的履行命令
./spark-submit \
--class com.ibm.spark.exercise.basic.TopKSearchKeyWords \
--master spark://hadoop036166:7077 \
--num-executors 3 \
--driver-memory 6g \
--executor-memory 2g \
--executor-cores 2 \
/home/fams/sparkexercise.jar \
hdfs://hadoop036166:9000/user/fams/inputfiles/search_key_words.txt
e. 监控履行状态
如果程序成功履行,我们将在控制台看到以下信息。固然读者也能够仿照案例2和案例3那样,自己尝试使用 Scala 写1段小程序生成此案例需要的源数据文件,可以根据您的 HDFS 集群的容量,生成尽量大的文件,用来测试本案例提供的程序。
图 14. 案例4输出结果
图 15. 案例4完成状态
回页首
Spark job 的履行流程简介
我们可以发现,Spark 利用程序在提交履行后,控制台会打印很多日志信息,这些信息看起来是杂乱无章的,但是却在1定程度上体现了1个被提交的 Spark job 在集群中是如何被调度履行的,那末在这1节,将会向大家介绍1个典型的 Spark job 是如何被调度履行的。
我们先来了解以下几个概念:
DAG: 即 Directed Acyclic Graph,有向无环图,这是1个图论中的概念。如果1个有向图没法从某个顶点动身经过若干条边回到该点,则这个图是1个有向无环图。
Job:我们知道,Spark 的计算操作是 lazy 履行的,只有当碰到1个动作 (Action) 算子时才会触发真实的计算。1个 Job 就是由动作算子而产生包括1个或多个 Stage 的计算作业。
Stage:Job 被肯定后,Spark 的调度器 (DAGScheduler) 会根据该计算作业的计算步骤把作业划分成1个或多个 Stage。Stage 又分为 ShuffleMapStage 和 ResultStage,前者以 shuffle 为输出边界,后者会直接输出结果,其边界可以是获得外部数据,也能够是以1个
ShuffleMapStage 的输出为边界。每个 Stage 将包括1个 TaskSet。
TaskSet: 代表1组相干联的没有 shuffle 依赖关系的任务组成任务集。1组任务会被1起提交到更加底层的 TaskScheduler。
Task:代表单个数据分区上的最小处理单元。分为 ShuffleMapTask 和 ResultTask。ShuffleMapTask 履行任务并把任务的输出划分到 (基于 task 的对应的数据分区) 多个 bucket(ArrayBuffer) 中,ResultTask 履行任务并把任务的输动身送给驱动程序。
Spark 的作业任务调度是复杂的,需要结合源码来进行较为详实的分析,但是这已超过本文的范围,所以这1节我们只是对大致的流程进行分析。
Spark 利用程序被提交后,当某个动作算子触发了计算操作时,SparkContext 会向 DAGScheduler 提交1个作业,接着 DAGScheduler 会根据 RDD 生成的依赖关系划分 Stage,并决定各个 Stage 之间的依赖关系,Stage 之间的依赖关系就构成了 DAG。Stage 的划分是以 ShuffleDependency 为根据的,也就是说当某个 RDD 的运算需要将数据进行 Shuffle 时,这个包括了 Shuffle 依赖关系的 RDD 将被用来作为输入信息,进而构建1个新的
Stage。我们可以看到用这样的方式划分 Stage,能够保证有依赖关系的数据可以以正确的顺序履行。根据每一个 Stage 所依赖的 RDD 数据的 partition 的散布,会产生出与 partition 数量相等的 Task,这些 Task 根据 partition 的位置进行散布。其次对 finalStage 或是 mapStage 会产生不同的 Task,最后所有的 Task 会封装到 TaskSet 内提交到 TaskScheduler 去履行。有兴趣的读者可以通过浏览 DAGScheduler
和 TaskScheduler 的源码获得更详细的履行流程。
回页首
结束语
通过本文,相信读者对如何使用 Scala 编写 Spark 利用程序处理大数据已有了较为深入的了解。固然在处理实际问题时,情况可能比本文举得例子复杂很多,但是解决问题的基本思想是1致的。在碰到实际问题的时候,首先要对源数据结构格式等进行分析,然后肯定如何去使用 Spark 提供的算子对数据进行转化,终究根据实际需求选择适合的算子操作数据并计算结果。本文并未介绍其它 Spark 模块的知识,明显这不是1篇文章所能完成的,希望以后会有机会总结更多的 Spark 利用程序开发和性能调优方面的知识,写成文章与更多的
Spark 技术爱好者分享,1起进步。由于时间仓促并且本人知识水平有限,文章难免有未斟酌周全的地方乃至是毛病,希望各位朋友不吝赐教。有任何问题,都可以在文末留下您的评论,我会及时回复。
生活不易,码农辛苦
如果您觉得本网站对您的学习有所帮助,可以手机扫描二维码进行捐赠