spark学习笔记3之spark样例分析

共 629字,需浏览 2分钟

 ·

2022-03-19 11:33

github样例

一开始自己写案例还是比较费劲的,我们还是遵照那个原则,先大步快跑,搞定全局,再回头查缺补漏。

https://github.com/apache/spark/tree/master/examples

计算圆周率Pi

scala代码如下:

/**
* @author Ted
* @date 2022/2/9 15:48
* @version 1.0
*/
object SparkPi {
def main(args: Array[String]): Unit = {
def main(args: Array[String]): Unit = {
val spark = SparkSession
.builder
.appName("Spark Pi")
.getOrCreate()
val slices = if (args.length > 0) args(0).toInt else 2
val n = math.min(100000L * slices, Int.MaxValue).toInt // avoid overflow
val count = spark.sparkContext.parallelize(1 until n, slices).map { i =>
val x = random * 2 - 1
val y = random * 2 - 1
if (x*x + y*y <= 1) 1 else 0
}.reduce(_ + _)
println(s"Pi is roughly ${4.0 * count / (n - 1)}")
spark.stop()
}
}
}

逻辑分析

我们都知道圆的面积公式为 197ad2b2454bcac1c4222d5de6e3d989.webp 。此时我们画一个半径为1的圆。然后再往圆上套一个边长为2的正方形。之后我们开始随机向这个正方形领域描点。随着我们描点的数据量越来越大,在圆里面的点和在正方形里的点的数量之比就会越来越趋近于一个常数。而这个常数其实也近似等于 圆和正方形的面积之比。如下:

4a05132a42b00cb333a50b789a296ccb.webp

由于我们的圆半径为1,正方形边长为2。所以就会得出

4b6bc4f92feefa54798d2fc2bda5a543.webp


园中的点用代码表示为如下,当x²+y²小与1时,点肯定落在圆内,取值1,让count总数+1。

a50f638ba8c22908b7983773263192d9.webp

运行代码

由于样例函数的jar包在spark安装包中存在,我们直接用如下命令运行程序,并指定参数。本次指定10个分区,100万条数据。

../../bin/spark-submit --master spark://node1:7077,node2:7077  --class org.apache.spark.examples.SparkPi  ./spark-examples_2.11-2.3.4.jar 10
e07a3a3c2241d3c1e8e1c8726b2c44d4.webp

会从后台看到已经运行了一个spark程序,核心数12,执行速度6秒。执行过程如下,启动了10个任务并行计算。每个执行器都有自己的唯一id,每个任务也有自己的唯一id。然后每个任务由指定的执行器进行执行。最后得出结果为Pi is roughly 3.140751140751141。可见还不太准确。那么我们接下来继续加码计算量。

4ebe1a100553f9cb10b22aad7d03f194.webp

扩大数据量

接下来我们输入100参数,1000万条数据进行计算。看来任务量还是不足,计算结果还未接近

Pi is roughly 3.1418151141815116

715364e9f4d8ae00756d2bcfce0ee1a1.webp

继续扩大数据量

本次我们开启1000个任务,给他一个亿。可以看到,147和148已经不够用了,把他的兄弟146也叫了起来。但是还是不给力啊。

Pi is roughly 3.1417156714171566

09127629d0205d1eba1d32cbe617ba0b.webp

拼了

这次直接开启10000个任务,算它10亿次。终于看到了我脑海中记忆到的那个数字了。

Pi is roughly 3.141595919141596

859c81ebba7d874f71a14a0ab79c60fa.webp

运行脚本


接下来,我们直接编写一个运行脚本来运行我们的spark计算程序。当然平时我们需要养成一个习惯,将这些运行程序收集到一个目录下边。例如如下,我们在root家目录创建于给sparkexe目录。将我们的脚本放到里面。

13d5f9279071da9150b1c72ebf024626.webp

然后我们执行如下命令,就可以了。

. submit 'org.apache.spark.examples.SparkPi' "/opt/bigdata/spark-2.3.4-bin-hadoop2.6/examples/jars/spark-examples_2.11-2.3.4.jar" 100
bcaee23503a5cf902b873ff5176a3078.webp

10000个任务,10亿次计算细节如下。

5207b53c6fa3cdf7083c8120596322d9.webp

指定核心数量

我们还可以指定spark任务执行中可以申请的核心数量,上述过程都直接申请了12个核心,每个执行器4个核心。接下来我们指定核心数量为6个。那么每个执行器会分配两个核心。

99efb525bdc1af8b8fbc1e4f43aed1bc.webp4f8b2cd29e0c6904d90c82886df64dab.webp

指定执行器核心


如果我们制定每个执行器只能拥有一个核心,同时我们指定本次任务分配12个核心。那么就会出现12个执行器。

46644219b5d37b874cebccdb0ebabff2.webp


浏览 44
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报