一个Spark缓存的使用示例

大数据 Spark
之前一直不是非常理解Spark的缓存应该如何使用. 今天在使用的时候, 为了提高性能, 尝试使用了一下Cache, 并收到了明显的效果。关于Cache的一些理论介绍, 网上已经很多了. 但是貌似也没有一个简单的例子说明。

之前一直不是非常理解Spark的缓存应该如何使用. 今天在使用的时候, 为了提高性能, 尝试使用了一下Cache, 并收到了明显的效果。

关于Cache的一些理论介绍, 网上已经很多了. 但是貌似也没有一个简单的例子说明。

注:因为使用的是内部数据文件, 在这边就不公布出来了. 大家看看测试代码跟测试结果即可。

这次测试是在JupyterNotebook这种交互式的环境下测试的. 如果是直接的submit一个job, 可能结果不太一样。

[[219983]]

测试步骤

初始化Spark

 

  1. from pyspark.sql import SparkSession  
  2. spark = SparkSession\  
  3. .builder\  
  4. .appName("Cache Demo")\  
  5. .master("spark://10.206.132.113:7077") \  
  6. .config('spark.driver.memory''5g') \  
  7. .config('spark.executor.memory''5g') \  
  8. .config("spark.cores.max", 20) \  
  9. .getOrCreate() 

分别读两个文件做测试, 并且其中一个使用Cache

 

  1. ds1 = spark.read.json(os.path.join(data_path, "data.2018-01-04"))  
  2. ds2 = spark.read.json(os.path.join(data_path, "data.2018-01-05"))  
  3. ds1.cache() # 对于***个dataframe进行cache. 

注: 这两个数据文件分别是1月4日跟1月5日产生的. 大小非常接近, 都是3.1G.

为了防止Spark自己做了什么Cache影响实验, 在这里读取两个不同的数据文件.

计算时间:

 

  1. import time  
  2. def calc_timing(ds, app_name) :  
  3. t1 = time.time()  
  4. related = ds.filter("app_name = '%s'" % app_name)  
  5. _1stRow = related.first()  
  6. t2 = time.time()  
  7. print "cost time:", t2 - t1 

测试结果:

 

  1. calc_timing(ds1, "DrUnzip") # cost time: 13.3130679131  
  2. calc_timing(ds2, "DrUnzip") # cost time: 18.0472488403  
  3. calc_timing(ds1, "DrUnzip") # cost time: 0.868658065796  
  4. calc_timing(ds2, "DrUnzip") # cost time: 15.8150720596 

可以看到:

  • 对于DS1, 虽然调用了Cache ,但是因为没有真正的使用到, 所以***次进行filter操作还是很慢的
  • 第二次使用DS1的时候, 因为有了缓存, 速度快了很多
  • 相对的, DS2两次执行时间差别不大
  • 如果进到Spark UI 查看具体每个Job的执行时间, 会发现, 只读取数据文件消耗的时间也就在15~20s.

因此可以猜想, Spark的DataFrame读取数据之后, 即使进行两个相同的操作, 消耗的时间也不能减少, 因为Spark 默认不会把DS放到内存之中.

责任编辑:未丽燕 来源: 网络大数据
相关推荐

2011-08-15 11:24:46

SQL Server事务

2017-08-17 16:37:59

MySQL数据迁移

2019-11-07 14:00:36

MySQL数据库SQL

2021-02-22 17:17:38

Proxy缓存代码

2022-08-18 20:02:04

JSLRU缓存

2012-02-01 14:12:55

iOS本地缓存机制

2022-02-22 11:12:38

2018-01-02 10:36:29

Linux命令Cheat

2018-03-23 10:00:34

PythonTensorFlow神经网络

2013-09-11 16:02:00

Spark分布式计算系统

2024-04-09 09:56:52

多层缓存架构Instagram

2018-05-28 08:54:45

SparkRDD Cache缓存

2015-01-20 13:46:31

Java EEDockerDocker部署

2024-03-22 08:51:36

分库分表项目

2016-11-15 14:07:28

Apache SparLambdaHadoop

2012-04-19 17:42:46

Titanium布局

2019-08-01 08:36:51

缓存系统并发

2020-08-27 11:39:05

JavaRESTful Web编程语言

2016-09-26 17:26:20

2019-04-16 08:50:56

WebHTTP缓存
点赞
收藏

51CTO技术栈公众号