jvm-profiler中如何使用spark内存
本篇文章给大家分享的是有关 jvm-profiler中如何使用spark 内存,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。
成都创新互联公司主要从事网站建设、网站设计、网页设计、企业做网站、公司建网站等业务。立足成都服务汝南,十余年网站建设经验,价格优惠、服务专业,欢迎来电咨询建站服务:18982081108
jvm-profiler
一般来说监控 spark 内存有2种方式
通过 Spark ListenerBus 获取 Executor 内部的内存使用情况 ,现在能获取的相关信息还比较少,在 https://github.com/apache/spark/pull/21221 合进来后就能采集到executor 内存各个逻辑分区的使用情况。
通过 Spark Metrics 将 JVM 信息发送到指定的 sink,用户也可以自定义 Sink 比如发送到 kafka/redis。
Uber 最近开源了 jvm-profiler,采集分布式JVM应用信息,可以用于 debug CPU/mem/io 或者方法调用的时间等。比如调整Spark JVM 内存大小,监控 HDFS Namenode RPC 延时,分析数据血缘关系。
应用于 Spark 比较简单
每5S采集一次JVM信息,发送到 kafka profiler_CpuAndMemory topic
hdfs dfs -put jvm-profiler-0.0.9.jar hdfs://hdfs_url/lib/jvm-profiler-0.0.9.jar
--conf spark.jars=hdfs://hdfs_url/lib/jvm-profiler-0.0.9.jar
--conf spark.executor.extraJavaOptions=-javaagent:jvm-profiler-0.0.9.jar=reporter=com.uber.profiling.reporters.KafkaOutputReporter,metricInterval=5000,brokerList=brokerhost:9092,topicPrefix=profiler_
消费后存入HDFS用于分析。
分析
hive 表结构
对用户自定义内存的任务进行分析
用户自定义内存调度任务,75%的任务内存使用率低于80%,可以进行优化。
用户自定义内存调度任务
用户自定义内存开发任务,45%的任务内存使用率低于20%,用户存在不良使用习惯。
用户自定义内存开发任务
总结
通过采集 jvm 的最大使用值和设定值,可以解决下述问题。
内存滥用
监控应用内存使用趋势,防止数据增长导致内存不足
Spark Executor 默认内存设置不合理
根据应用的使用预计内存减少情况
executor 默认内存减少10%,平均每个任务能释放 60G 内存
自定义内存调度任务利用率提高到 70%,平均每个任务能释放 450G 内存
自定义内存开发任务利用率提高到 70%,平均每个任务能释放 550G 内存
以上就是 jvm-profiler中如何使用spark 内存,小编相信有部分知识点可能是我们日常工作会见到或用到的。希望你能通过这篇文章学到更多知识。更多详情敬请关注创新互联行业资讯频道。
文章题目:jvm-profiler中如何使用spark内存
本文链接:http://ybzwz.com/article/gigdch.html