SparkAPI编程中spark文件操作和debug是怎样的
本篇文章为大家展示了Spark API编程中spark文件操作和debug是怎样的,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。
让客户满意是我们工作的目标,不断超越客户的期望值来自于我们对这个行业的热爱。我们立志把好的技术通过有效、简单的方式提供给客户,将通过不懈努力成为客户在信息化领域值得信任、有价值的长期合作伙伴,公司提供的服务项目有:空间域名、虚拟主机、营销软件、网站建设、濂溪网站维护、网站推广。
这次 我们以指定executor-memory参数的方式来启动spark-shell:
从hdfs上读取文件:
可以看出MappedRDD是从HadoopRDD转换而来的
再看下textFile的源代码:
下面进行一个简单的wordcount操作:
再次使用toDebugString,查看下依赖关系:
HadoopRDD -> MappedRDD -> FlatMappedRDD -> MappedRDD -> ShuffledRDD
上述内容就是Spark API编程中spark文件操作和debug是怎样的,你们学到知识或技能了吗?如果还想学到更多技能或者丰富自己的知识储备,欢迎关注创新互联行业资讯频道。
网站栏目:SparkAPI编程中spark文件操作和debug是怎样的
本文URL:http://ybzwz.com/article/jidjis.html