首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何分析pyspark作业

如何分析pyspark作业
EN

Stack Overflow用户
提问于 2016-08-31 23:08:21
回答 1查看 5.5K关注 0票数 11

我想了解pyspark代码中的概要分析。

接下来是:https://github.com/apache/spark/pull/2351

代码语言:javascript
复制
>>> sc._conf.set("spark.python.profile", "true")
>>> rdd = sc.parallelize(range(100)).map(str)
>>> rdd.count()
100
>>> sc.show_profiles()
============================================================
Profile of RDD<id=1>
============================================================
         284 function calls (276 primitive calls) in 0.001 seconds

   Ordered by: internal time, cumulative time

   ncalls  tottime  percall  cumtime  percall filename:lineno(function)
        4    0.000    0.000    0.000    0.000 serializers.py:198(load_stream)
        4    0.000    0.000    0.000    0.000 {reduce}
     12/4    0.000    0.000    0.001    0.000 rdd.py:2092(pipeline_func)
        4    0.000    0.000    0.000    0.000 {cPickle.loads}
        4    0.000    0.000    0.000    0.000 {cPickle.dumps}
      104    0.000    0.000    0.000    0.000 rdd.py:852(<genexpr>)
        8    0.000    0.000    0.000    0.000 serializers.py:461(read_int)
       12    0.000    0.000    0.000    0.000 rdd.py:303(func)

上面的效果很好。但是如果我这样做的话:

代码语言:javascript
复制
from pyspark.sql import HiveContext
from pyspark import SparkConf
from pyspark import SparkContext
conf = SparkConf().setAppName("myapp").set("spark.python.profile","true")
sc   = SparkContext(conf=conf)
sqlContext = HiveContext(sc)

df=sqlContext.sql("select * from myhivetable")
df.count()
sc.show_profiles()

这并没有给我任何东西。我知道了,但是show_profiles()None给我

感谢您的任何帮助

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2016-09-01 00:00:29

当您使用Spark SQL时,没有要分析的Python代码。唯一的Python是调用Scala引擎。其他的都是在Java虚拟机上执行的。

票数 5
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/39253203

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档