首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >prelaunch.err - Pyspark错误-Container退出,退出代码为13。错误文件: EMR

prelaunch.err - Pyspark错误-Container退出,退出代码为13。错误文件: EMR
EN

Stack Overflow用户
提问于 2020-12-23 00:20:23
回答 1查看 1.8K关注 0票数 0

我正在尝试在pyspark中执行一个类似hello world的程序。我已经通过boto3创建了一个电子病历集群,并添加了执行代码的步骤。

步骤是:

代码语言:javascript
复制
            'Name': 'Run Step',
            'ActionOnFailure': 'CONTINUE',
            'HadoopJarStep': {
                'Args': [
                    'spark-submit',
                    '--master', 'yarn',
                    '--deploy-mode', 'cluster',
                  #  '--py-files',
                    's3://bucket/s3csvload.py'
                ],
                'Jar': 'command-runner.jar'
            }
        }

我尝试执行的代码是

代码语言:javascript
复制
rom pyspark.sql import *
from pyspark.sql.types import *
from pyspark.sql.functions import *
from pyspark.sql import SparkSession

spark = SparkSession.builder.master('yarn').appName('DIF1').getOrCreate()

Input_schema1 = StructType([StructField("sepal_length", DecimalType(), True),
                            StructField("sepal_width", DecimalType(), True),
                            StructField("petal_length", DecimalType(), True),
                            StructField("petal_width", DecimalType(), True),
                            StructField("species", StringType(), True)])

lookup_df = spark.read \
              .option("header", "true") \
              .option("inferSchema", "true") \
              .option("schema", Input_schema1) \
              .csv("s3://bucket/iris.csv")

lookup_df.write.csv("s3://bucket/Target")

我面临的错误是:

代码语言:javascript
复制
20/12/22 15:27:29 INFO Client: 
     client token: N/A
     diagnostics: Application application_1xxxx0_0003 failed 2 times due to AM Container for appattempt_16xxxxx10_0003_000002 exited with  exitCode: 13
Failing this attempt.Diagnostics: [2020-12-22 15:27:28.643]Exception from container-launch.
Container id: container_16xxxx10_0003_02_000001
Exit code: 13

[2020-12-22 15:27:28.644]Container exited with a non-zero exit code 13. Error file: prelaunch.err.
Last 4096 bytes of prelaunch.err :
Last 4096 bytes of stderr :

我已经尝试过相关链接。没什么用。

我想我必须在spark session builder中更改一些东西。但是,不是很确定。任何有帮助的人都很感激。谢谢。

EN

回答 1

Stack Overflow用户

发布于 2020-12-24 00:44:51

下面的代码修改解决了这个问题:

代码语言:javascript
复制
Steps=[
        {
            'Name': 'Run Step',
            'ActionOnFailure': 'CONTINUE',
            'HadoopJarStep': {
                'Jar': 'command-runner.jar',
                'Args': ['sudo',
                         'spark-submit',
                         '--master', 'yarn',
                         #        '--conf','spark.yarn.submit.waitAppCompletion=true'
                         '--deploy-mode', 'cluster',
                         '--py-files', 's3a://bucket/pgm.py', 's3a://bucket/pgm.py'
                         ]

            }
        }
    ]
代码语言:javascript
复制
spark = SparkSession.builder.appName('DIF1').getOrCreate()
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/65412188

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档