首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >通过spark脚本为亚马逊网络服务EC2集群分配角色

通过spark脚本为亚马逊网络服务EC2集群分配角色
EN

Stack Overflow用户
提问于 2016-06-15 17:02:39
回答 1查看 42关注 0票数 0

我无法通过spark脚本spark/ ec2 /spark-ec2为ec2集群分配角色。我使用以下命令启动集群:其中myprofile是一个具有足够权限的测试配置文件。

代码语言:javascript
复制
./spark-ec2 -k <key name> -i <aws .pem file> -s 2  -r eu-west-1 launch mycluster --instance-type=m4.large --instance-profile-name=myprofile

我可以在ec2控制台中看到实例,在那里它们也被分配了正确的角色。然后,我继续使用ssh进入主实例:

代码语言:javascript
复制
./spark-ec2 -k <key name>  -i <aws .pem file> login mycluster

并使用

代码语言:javascript
复制
curl http://169.254.169.254/latest/meta-data/iam/security-credentials/myprofile

我可以查看我的临时安全密钥、访问密钥和安全令牌。但是,运行

代码语言:javascript
复制
aws s3 list-buckets

返回

代码语言:javascript
复制
"Message": "The AWS Access Key Id you provided does not exist in our records."

通过curl命令检索密钥并将其传递给boto也不起作用,给出“403许可被拒绝”..

我是不是遗漏了什么?

请看下面这个非常相似的问题。但由于我不被允许在那里发表评论,我也没有答案,所以我提出了一个新的问题。也许有人可以向那个人发表评论,并提供我的问题的链接。谢谢。

Running Spark EC2 scripts with IAM role

EN

回答 1

Stack Overflow用户

发布于 2016-06-15 18:11:40

好的,我有这个问题3天了,现在我在发布这个问题后直接解决了…执行以下操作:

代码语言:javascript
复制
sudo yum update

将更新aws cli,之后角色似乎可以正常工作。我甚至可以在python中做到:

代码语言:javascript
复制
from boto.s3.connection import S3Connection
conn = S3Connection()
bucket = conn.get_bucket('my_bucket')
keys = bucket.list()
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/37830795

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档