首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如果一个executor节点在spark-streaming中突然死亡,我该怎么办?

如果一个executor节点在spark-streaming中突然死亡,我该怎么办?
EN

Stack Overflow用户
提问于 2018-02-15 09:26:48
回答 1查看 930关注 0票数 1

我使用的是spark streaming的1.6版本。

几天前,我的spark流媒体应用(上下文)突然关闭。查看日志,其中一个执行器似乎已关闭。(设备实际上已关闭。)

如果发生这种情况,我应该怎么做?(请注意,动态分配选项不可用。)

如果某个executor被关闭,我希望将该作业单独分配给另一个executor。我的应用是在yarn客户端模式下运行的。

代码语言:javascript
复制
## log example, at the time of shutdown.

WARN TransportChannelHandler: Exception in connection from xxxx-hostname/12.34.56.789:12345
ERROR TransportResponseHandler: Still have 2 requests outstanding when connection from xxxx-hostname/12.34.56.789:12345 is closed
ERROR ContextCleaner: Error cleaning broadcast 1123293
WARN BlockManagerMaster: Failed to remove RDD 262104
...
ERROR TransportClient: Failed to send RPC 5940957964172608257 to xxxx-hostname/12.34.56.789:12345: java.nio.channels.ClosedChannelException
...
WARN YarnSchedulerBackend$YarnSchedulerEndpoint: Attempted to get executor loss reason for executor id 5 at RPC address xxxx-hostname:12345, but got no response. Marking as slave lost. org.apache.spark.rpc.RpcTimeoutException: Cannot receive any reply in 120 seconds. This timeout is controlled by spark.rpc.askTimeout
EN

回答 1

Stack Overflow用户

发布于 2021-04-07 21:37:58

hdfs文件系统空间(数据节点空间)即将耗尽。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/48798833

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档