首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >星星之火异常:引起: redis.clients.jedis.exceptions.JedisConnectionException: java.net.SocketTimeoutException:读取超时

星星之火异常:引起: redis.clients.jedis.exceptions.JedisConnectionException: java.net.SocketTimeoutException:读取超时
EN

Stack Overflow用户
提问于 2021-06-29 05:34:36
回答 1查看 694关注 0票数 1

我试图插入数据到redis (Azure为Redis)通过火花。大约有7亿行,我正在使用星火红连接器插入数据。在抛出此错误后,它将失败。我可以插入一些行,但是过了一段时间,一些任务开始失败,出现以下错误。我正在翻阅乔皮特笔记本。

代码语言:javascript
复制
Caused by: redis.clients.jedis.exceptions.JedisConnectionException: java.net.SocketTimeoutException: Read timed out
    at redis.clients.jedis.util.RedisInputStream.ensureFill(RedisInputStream.java:205)
    at redis.clients.jedis.util.RedisInputStream.readByte(RedisInputStream.java:43)
    at redis.clients.jedis.Protocol.process(Protocol.java:155)
    at redis.clients.jedis.Protocol.read(Protocol.java:220)
    at redis.clients.jedis.Connection.readProtocolWithCheckingBroken(Connection.java:318)
    at redis.clients.jedis.Connection.getStatusCodeReply(Connection.java:236)
    at redis.clients.jedis.BinaryJedis.auth(BinaryJedis.java:2259)
    at redis.clients.jedis.JedisFactory.makeObject(JedisFactory.java:119)
    at org.apache.commons.pool2.impl.GenericObjectPool.create(GenericObjectPool.java:819)
    at org.apache.commons.pool2.impl.GenericObjectPool.borrowObject(GenericObjectPool.java:429)
    at org.apache.commons.pool2.impl.GenericObjectPool.borrowObject(GenericObjectPool.java:360)
    at redis.clients.jedis.util.Pool.getResource(Pool.java:50)
    ... 27 more
Caused by: java.net.SocketTimeoutException: Read timed out
    at java.net.SocketInputStream.socketRead0(Native Method)
    at java.net.SocketInputStream.socketRead(SocketInputStream.java:116)
    at java.net.SocketInputStream.read(SocketInputStream.java:171)
    at java.net.SocketInputStream.read(SocketInputStream.java:141)
    at java.net.SocketInputStream.read(SocketInputStream.java:127)
    at redis.clients.jedis.util.RedisInputStream.ensureFill(RedisInputStream.java:199)
    ... 38 more

这就是我试图写数据的方式。

代码语言:javascript
复制
df.write
.option("host", REDIS_URL)
.option("port", 6379)
.option("auth", <PWD>)
.option("timeout", 20000)
.format("org.apache.spark.sql.redis")
.option("table", "testrediskeys").option("key.column", "dummy").mode("overwrite").save()
代码语言:javascript
复制
Spark : 3.0
Scala : 2.12
spark-redis: com.redislabs:spark-redis_2.12:2.6.0
EN

回答 1

Stack Overflow用户

发布于 2021-07-22 11:30:39

我也遇到了同样的问题,以下spark上下文的配置帮助了我:

代码语言:javascript
复制
val spark = SparkSession.builder()
      .appName("My-lovely-app")
      .master(options.masterSpec)
      .config("spark.redis.host", redisHost)
      .config("spark.redis.port", redisPort)
      .config("spark.redis.auth", redisPass)
      .config("spark.redis.timeout", redisSparkTimeout)
      .config("redis.timeout", redisTimeout)
      .config("spark.redis.max.pipeline.size", redisSparkMaxPipelineSize)
      .getOrCreate()

因此,为了获得更大的价值,您需要增加spark.redis.timeoutredis.timeout。3600000毫秒(1小时)的价值帮助我在我的Redis集群101中加载了超过5亿个列表。对于大规模加载(如您所拥有的)优化,最好增加spark.redis.max.pipeline.size

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/68173118

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档