首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >使用spark-streaming将数据发布到kafka topic时复制

使用spark-streaming将数据发布到kafka topic时复制
EN

Stack Overflow用户
提问于 2019-05-20 22:59:03
回答 1查看 251关注 0票数 0

我有一个火花流应用程序,它使用来自topic1的数据并解析它,然后将相同的记录发布到两个过程中,一个是topic2,另一个是hive表。将数据发布到kafka topic2时,我看到重复项,但在配置单元表中看不到重复项

使用spark 2.2,Kafka 0.10.0

代码语言:javascript
复制
KafkaWriter.write(spark, storeSalesStreamingFinalDF, config)
writeToHIVE(spark, storeSalesStreamingFinalDF, config)


object KafkaWriter {

  def write(spark: SparkSession, df: DataFrame, config: Config)
  {
    df.select(to_json(struct("*")) as 'value)
      .write
      .format("kafka")
      .option("kafka.bootstrap.servers", config.getString("kafka.dev.bootstrap.servers"))
      .option("topic",config.getString("kafka.topic"))
      .option("kafka.compression.type",config.getString("kafka.compression.type"))
      .option("kafka.session.timeout.ms",config.getString("kafka.session.timeout.ms"))
      .option("kafka.request.timeout.ms",config.getString("kafka.request.timeout.ms"))
      .save()
  }
}

有人能帮上忙吗,

期望在kafka topic2中没有重复项。

EN

回答 1

Stack Overflow用户

发布于 2019-05-21 13:17:01

为了处理重复的数据,我们应该设置.option("kafka.processing.guarantee","exactly_once")

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/56223543

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档