首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Apache Kafka生产者Config错误

Apache Kafka生产者Config错误
EN

Stack Overflow用户
提问于 2016-01-18 09:37:20
回答 1查看 1.1K关注 0票数 3

参考Apache的0.9.0.0版本,如生产者配置的文档所示:

http://kafka.apache.org/documentation.html#producerconfigs

我需要使用以下属性来指定代理列表:

代码语言:javascript
复制
props.put("bootstrap.servers", "localhost:9092")

这是我的制片班:

代码语言:javascript
复制
  def main(args: Array[String]) {
    //val conf = new SparkConf().setAppName("VPP metrics producer")
    //val sc = new SparkContext(conf)

    val props: Properties = new Properties()
      props.put("bootstrap.servers", "localhost:9092")
      props.put("key.serializer", "kafka.serializer.StringEncoder")
      props.put("value.serializer", "kafka.serializer.StringEncoder")

    val config = new ProducerConfig(props)
    val producer = new Producer[String, String](config)

    1 to 10000 foreach {
      case i => 
        val jsonStr = getRandomTsDataPoint().toJson.toString()
        println(s"sending message $i to kafka")
        producer.send(new KeyedMessage[String, String]("test_topic", jsonStr))
        println(s"sent message $i to kafka")
    }
  }

这是我的依赖性:

代码语言:javascript
复制
object Dependencies {
  val resolutionRepos = Seq(
    "Spray Repository" at "http://repo.spray.cc/"
  )

  object V {
    val spark     = "1.6.0"
    val kafka     = "0.9.0.0"
    val jodaTime  = "2.7"
    val sprayJson = "1.3.2"
    // Add versions for your additional libraries here...
  }

  object Libraries {
    val sparkCore   = "org.apache.spark"           %% "spark-core"            % V.spark 
    val kafka       = "org.apache.kafka"           %% "kafka"                 % V.kafka
    val jodaTime    = "joda-time"                  % "joda-time"              % V.jodaTime
    val sprayJson   = "io.spray"                   %% "spray-json"            % V.sprayJson
  }
}

如您所见,我使用的是0.9.0.0版本的Apache。当我试图运行我的生产者类时,我会得到以下错误:

代码语言:javascript
复制
Joes-MacBook-Pro:spark-kafka-producer joe$ java -cp target/scala-2.11/spark-example-project-0.1.0-SNAPAHOT.jar com.eon.vpp.MetricsProducer
Exception in thread "main" java.lang.IllegalArgumentException: requirement failed: Missing required property 'metadata.broker.list'
    at scala.Predef$.require(Predef.scala:219)
    at kafka.utils.VerifiableProperties.getString(VerifiableProperties.scala:177)
    at kafka.producer.ProducerConfig.<init>(ProducerConfig.scala:66)
    at kafka.producer.ProducerConfig.<init>(ProducerConfig.scala:56)
    at com.eon.vpp.MetricsProducer$.main(MetricsProducer.scala:45)
    at com.eon.vpp.MetricsProducer.main(MetricsProducer.scala)

为什么会这样呢?我甚至验证了jar文件的内容,它使用了0.9.0.0版本的Apache!(kafka_2.11-0.9.0.0.jar)

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2016-01-25 16:04:31

Spark 1.6.0目前不支持Kafka 0.9。你必须等到Spark2.0.0。检查此问题:https://issues.apache.org/jira/browse/SPARK-12177

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/34851412

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档