我已经使用汇合HDFS连接器将数据从Kafka主题移动到HDFS日志文件。但是当我运行这些命令时:
./bin/connect独立的etc/schema-registry/connect-avro-standalone.properties \ etc/kafka-connect-hdfs/quickstart-hdfs.properties
我要跟着错误走。我怎样才能解决这个问题。原因是什么?
由: org.apache.kafka.common.errors.SerializationException:错误反序列化id -1的Avro消息引起的: org.apache.kafka.common.errors.SerializationException:未知魔法字节!2017-06-03 13:44:41,895错误任务正在被杀死,并且在手动重新启动(org.apache.kafka.connect.runtime.WorkerTask:142)之前不会恢复。
发布于 2017-06-03 11:50:30
如果您试图读取数据、读取连接器并将key.converter和value.converter设置为AvroConverter,但是输入主题的数据不是由使用模式注册表的同一个AvroSerializer序列化的,则会发生这种情况。
您必须将您的转换器与输入数据匹配。换句话说,使用可以反序列化输入数据的序列化程序。
https://stackoverflow.com/questions/44343254
复制相似问题