首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Spark结构化流媒体,保存最新n条记录以备查询

Spark结构化流媒体,保存最新n条记录以备查询
EN

Stack Overflow用户
提问于 2017-08-22 15:24:36
回答 1查看 318关注 0票数 1

我正在编写一个应用程序,将消息从Kafka读取到Spark使用结构化流。

传入消息是字符串格式的与交易相关的修复消息。它们被转换为Java POJO。

示例代码如下:

代码语言:javascript
复制
SparkSession spark = createSparkSession();

    // Subscribe to 1 topic
    Dataset<Row> df = spark
      .readStream()
      .format("kafka")
      .option("kafka.bootstrap.servers", brokers)
      .option("subscribe", topics)
      .load();

    df.as(Encoders.STRING()).map(new MapFunction<String, OrderData>() {

        @Override
        public OrderData call(String arg0) throws Exception {
            // TODO Auto-generated method stub
            return OrderData(arg0);
        }
    }, Encoders.bean(OrderData.class));

我的问题是,如何在DataSet中保存内存中的最后n条记录,以便在该DataSet之上支持Spark SQL?

EN

回答 1

Stack Overflow用户

发布于 2017-09-06 21:12:32

想出一些像这样的东西是可行的:

代码语言:javascript
复制
dataset.writeStream().format("memory").queryName("orderdataDS").start()
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/45811364

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档