首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >使用Apache-flink将处理过的流数据存入数据库

使用Apache-flink将处理过的流数据存入数据库
EN

Stack Overflow用户
提问于 2020-07-27 16:58:41
回答 1查看 608关注 0票数 2

是否可以使用pyflink将处理过的流数据存入数据库?所有写入已处理数据的方法都被限制为以txt、csv或Json格式保存它们,并且没有办法将数据与数据库一起接收。

EN

回答 1

Stack Overflow用户

发布于 2020-07-31 04:04:46

您可以在pyflink中使用SQL来定义JDBC表接收器,然后可以将其插入其中。它看起来就像这样

代码语言:javascript
复制
my_sink_ddl = """
CREATE TABLE MyUserTable (
  id BIGINT,
  name STRING,
  age INT,
  status BOOLEAN,
  PRIMARY KEY (id) NOT ENFORCED
) WITH (
   'connector' = 'jdbc',
   'url' = 'jdbc:mysql://localhost:3306/mydatabase',
   'table-name' = 'users'
);
"""

t_env.sql_update(my_sink_ddl)
票数 2
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/63111948

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档