首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏Lansonli技术博客

    2021年数据Flink(十七):Flink基石

    ---- Flink基石 Flink之所以能这么流行,离不开它最重要的四个基石:Checkpoint、State、Time、Window。 Checkpoint 这是Flink最重要的一个特性。 Flink基于Chandy-Lamport算法实现了一个分布式的一致性的快照,从而提供了一致性的语义。 Chandy-Lamport算法实际上在1985年的时候已经被提出来,但并没有被很广泛的应用,而Flink则把这个算法发扬光大了。 Time 除此之外,Flink还实现了Watermark的机制,能够支持基于事件的时间的处理,能够容忍迟到/乱序的数据。 Window 另外流计算中一般在对流数据进行操作之前都会先进行开窗,即基于一个什么样的窗口上做这个计算。Flink提供了开箱即用的各种窗口,比如滑动窗口、滚动窗口、会话窗口以及非常灵活的自定义的窗口。

    1.2K30发布于 2021-10-11
  • 来自专栏Lansonli技术博客

    2021年数据Flink(八):Flink入门案例

    ,DataSetAPI已经不推荐使用了,后续其他案例都会优先使用DataStream流式API,既支持无界数据处理/流处理,也支持有界数据处理/批处理!  * 编码步骤  * 1.准备环境-env  * 2.准备数据-source  * 3.处理数据-transformation  * 4.输出结果-sink  * 5.触发执行-execute//如果有 ; /**  * Author lanson  * Desc  * 需求:使用Flink完成WordCount-DataStream  * 编码步骤  * 1.准备环境-env  * 2.准备数据-source 表达式  * 编码步骤  * 1.准备环境-env  * 2.准备数据-source  * 3.处理数据-transformation  * 4.输出结果-sink  * 5.触发执行-execute 需求:使用Flink完成WordCount-DataStream--使用lambda表达式--修改代码使适合在Yarn上运行  * 编码步骤  * 1.准备环境-env  * 2.准备数据-source

    1.5K40发布于 2021-10-11
  • 来自专栏Lansonli技术博客

    2021年数据Flink(九):Flink原理初探

    、SubTask、Parallelism 1.Dataflow:Flink程序在执行的时候会被映射成一个数据流模型 2.Operator:数据流模型中的每一个操作被称作Operator,Operator .One to One模式: 两个operator用此模式传递的时候,会保持数据的分区数和数据的排序;如上图中的Source1到Map1,它就保留的Source的分区特性,以及分区元素处理的有序性。 Flink执行图(ExecutionGraph) 由Flink程序直接映射成的数据流图是StreamGraph,也被称为逻辑流图,因为它们表示的是计算逻辑的高级视图。 为了执行一个流处理程序,Flink需要将逻辑流图转换为物理数据流图(也叫执行图),详细说明程序的执行方式。 原理介绍 Flink执行executor会自动根据程序代码生成DAG数据流图 Flink 中的执行图可以分成四层:StreamGraph -> JobGraph -> ExecutionGraph ->

    1.5K40发布于 2021-10-11
  • 来自专栏Lansonli技术博客

    2021年数据Flink(十八):Flink Window操作

    ---- Flink-Window操作 为什么需要Window 在流处理应用中,数据是连续不断的,有时我们需要做一些聚合类的处理,例如:在过去的1分钟内有多少用户点击了我们的网页。 :size=slide,如:每隔10s统计最近10s的数据 sliding-window:滑动窗口:size>slide,如:每隔5s统计最近10s的数据 注意:当size<slide的时候,如每隔 15s统计最近10s的数据,那么中间5s的数据会丢失,所有开发中不用 ​​​​​​​总结 按照上面窗口的分类方式进行组合,可以得出如下的窗口: 1.基于时间的滚动窗口tumbling-time-window window 中, Flink提供了很多各种场景用的WindowAssigner: 如果需要自己定制数据分发策略,则可以实现一个 class,继承自 WindowAssigner。 ​​​​​​​ evictor--了解 evictor 主要用于做一些数据的自定义操作,可以在执行用户代码之前,也可以在执行 用户代码之后,更详细的描述可以参考org.apache.flink.streaming.api.windowing.evictors.Evictor

    1.1K10发布于 2021-10-11
  • 来自专栏Lansonli技术博客

    2021年数据Flink(六):Flink On Yarn模式

    ---- Flink On Yarn模式 原理 为什么使用Flink On Yarn? 在实际开发中,使用Flink时,更多的使用方式是Flink On Yarn模式,原因如下: -1.Yarn的资源可以按需使用,提高集群的资源利用率 -2.Yarn的任务有优先级,根据优先级运行作业 -3 此外,AppMaster容器也提供了Flink的web服务接口。 run(提交任务) 1.在yarn上启动一个Flink会话,node1上执行以下命令 /export/server/flink/bin/yarn-session.sh -n 2 -tm 800 -s  run提交任务: /flink/bin/flink run  /export/server/flink/examples/batch/WordCount.jar run  /export/server

    1.8K20发布于 2021-10-11
  • 来自专栏Lansonli技术博客

    2021年数据Flink(四十):​​​​​​​Flink模拟双十一实时屏统计

    目录 Flink模拟双十一实时屏统计 需求 数据 编码步骤: 1.env 2.source 3.transformation 4.使用上面聚合的结果,实现业务需求: 5.execute 参考代码 实现代码 (基于上面参考代码重新写一套) 实现效果 ---- Flink模拟双十一实时屏统计 需求 在大数据的实时处理中,实时的屏展示已经成了一个很重要的展示项,比如最有名的双十一大屏实时销售总价展示。 今天我们就做一个最简单的模拟电商统计屏的小例子, 需求如下: 1.实时计算出当天零点截止到当前时间的销售总额 2.计算出各个分类的销售top3 3.每秒钟更新一次统计结果 数据 首先我们通过自定义source ,但是11月11日 00:01:00运行计算的是: 11月10日 00:01:00~11月11日 00:01:00 ---不对!                  Exception { Double totalAmount = 0d;//用来记录销售总额 //用大小顶堆来计算TopN //用大顶堆(数据在堆顶

    1.5K31发布于 2021-10-11
  • 来自专栏Lansonli技术博客

    2021年数据Flink(二):Flink用武之地

    ---- Flink用武之地 http://www.liaojiayi.com/flink-IoT/ https://flink.apache.org/zh/usecases.html 从很多公司的应用案例发现 ,其实Flink主要用在如下三场景: ​​​​​​​Event-driven Applications【事件驱动】 事件驱动型应用是一类具有状态的应用,它从一个或多个事件流提取数据,并根据到来的事件触发计算 比如Flink应用凌晨从Recorded Events中读取昨天的数据,然后做周期查询运算,最后将数据写入Database或者HDFS,或者直接将数据生成报表供公司上层领导决策使用。 Periodic ETL:比如每天凌晨周期性的启动一个Flink ETL Job,读取传统数据库中的数据,然后做ETL,最后写入数据库和文件系统。 Data Pipeline:比如启动一个Flink 实时应用,数据源(比如数据库、Kafka)中的数据不断的通过Flink Data Pipeline流入或者追加到数据仓库(数据库或者文件系统),或者Kafka

    94150发布于 2021-10-11
  • 来自专栏Lansonli技术博客

    2021年数据Flink(二十五):Flink 状态管理

    ---- Flink-状态管理 Flink中的有状态计算 注意: Flink中已经对需要进行有状态计算的API,做了封装,底层已经维护好了状态! 为什么 Flink 知道之前已经处理过一次 hello world,这就是 state 发挥作用了,这里是被称为 keyed state 存储了之前需要统计的数据,所以 Flink 知道 hello 和 刚才也提到了生产者写入了 15 条,消费者分别读取了 10、7、12 条。那么问题来了,怎么将生产者、消费者的进度转换为右侧示意图信息呢? ,Managed State 由 Flink Runtime 管理,自动存储,自动恢复,在内存管理上有优化;而 Raw State 需要用户自己管理,需要自己序列化,Flink 不知道 State 中存入的数据是什么结构 Operator State 可以用于所有算子,但一般常用于 Source 存储State的数据结构/API介绍 前面说过有状态计算其实就是需要考虑历史数据 而历史数据需要搞个地方存储起来 Flink为了方便不同分类的

    91430发布于 2021-10-09
  • 来自专栏Lansonli技术博客

    2021年数据Flink(一):乘风破浪的Flink-Flink概述

    早期, Flink 是做 Batch 计算的,但是在 2014 年, StratoSphere 里面的核心成员孵化出 Flink,同年将 Flink 捐赠 Apache,并在后来成为 Apache 的顶级大数据项目 ,同时 Flink 计算的主流方向被定位为 Streaming, 即用流式计算来做所有大数据的计算,这就是 Flink 技术诞生的背景。 2014 年 Flink 作为主攻流计算的大数据引擎开始在开源大数据行业内崭露头角。 比如它提供了有状态的计算,支持状态管理,支持强一致性的数据语义以及支持 基于Event Time的WaterMark对延迟或乱序的数据进行处理等 富二代Flink https://blog.csdn.net 这样在各种不同的场景下,不管是全量数据还是增量数据,亦或者实时处理,一套方案即可全部支持,这就是阿里选择 Flink 的背景和初衷。

    1.8K30发布于 2021-10-11
  • 来自专栏Lansonli技术博客

    2021年数据Flink(三十):Flink ​​​​​​​Table API & SQL 介绍

    /dev/table/ Flink的Table模块包括 Table API 和 SQL: Table API 是一种类SQL的API,通过Table API,用户可以像操作表一样操作数据,非常直观和方便 SQL作为一种声明式语言,有着标准的语法和规范,用户可以不用关心底层实现即可进行数据的处理,非常易于上手 Flink Table API 和 SQL 的实现上有80%左右的代码是公用的。 标准稳定:语义遵循SQL标准,非常稳定,在数据库 30 多年的历史中,SQL 本身变化较少; 5. 在 Flink 1.9 中,Table 模块迎来了核心架构的升级,引入了阿里巴巴Blink团队贡献的诸多功能 在Flink 1.9 之前,Flink API 层 一直分为DataStream API 了解-Blink planner和Flink Planner具体区别如下: https://ci.apache.org/projects/flink/flink-docs-release-1.12/dev

    94920发布于 2021-10-09
  • 来自专栏Lansonli技术博客

    2021年数据Flink(三):​​​​​​​Flink安装部署 Local本地模式

    ---- Flink安装部署 Flink支持多种安装模式 - Local—本地单机模式,学习测试时使用 - Standalone—独立集群模式,Flink自带集群,开发测试环境使用 - StandaloneHA —独立集群高可用模式,Flink自带集群,开发测试环境使用 - On Yarn—计算资源统一由Hadoop YARN管理,生产环境使用 Local本地模式 原理 Flink程序由JobClient进行提交 作业执行完成后,结果将发送回客户端(JobClient) 操作 1.下载安装包 https://archive.apache.org/dist/flink/ 2.上传flink-1.12.0-bin-scala root /export/server/flink-1.12.0 5.改名或创建软链接 mv flink-1.12.0 flink ln -s /export/server/flink-1.12.0  /flink/bin/flink run /export/server/flink/examples/batch/WordCount.jar --input /root/words.txt --output

    1.1K20发布于 2021-10-11
  • 来自专栏Lansonli技术博客

    2021年数据Flink(二十七):Flink 容错机制 Checkpoint

    Java的堆内存中/TaskManage节点的内存中 State可以被记录,在失败的情况下数据还可以恢复 Checkpoint: 某一时刻,Flink中所有的Operator的当前State的全局快照, 一般存在磁盘上 表示了一个Flink Job在一个特定时刻的一份全局状态快照,即包含了所有Operator的状态 可以理解为Checkpoint是把State数据定时持久化存储了 比如KafkaConsumer 算子中维护的Offset状态,当任务重新恢复的时候可以从Checkpoint中获取 注意: Flink中的Checkpoint底层使用了Chandy-Lamport algorithm分布式快照算法可以保证数据的在分布式环境下的一致性 TaskManager 节点也就是执行节点内存中的,因为内存有容量限制,所以单个 State maxStateSize 默认 5 M,且需要注意 maxStateSize <= akka.framesize 默认 10 env.getCheckpointConfig().setCheckpointTimeout(60000);//默认10分钟         //设置同一时间有多少个checkpoint可以同时执行         

    1.3K30发布于 2021-10-09
  • 来自专栏Lansonli技术博客

    2021年数据Flink(二十九):Flink 容错机制 Savepoint

    Savepoint VS Checkpoint ​​​​​​​Savepoint演示 # 启动yarn session /export/server/flink/bin/yarn-session.sh -n 2 -tm 800 -s 1 -d # 运行job-会自动执行Checkpoint /export/server/flink/bin/flink run --class cn.itcast.checkpoint.CheckpointDemo01 /root/ckp.jar # 手动创建savepoint--相当于手动做了一次Checkpoint /export/server/flink/bin/flink savepoint 702b872ef80f08854c946a544f2ee1a5  hdfs://node1:8020/flink-checkpoint/savepoint/ # 停止job /export/server/flink/bin/flink cancel 702b872ef80f08854c946a544f2ee1a5 # 重新启动job,手动加载savepoint数据 /export/server/flink/bin/flink run -s hdfs://node1:8020/flink-checkpoint

    73320发布于 2021-10-09
  • 来自专栏Lansonli技术博客

    2021年数据Flink(七):​​​​​​​参数总结

    参数总结 [root@node1 bin]# /export/server/flink/bin/flink --help . /flink <ACTION> [OPTIONS] [ARGUMENTS] The following actions are available: Action "run" compiles The available options can be found at                            https://ci.apache.org/projects/flink /flink-                                      docs-stable/ops/config.html      -m,--jobmanager <arg> -j,--jarfile <jarfile>   Flink program JAR file.   

    1K60发布于 2021-10-11
  • 来自专栏Lansonli技术博客

    2021年数据Flink(四十一):​​​​​​​Flink实现订单自动好评

    ---- Flink实现订单自动好评 需求 在电商领域会有这么一个场景,如果用户买了商品,在订单完成之后,一定时间之内没有做出评价,系统自动给与五星好评,我们今天主要使用Flink的定时器来简单实现这一功能 数据 自定义source模拟生成一些订单数据. ; import org.apache.flink.api.java.tuple.Tuple3; import org.apache.flink.configuration.Configuration; ) * 我们今天主要使用Flink的定时器来简单实现这一功能。 isEvaluate(String orderId){ //下面这行代码会随机返回订单是否已经评价 return new Random().nextInt(10

    92430发布于 2021-10-11
  • 来自专栏小道

    Flink学习笔记(10) - CEP

    复杂事件处理(Complex Event Processing,CEP)   Flink CEP是在 Flink 中实现的复杂事件处理(CEP)库   CEP 允许在无休止的事件流中检测事件模式,让我们有机会掌握数据中重要的部分   一个或多个由简单事件构成的事件流通过一定的规则匹配,然后输出用户想得到的数据 —— 满足规则的复杂事件 二、CEP的特点   目标:从有序的简单事件流中发现一些高阶特征   输入:一个或多个由简单事件构成的事件流   处理:识别简单事件之间的内在联系,多个符合一定规则的简单事件构成复杂事件   输出:满足规则的复杂事件 三、Pattern API   处理事件的规则,被叫做“模式”(Pattern)   Flink CEP 提供了 Pattern API,用于对输入流数据进行复杂事件规则定义,用来提取符合规则的事件序列 个体模式(Individual Patterns)   组成复杂规则的每一个单独的模式定义,

    1.4K00编辑于 2022-09-01
  • 来自专栏Elasticsearch专栏

    【极数系列】Flink集成KafkaSource & 实时消费数据10

    01 引言 Flink 提供了 Apache Kafka 连接器使用精确一次(Exactly-once)的语义在 Kafka topic 中读取和写入数据。 partition.discovery.interval.ms设置为非负值: KafkaSource.builder() .setProperty("partition.discovery.interval.ms", "10000"); // 每 10 秒检查一次新分区 10 事件时间和水印 默认情况下,Kafka Source 使用 Kafka 消息中的时间戳作为事件时间。 )构建全部参数 KafkaSource<String> kafkaSource = kafkaSourceBuilder.build(); //(7)动态检查新分区, 10 模拟数据生成 #启动两个生产者,分别生产topic_a,topic_b数据 kafka-console-producer.bat --broker-list localhost:9092 --topic

    4.4K10编辑于 2024-03-04
  • 来自专栏凹凸玩数据

    盘点 10 数据库!

    大家好,我是小五 DB-Engines 最近发布了 2021 年 9 月份的数据库排名。该网站根据数据库管理系统的受欢迎程度对其进行排名,实时统计了 378 种数据库的排名指数。 前 30 名的排行情况详见下图,前10数据库 用线段做了分割。同时在文末,会免费赠送给大家一些数据库书籍! 跌幅榜情况 较去年同期,本月三霸主集体暴跌再次霸占了“同期跌幅榜”。 虽然各大开源类数据库百花齐放,然而,在 DB-Engines 全球数据库排行榜上,Oracle 和 MySQL 依然是世界上最受欢迎的商业和开源类数据库,而且领跑优势还在继续扩大。 小众数据库不可小觑 数据库相关从业人员可以将 DB-Engines 数据库排名作为参考,大数据时代发展速度之快超乎我们的想象,新的数据库产品仍然在不断诞生,如果你的需求比较特殊,大众数据库产品无法很好地满足你 每天数据增量十多亿,近百万次查询请求。 快手内部也在使用 ClickHouse,存储总量大约 10PB, 每天新增 200TB, 90% 查询小于 3S。

    2.5K10发布于 2021-10-18
  • 来自专栏Lansonli技术博客

    2021年数据Flink(四十二):​​​​​​​BroadcastState

    Broadcast State 是 Flink 1.5 引入的新特性。 下游的 task 接收这些配置、规则并保存为 BroadcastState, 将这些配置应用到另一个数据流的计算中 。 ()方法处理后输出结果数据记录的类型。   `userID` varchar(20) CHARACTER SET utf8 COLLATE utf8_general_ci NOT NULL,   `userName` varchar(10 Records of user_info -- ---------------------------- INSERT INTO `user_info` VALUES ('user_1', '张三', 10                 broadcastState.clear();                 //最后将最新的广播流数据放到state中(更新状态数据)                 

    1K30发布于 2021-10-11
  • 来自专栏大数据开发

    数据开发:Hadoop、Spark、Flink框架对比

    目前来说,大数据领域最为活跃的三个计算框架,当属Hadoop、Spark以及Flink这三者。三个框架在不同的大数据处理场景当中,表现各有优势,因此也常常被拿来做比较。 今天我们也来做个Hadoop对比,看看Hadoop、Spark、Flink框架,各自的优势劣势如何。 Spark:尽管机器学习算法是循环数据流,但Spark将其表示为(DAG)直接非循环图或有向无环图。 FlinkFlink在运行时支持受控循环依赖图,支持机器学习算法非常有效。 FlinkFlink采用连续流式流传输模型,实时对数据进行处理,而不会在收集数据或处理数据时出现任何延迟。 作为主流的三处理框架,这三者在大数据领域都有着自己的优势和劣势,因此最好的方案就是将各自的优势结合起来,实现更高效率地完成大数据处理任务。

    3.8K30发布于 2021-06-07
领券