首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏alexzhang

    FlinkFlink环境搭建

    Flink安装1.1 下载地址Flink版本列表:https://archive.apache.org/dist/flink/最新版1.12.0下载地址:https://archive.apache.org /dist/flink/flink-1.12.0/flink-1.12.0-bin-scala_2.12.tgz1.2 安装Flink下载1.12.0版本:wget https://archive.apache.org /dist/flink/flink-1.12.0/flink-1.12.0-bin-scala_2.12.tgz1解压下载下来的压缩包:tar -xzf flink-1.12.0-bin-scala_2.12 Flink示例运行2.1 批处理例子使用flink自带的word count程序实现单词计数,如果不输入任何参数(输入文件路径和输出文件路径),则使用程序内置的数据:[root@localhost flink /bin/flink run .

    1.5K20编辑于 2022-09-02
  • 来自专栏码的一手好代码

    Flink学习——Flink概述

    介绍了下Flink的架构、组件以及组件的相关功能 Flink概述 1.Flink架构 ? 拓展库:Flink 还包括用于复杂事件处理,机器学习,图形处理和 Apache Storm 兼容性的专用代码库。 2.Flink组件 Flink工作原理 Job Managers、Task Managers、客户端(Clients) ? Flink程序需要提交给Client。 Slot的个数就代表了一个Flink程序的最高并行度,简化了性能调优的过程 允许多个Task共享Slot,提升了资源利用率 默认情况下,Flink 允许 subtasks 共享 slots,即使它们是不同 参考 Flink 基本工作原理 分布式运行时环境

    2K20发布于 2020-02-13
  • 来自专栏大数据进阶

    flink(12)-flink on yarn

    flink yarn flink on yarn有两种模式,分别是session cluster和per job session cluster session cluster是一个long running 的模式,先拉起一个flink集群,然后大家向这个集群提交任务 集群启动的脚本如下 bin/yarn-session.sh -n4 -jm1024 -tm 4096 -s 2 任务运行模式 同步和异步 主要体现命令的区别在如下 同步 bin/flink run -c mainClass /path/to/user/jar 异步 bin/flink run -d -c mainClass /path/to/user/jar per job per job,是每个任务对应一个集群,每次提交的时候会单独拉一个集群起来,任务run的命令如下 同步 bin/flink run -m yarn-cluster -d -c mainClass /path/to/user/jar 异步 bin/flink run -d -m yarn-cluster -d -c mainClass /path/to/user/jar

    99020发布于 2020-04-24
  • 来自专栏码的一手好代码

    Flink学习——Flink编程结构

    介绍了Flink的程序结构 Flink程序结构 概述 任何程序都是需要有输入、处理、输出。 那么Flink同样也是,Flink专业术语对应Source,map,Sink。而在进行这些操作前,需要根据需求初始化运行环境 执行环境 Flink 执行模式分为两种,一个是流处理、另一个是批处理。 再选择好执行模式后,为了开始编写Flink程序,需要根据需求创建一个执行环境。 否则,如果正在执行JAR,则Flink集群管理器将以分布式方式执行该程序。 Sink DataSet Data Sink 参考 Flink程序结构

    1.4K10发布于 2020-02-13
  • 来自专栏全栈程序员必看

    flink中文社区_flink demo

    you may need to make some adjustments to your application and setup in the future, when you upgrade Flink

    88220编辑于 2022-11-15
  • 来自专栏开发运维工程师

    Flink基础篇|Flink是什么?

    前言我们通常说的Flink是来Apache Flink,他是由Apache软件基金会开发的开源流处理框架,其核心是用Java和Scala编写的分布式流数据流引擎。 Flink以数据并行和流水线方式执行任意流数据程序,Flink的流水线运行时系统可以执行批处理和流处理程序。此外,Flink的运行时本身也支持迭代算法的执行。 什么是Flink官方地址:https://flink.apache.org/在官网上开头有一段话就讲到Apache Flink,翻译过来就是:Apache Flink是一个框架和分布式处理引擎,用于在无界和有界数据流上进行有状态计算 从官网来看,Flink有以下5种能力:正确性保证:Flink提供了精确一次的状态一致性保障,这使得它能够保证数据的准确性和可靠性。Flink还支持实践时间驱动处理和延迟时间处理。 总结本文通过Flink官网来了解Flink是什么,Flink是一个事件驱动框架引擎,得力于Flink的能力,我们可以解决工作中的很多事情,Flink主要应用场景包括实时数据计算、实时数据仓库和ETL、事件驱动型场景

    1.8K10编辑于 2024-02-02
  • 来自专栏小道

    Flink

    1 Flink跟Spark Streaming的区别?   1)Flink 是标准的实时处理引擎,基于事件驱动。 9 CheckPoint 9.1 Flink 的容错机制(checkpoint)   Checkpoint 机制是 Flink 可靠性的基石,可以保证 Flink 集群在某个算子因为某些原因(如 异常退出 所以下面先来了解一下 Flink 的网络流控(Flink 对网络数据流量的控制)机制。 33 Flink Job 的提交流程   用户提交的 Flink Job 会被转化成一个 DAG 任务运行, 分别是: StreamGraph、JobGraph、ExecutionGraph, Flink 36 Flink重启策略 37 Flink侧输出流 38 自定义Function 39 Flink 的JOIN操作

    1.2K31编辑于 2023-10-17
  • 来自专栏实时计算

    Flink入门(一)——Apache Flink介绍

    同时Flink支持高度容错的状态管理,防止状态在计算过程中因为系统异常而出现丢失,Flink周期性地通过分布式快照技术Checkpoints实现状态的持久化维护,使得即使在系统停机或者异常的情况下都能计算出正确的结果 Flink的具体优势有以下几点: 同时支持高吞吐、低延迟、高性能 Flink是目前开源社区中唯一一套集高吞吐、低延迟、高性能三者于一身的分布式流式数据处理框架。 针对内存管理,Flink实现了自身管理内存的机制,尽可能减少JVM GC对系统的影响。 另外,Flink通过序列化/反序列化方法将所有的数据对象转换成二进制在内存中存储,降低数据存储的大小的同时,能够更加有效地对内存空间进行利用,降低GC带来的性能下降或任务异常的风险,因此Flink较其他分布式处理的框架会显得更加稳定 更多实时计算,Flink,Kafka,ES等相关技术博文,欢迎关注实时流式计算

    1.8K10发布于 2019-11-20
  • 来自专栏开发运维工程师

    Flink基础篇|Flink前世今生

    Flink从平流层分布式执行引擎的一个分支开始,并于2014年3月成为Apache孵化器项目。2014年12月,Flink被接受为Apache顶级项目。 下面是Apache Flink的发布表(截止到目前为止,最新的发布版本为v1.18)帮助我们了解flink的发展历史:阿里巴巴和Blink如果提到Flink,那么就不得不提一下阿里巴巴的Blink。 这一合并过程发生在2019年8月22日,正式发布Apache Flink 1.9.0 版本,合并后,Flink 1.9中存在两个Planner:Flink Planner和Blink Planner。 )这表明Blink的代码已经被正式集成到Flink的官方代码中,并成为了Flink的一部分。 总结本文通过Flink和Blink来了解Flink的由来,了解在阿里贡献了很多代码给Flink,作为一个全球最大的电商公司,阿里使用Flink搜索、搜索算法实时A/B测试、在线机器学习、系统精准推荐功能等

    99500编辑于 2024-02-10
  • 来自专栏SmartSi

    Flink1.4 Flink程序剖析

    Flink程序程序看起来像转换数据集合的普通程序。 请注意,Java DataSet API的所有核心类都可以在org.apache.flink.api.java包中找到,而Java DataStream API的类可以在org.apache.flink.streaming.api Scala DataSet API的所有核心类都可以在org.apache.flink.api.scala包中找到,而Scala DataStream API的类可以在org.apache.flink.streaming.api.scala StreamExecutionEnvironment是所有Flink程序的基础。 如果使用程序创建JAR文件并通过命令行调用它,那么Flink集群管理器将执行你的main方法,并且getExecutionEnvironment()返回一个用于在集群上执行你程序的执行环境。

    74430发布于 2019-08-07
  • 来自专栏大数据学习笔记

    Flink学习笔记:2、Flink介绍

    of Flink that is, Flink’s streaming API. Flink的最新版本重点支持批处理,流处理,图形处理,机器学习等各种功能.Flink 0.7引入了Flink最重要的特性,即Flink的流媒体API。 最初版本只有Java API。 在前面的章节中,我们尝试了解Flink体系结构及其执行模型。 由于其强大的架构,Flink充满了各种功能。 Flink的分布式轻量级快照机制有助于实现高度的容错性。它允许Flink提供高吞吐量性能和保证交付。 Flink为批处理和流数据处理提供API。所以一旦你建立了Flink的环境,它可以容易地托管流和批处理应用程序。事实上,Flink的工作原理是流式处理,并将批处理视为流式处理的特例。

    2.3K50发布于 2018-01-02
  • 来自专栏全栈程序员必看

    Flink教程(30)- Flink VS Spark

    Flink的内存管理了,有兴趣的同学可以参阅下: 《Flink教程(01)- Flink知识图谱》 《Flink教程(02)- Flink入门》 《Flink教程(03)- Flink环境搭建》 《Flink 教程(04)- Flink入门案例》 《Flink教程(05)- Flink原理简单分析》 《Flink教程(06)- Flink批流一体API(Source示例)》 《Flink教程(07)- Flink )》 《Flink教程(13)- Flink高级API(状态管理)》 《Flink教程(14)- Flink高级API(容错机制)》 《Flink教程(15)- Flink高级API(并行度)》 《Flink 教程(16)- Flink Table与SQL》 《Flink教程(17)- Flink Table与SQL(案例与SQL算子)》 《Flink教程(18)- Flink阶段总结》 《Flink教程(19 监控》 《Flink教程(28)- Flink性能优化》 《Flink教程(29)- Flink内存管理》 本文主要讲解Flink与Spark的区别。

    2.4K31编辑于 2022-11-16
  • 来自专栏实时计算

    Flink入门(二)——Flink架构介绍

    1、基本组件栈 了解Spark的朋友会发现Flink的架构和Spark是非常类似的,在整个软件架构体系中,同样遵循着分层的架构设计理念,在降低系统耦合度的同时,也为上层用户构建Flink应用提供了丰富且友好的接口 Flink分为架构分为三层,由上往下依次是API&Libraries层、Runtime核心层以及物理部署层 ​ API&Libraries层 作为分布式数据处理框架,Flink同时提供了支撑计算和批计算的接口 物理部署层   该层主要涉及Flink的部署模式,目前Flink支持多种部署模式:本地、集群(Standalone、YARN)、云(GCE/EC2)、Kubenetes。 Flink基本架构图 Flink系统主要由两个组件组成,分别为JobManager和TaskManager,Flink架构也遵循Master-Slave架构设计原则,JobManager为Master节点 协调过程都是在Flink JobManager中完成。

    2.3K20发布于 2019-12-12
  • 来自专栏小道

    Flink学习笔记(2) -- Flink部署

    /apache/flink/flink-1.6.1/flink-1.6.1-bin-hadoop27-scala_2.11.tgz Ⅲ、local模式快速安装启动   (1)解压:tar -zxvf flink 节点,flink会自动把任务调度到其它节点执行 3、Flink on Yarn模式部署和解析 Ⅰ、依赖环境   至少hadoop2.2   hdfs & yarn Ⅱ、Flink on Yarn 的两种使用方式 Flink on Yarn的两种运行方式:   第一种【yarn-session.sh(开辟资源)+flink run(提交任务)】     启动一个一直运行的flink集群     . /bin/flink run . 4、Flink HA -- JobManager HA   jobManager协调每个flink任务部署。它负责任务调度和资源管理。   

    1.3K30发布于 2021-04-13
  • Apache Flink快速入门-Flink内存优化

    设置Flink 的进程内存  Apache Flink 通过严格控制其各种组件的内存使用情况,在 JVM 之上提供高效的工作负载。 配置总内存  Flink JVM 进程的总进程内存由 Flink 应用程序消耗的内存(总 Flink 内存)和 JVM 运行进程所消耗的内存组成。 在 Flink 中设置内存最简单的方法是配置以下两个选项之一: 成分 任务管理器的选项 作业管理的选项 Flink 总内存 taskmanager.memory.flink.size jobmanager.memory.flink.size 配置Flink 总内存更适合独立部署 ,在这种部署中,您要声明为 Flink 本身分配了多少内存。如果您配置总进程内存,则声明应分配给 Flink JVM 进程的内存总量。 必须使用上述三种方式中的一种来配置 Flink 的内存(本地执行除外),否则 Flink 启动将失败。

    54200编辑于 2025-04-05
  • 来自专栏大数据进阶

    flink(13)-flink on yarn源代码分析


    session client和per job 由于flink不同的版本代码变动较大,所以在这里需要区分flink的版本进行一下说明 flink1.9之前的基本一致,提交至yarn的主要流程都在
    这里session和per job的在流程上的最大区别就是clusterId是否为空 flink1.9之后进行了流程统一,抽象出了一个PipelineExecutor接口,统筹所有的提交,不过在看继承关系之前还是先看一下 到这里已经将所有的提交流程都说完了,大家对于flink争个提交流程应该有了更加清晰的认识。
    最后在来说一下flink submit的接口,这是在flink-1.10才出现的一个新的统一,流程图如下
    ?

    1.6K30发布于 2020-04-24
  • 来自专栏大数据技术与应用实战

    flink实战-flink streaming sql 初体验

    等大数据组件都支持sql的查询,使用sql可以让一些不懂这些组件原理的人,轻松的来操作,大大的降低了使用的门槛,今天我们先来简单的讲讲在flink的流处理中如何使用sql. 实例讲解 构造StreamTableEnvironment对象 在flink的流处理中,要使用sql,需要首先构造一个StreamTableEnvironment对象,方法比较简单。 以下的代码是基于flink 1.10.0版本进行讲解的,各个版本略有不同。 使用Row flink中提供的元组Tuple是有限制的,最多到Tuple25,所以如果我们有更多的字段,可以选择使用flink中的Row对象. 参考资料: [1].https://ci.apache.org/projects/flink/flink-docs-stable/dev/types_serialization.html 完整代码请参考

    2.1K20发布于 2020-09-15
  • 来自专栏小道

    Flink学习笔记(3) -- Flink API解析

    1、Flink DataStreamAPI Ⅰ、DataStream API 之 Data Sources部分详解   source是程序的数据源输入,你可以通过StreamExecutionEnvironment.addSource flink提供了大量的已经实现好的source方法,你也可以自定义source   通过实现sourceFunction接口来自定义无并行度的source,或者你也可以通过实现ParallelSourceFunction 2、Flink DataSetAPI Ⅰ、DataSet API之Data Sources部分详解 ? Ⅱ、DataSet API之Transformations部分详解 ? ? ? 3、Flink Table API & SQL   Flink针对流处理和批处理提供了相关的API-Table API和SQL。    https://ci.apache.org/projects/flink/flink-docs-release-1.6/dev/table/ ? 4、Flink 支持的DataType和序列化 ? ?

    47010发布于 2021-04-13
  • 来自专栏大数据成长之路

    快速入门Flink (2) —— Flink 集群搭建

    上一篇博客博主已经为大家介绍了 Flink的简介与架构体系,本篇博客,我们来学习如何搭建Flink集群。 码字不易,先赞后看! ? ---- 1、Flink 环境搭建 Flink 支持多种安装模式。 wordcount 程序测试 7) 查看 Flink WebUI 1.1.5 具体操作 1)上传 Flink 压缩包到指定目录 2) 解压缩 flink 此时会生成新的 Flink 配置信息以便 TaskManagers 能够连接到 JobManager。同时,AM 也提供 Flink 的 WEB 接口。 ■ 使用 flink 直接提交任务 bin/flink run -m yarn-cluster -yn 2 .

    2.9K20发布于 2021-01-27
  • 来自专栏全栈程序员必看

    Flink学习之flink sql「建议收藏」

    flink sql只需要具备 SQL 的基础知识即可,不需要其他编程经验。我的SQL 客户端选择的是docker安装的Flink SQL Click,大家根据自己的需求安装即可。 目录 1. SQL客户端 SQL客户端内置在Flink的版本中,大家只要启动即可,我使用的是docker环境中配置的Flink SQL Click,让我们测试一下: 输入’helloworld’ 看看输出的结果 总结 今天学习的sql,和往常不一样的地方在于,以往的sql都是处理的是批数据,而今天学习的flink sql可以处理流数据,流数据随着时间的变化而变化,flink sql可以对流数据进行类似表一样的处理 还有就是,flink sql中的窗口函数和我们传统的窗口函数不一样,按理来说,我们正常的窗口函数应该叫over聚合函数。 6. 参考资料 《Flink入门与实战》 《PyDocs》(pyflink官方文档) 《Kafka权威指南》 《Apache Flink 必知必会》 《Apache Flink 零基础入门》 《Flink

    2.4K31编辑于 2022-09-24
领券