带你一篇文章理解Flink基础

前言
Spark Streaming 准确来说算是一个微批处理伪实时的做法,可是 Flink 是真的来一条就会处理一条,而且在 Spark Streaming 和 Kafka 进行整合时我们需要手动去管理偏移量的问题,而在 Flink 当中,它就会自动地去帮助我们去管理。

而且 Flink 的算子比 Spark Streaming 的丰富多了,Flink是未来的趋势,起码我是这么认为的

一、Flink基础
Flink起源于一个名为Stratosphere的研究项目,目的是构建下一代的大数据分析平台,于14年4月16日成为Apache的孵化项目。

对于实时的程序,我们关注的点其实有下面3个,分别是数据的输入,数据的处理与数据的输出。下面的图是来自 Flink 1.9版本 官方网站的图

Flink 基础入门

这图就分割得十分清楚了,前面数据的输入这一块,有两种数据来源,一种是Real-Time Events带来的,这种是属于实时方向的,而下方的DataBase,FileSystem,和kv类型的存储系统就是离线方向的业务

数据的处理中写着我们的 Flink 可以被部署在K8s,Yarn,Mesos···等,后面的输出有可能是一个Application,应用的意思,也有可能是Event log,比如Kafka嘛,也有可能又给带回去前面提到的持久化组件中。

Apache Flink 是一个框架和分布式处理引擎,用于在无边界和有边界数据流上进行有状态的计算。Flink 能在所有常见集群环境中运行,并能以内存速度和任意规模进行计算。

1.1 Flink 的四个特点
1.1.1 Flink的数据处理思想
Flink认为数据的处理就是流处理,数据可分为有界或者无界两种。

Flink 基础入门
无界流 有定义流的开始,但没有定义流的结束。它们会无休止地产生数据。无界流的数据必须持续处理,即数据被摄取后需要立刻处理。我们不能等到所有数据都到达再处理,因为输入是无限的,在任何时候输入都不会完成。处理无界数据通常要求以特定顺序摄取事件,例如事件发生的顺序,以便能够推断结果的完整性。
有界流 有定义流的开始,也有定义流的结束。有界流可以在摄取所有数据后再进行计算。有界流所有数据可以被排序,所以并不需要有序摄取。有界流处理通常被称为批处理
在最一开始的时候,Spark只存在RDD这么一说,之后Flink的那套出来后Spark就借鉴过去了,Flink是靠实时起家的,因为这玩意一开始搞离线也搞不过Spark。所以它们其实也挺相爱相杀的

1.1.2 多场景的部署方式
Apache Flink 它需要计算资源来执行应用程序。Flink 集成了所有常见的集群资源管理器,例如 Hadoop YARN、 Apache Mesos 和 Kubernetes,但同时也可以作为独立集群运行。

Flink 被设计为能够很好地工作在上述每个资源管理器中,这是通过资源管理器特定(resource-manager-specific)的部署模式实现的。Flink 可以采用与当前资源管理器相适应的方式进行交互。

部署 Flink 应用程序时,Flink 会根据应用程序配置的并行性自动标识所需的资源,并从资源管理器请求这些资源。在发生故障的情况下,Flink 通过请求新资源来替换发生故障的容器。提交或控制应用程序的所有通信都是通过 REST 调用进行的,这可以简化 Flink 与各种环境中的集成

1.1.3 数据的多种规模应用
Flink 旨在任意规模上运行有状态流式应用。因此,应用程序被并行化为可能数千个任务,这些任务分布在集群中并发执行。所以应用程序能够充分利用无尽的 CPU、内存、磁盘和网络 IO。

而且 Flink 很容易维护非常大的应用程序状态。其异步和增量的检查点算法对处理延迟产生最小的影响,同时保证精确一次状态的一致性。Flink 可以做到

每天处理数万亿的事件
可以维护几TB大小的状态
可以部署上千个节点的集群
复制代码
1.1.4 充分利用内存的性能
有状态的 Flink 程序针对本地状态访问进行了优化。任务的状态始终保留在内存中,如果状态大小超过可用内存,则会保存在能高效访问的磁盘数据结构中。任务通过访问本地(通常在内存中)状态来进行所有的计算,从而产生非常低的处理延迟。Flink 通过定期和异步地对本地状态进行持久化存储来保证故障场景下精确一次的状态一致性。

Flink 基础入门
1.2 Flink架构
Flink 基础入门
1.3 Flink的小案例
我们实时统计每隔1秒统计最近2秒单词出现的次数,建议使用IDEA去开发

1.3.1 添加POM依赖

<flink.version>1.9.0</flink.version>
<scala.version>2.11.8</scala.version>

org.apache.flink flink-streaming-java_2.11 ${flink.version} 复制代码 1.3.2 Java代码开发 在这里我们使用了Java来进行开发,其实使用Scala也行,不过其实企业中大部分都是使用Java的

敲代码的时候注意导包的时候别导了Scala的

public class WindowWordCountJava {
public static void main(String[] args) throws Exception {
// Flink提供的获取传递的参数的工具类
ParameterTool parameterTool = ParameterTool.fromArgs(args);
String hostname = parameterTool.get(“hostname”);
int port = parameterTool.getInt(“port”);

    //步骤一:获取执行环境
    StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
    //步骤二:获取数据源
    DataStream<String> dataStream = env.socketTextStream(hostname, port);
    //步骤三:执行逻辑操作
    DataStream<WordCount> wordAndOneStream = dataStream.flatMap(new FlatMapFunction<String, WordCount>() {
        public void flatMap(String line, Collector<WordCount> out) {
            String[] fields = line.split(",");
            for (String word : fields) {
                out.collect(new WordCount(word, 1L));
            }
        }
    });

    // 类比于Spark Streaming中的window算子
    DataStream<WordCount> resultStream = wordAndOneStream.keyBy("word")
            .timeWindow(Time.seconds(2), Time.seconds(1))//每隔1秒计算最近2秒
            .sum("count");
    //步骤四:结果打印
    resultStream.print();
    //步骤五:任务启动
    env.execute("WindowWordCountJava");
}

public static class WordCount{
    public String word;
    public long count;
    //记得要有这个空构造方法
    public WordCount(){

    }
    public WordCount(String word,long count){
        this.word = word;
        this.count = count;
    }

    @Override
    public String toString() {
        return "WordCount{" +
                "word='" + word + '\'' +
                ", count=" + count +
                '}';
    }
}

}
复制代码
Scala的版本
也是添加Flink的Scala依赖,Scala开发依赖和编译插件

org.apache.flink flink-streaming-scala_2.11 ${flink.version} 复制代码

1.9.0 2.11.8

org.apache.flink flink-streaming-java_2.11 ${flink.version}
<dependency>
    <groupId>org.apache.flink</groupId>
    <artifactId>flink-streaming-scala_2.11</artifactId>
    <version>${flink.version}</version>
</dependency>
net.alchim31.maven scala-maven-plugin 3.2.2 org.apache.maven.plugins maven-compiler-plugin 3.5.1 1.8 1.8 net.alchim31.maven scala-maven-plugin scala-compile-first process-resources add-source compile scala-test-compile process-test-resources testCompile
    <plugin>
        <groupId>org.apache.maven.plugins</groupId>
        <artifactId>maven-compiler-plugin</artifactId>
        <executions>
            <execution>
                <phase>compile</phase>
                <goals>
                    <goal>compile</goal>
                </goals>
            </execution>
        </executions>
    </plugin>

    <plugin>
        <groupId>org.apache.maven.plugins</groupId>
        <artifactId>maven-shade-plugin</artifactId>
        <version>2.4.3</version>
        <executions>
            <execution>
                <phase>package</phase>
                <goals>
                    <goal>shade</goal>
                </goals>
                <configuration>
                    <filters>
                        <filter>
                            <artifact>*:*</artifact>
                            <excludes>
                                <exclude>META-INF/*.SF</exclude>
                                <exclude>META-INF/*.DSA</exclude>
                                <exclude>META-INF/*.RSA</exclude>
                            </excludes>
                        </filter>
                    </filters>
                </configuration>
            </execution>
        </executions>
    </plugin>
</plugins>
复制代码 Scala重写刚刚的逻辑

import org.apache.flink.api.java.utils.ParameterTool
import org.apache.flink.streaming.api.scala.StreamExecutionEnvironment
import org.apache.flink.streaming.api.windowing.time.Time

/**

  • 滑动窗口
  • 每隔1秒钟统计最近2秒内的数据,打印到控制台。
    */
    object WindowWordCountScala {
    def main(args: Array[String]): Unit = {
    //获取参数
    val hostname = ParameterTool.fromArgs(args).get(“hostname”)
    val port = ParameterTool.fromArgs(args).getInt(“port”)
    //TODO 导入隐式转换
    import org.apache.flink.api.scala._
    //步骤一:获取执行环境
    val env = StreamExecutionEnvironment.getExecutionEnvironment
    //步骤二:获取数据源
    val textStream = env.socketTextStream(hostname,port)
    //步骤三:数据处理
    val wordCountStream = textStream.flatMap(line => line.split(","))
    .map((_, 1))
    .keyBy(0)
    .timeWindow(Time.seconds(2), Time.seconds(1))
    .sum(1)
    //步骤四:数据结果处理
    wordCountStream.print()
    //步骤六:启动程序
    env.execute(“WindowWordCountScala”)
    }
    }
    复制代码
    1.4 local模式安装
    安装jdk,配置JAVA_HOME,建议使用jdk1.8以上
    安装包下载地址:http://mirrors.tuna.tsinghua.edu.cn/apache/flink/flink-1.9.1/flink-1.9.1-bin-scala_2.11.tgz
    直接上传安装包到服务器解压安装包:tar -zxvf flink-1.9.1-bin-scala_2.11.tgz创建快捷方式: ln -s flink-1.9.1-bin-scala_2.11.tgz flink配置FLINK_HOEM环境变量
    启动服务local模式,什么配置项都不需要配,直接启动服务器即可cd $FLIKE_HOME./bin/start-cluster.sh 启动服务./bin/stop-cluster.sh 停止服务
    Web页面浏览localhost:8081
    Flink 基础入门
    1.5 Standalone模式安装
    1.5.1 集群规划
    主机名JobManagerTaskManagerhadoop01是hadoop02是hadoop03是

1.5.2 依赖
jdk1.8以上,配置JAVA_HOME

主机之间免密码

flink-1.9.1-bin-scala_2.11.tgz

1.5.3 安装步骤
修改conf/flink-conf.yamljobmanager.rpc.address: hadoop01
修改conf/slaveshadoop02hadoop03
拷贝到其他节点scp -rq /usr/local/flink-1.9.1 hadoop02:/usr/localscp -rq /usr/local/flink-1.9.1 hadoop03:/usr/local
在hadoop01(JobMananger)节点启动start-cluster.sh
访问http://hadoop01:8081
1.5.4 StandAlone模式需要考虑的参数
jobmanager.heap.mb — jobmanager 节点可用的内存大小
taskmanager.heap.mb — taskmanager 节点可用的内存大小
taskmanager.numberOfTaskSlots — 每台机器可用的cpu数量
parallelism.default — 默认情况下任务的并行度
taskmanager.tmp.dirs — taskmanager的临时数据存储目录
1.6 Flink on Yarn模式安装
flink on yarn有两种方式:

1.6.1 第一种方式
在YARN里面启动一个flink集群,然后我们再往flink集群提交任务,除非把Flink集群停了,不然资源不会释放,这种方式会造成资源的浪费

Flink 基础入门
1.6.2 第二种方式
每提交一个任务就在yarn上面启动一个flink小集群(推荐使用),任务运行完了资源就自动释放

Flink 基础入门
1.7 不同模式的任务提交
1.7.1 yarn-session.sh(开辟资源)+flink run(提交任务)
这种方式是基本不会使用的,所以就不说明了

启动一个一直运行的flink集群

/bin/yarn-session.sh -n 2 -jm 1024 -tm 1024 [-d]

把任务附着到一个已存在的flink yarn session

•./bin/yarn-session.sh -id application_1463870264508_0029

•执行任务

•./bin/flink run ./examples/batch/WordCount.jar -input hdfs://hadoop100:9000/LICENSE -output hdfs://hadoop100:9000/wordcount-result.txt

停止任务 【web界面或者命令行执行cancel命令】
复制代码
1.7.2 flink run -m yarn-cluster(开辟资源+提交任务)
启动集群,执行任务

./bin/flink run -m yarn-cluster -yn 2 -yjm 1024 -ytm 1024 ./examples/batch/WordCount.jar
复制代码
这里只要知道yjm就是Yarn JobManager,ytm就是Yarn taskManager即可,还有其它一些相关参数的含义百度可以搜索得到

Options for yarn-cluster mode:
-d,–detached 以独立模式运行任务
-m,–jobmanager 连接 JobManager(主)的地址。
使用此标志连接一个不同的 JobManager 在配置中指定的
-yD <property=value> 使用给定属性的值
-yd,–yarndetached 以独立模式运行任务(过期的;用 non-YARN 选项代替)
-yh,–yarnhelp Yarn session CLI 的帮助信息
-yid,–yarnapplicationId 用来运行 YARN Session 的 ID
-yj,–yarnjar Flink jar 文件的路径
-yjm,–yarnjobManagerMemory JobManager 容器的内存可选单元(默认值: MB)
-yn,–yarncontainer 分配 YARN 容器的数量(=TaskManager 的数量)
-ynm,–yarnname 给应用程序一个自定义的名字显示在 YARN 上
-yq,–yarnquery 显示 YARN 的可用资源(内存,队列)
-yqu,–yarnqueue 指定 YARN 队列
-ys,–yarnslots 每个 TaskManager 的槽位数量
-yst,–yarnstreaming 以流式处理方式启动 Flink
-yt,–yarnship 在指定目录中传输文件
(t for transfer)
-ytm,–yarntaskManagerMemory 每个 TaskManager 容器的内存可选单元(默认值: MB)
-yz,–yarnzookeeperNamespace 用来创建高可用模式的 Zookeeper 的子路径的命名空间。
-ynl,–yarnnodeLabel 指定 YARN 应用程序 YARN 节点标签
复制代码
注意:client 端必须要设置 YARN_CONF_DIR 或者 HADOOP_CONF_DIR 或者 HADOOP_HOME 环境变量,通过这个环境变量来读取YARN和HDFS的配置信息,否则启动会失败

Finally
下一篇开始介绍算子

小编今天就分享到这里了,希望大家喜欢,想看下一篇介绍算子的文章记得关注我奥,请大家提携小编,转发关注走起(最大的支持,嘿嘿)

原创文章 22 获赞 16 访问量 1261

猜你喜欢

转载自blog.csdn.net/weixin_46780321/article/details/105634300