偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

基于云原生的Flink計算平臺實踐

云計算 云原生
最近這幾年,大數(shù)據(jù)領(lǐng)域比如Flink,Spark等計算引擎也紛紛表示對k8s的支持,使得大數(shù)據(jù)應(yīng)用從傳統(tǒng)的yarn時代轉(zhuǎn)變?yōu)樵圃鷷r代。本文以Flink和k8s為主要技術(shù)手段,介紹如何搭建一個云原生計算平臺。
作者|王杰,單位:中國移動智慧家庭運營中心

?Labs 導(dǎo)讀

隨著云原生的普及,越來越多的后端應(yīng)用進行了容器化遷移,并通過k8s進行編排管理。而最近這幾年,大數(shù)據(jù)領(lǐng)域比如Flink,Spark等計算引擎也紛紛表示對k8s的支持,使得大數(shù)據(jù)應(yīng)用從傳統(tǒng)的yarn時代轉(zhuǎn)變?yōu)樵圃鷷r代。本文以Flink和k8s為主要技術(shù)手段,介紹如何搭建一個云原生計算平臺。

Part 01  K8s概述 

Kubernetes,又稱為k8s或者kube,是一種可自動實施Linux容器操作的開源平臺。它可以幫助用戶省去應(yīng)用容器化過程的許多手動部署和擴展操作。也就是說,您可以將運行Linux容器的多組主機聚合在一起。由k8s幫助您輕松高效地管理這些集群。而且,這些集群可跨公共云、私有云或混合云部署主機。其架構(gòu)圖如下:

圖片

注:

  1. kubectl: 使用Kubernetees API與Kubernetes集群的控制面通信的命令行工具。
  2. ETCD: 一種分布式健值存儲,用于分布式系統(tǒng)或計算機集群的??配置、服務(wù)發(fā)現(xiàn)和調(diào)度協(xié)調(diào)。
  3. Node(節(jié)點): 負責(zé)執(zhí)行請求和所分配任務(wù)的計算機。
  4. Pod(容器集): 被部署在單個節(jié)點上的,且包含一個或多個容器的容器組。
  5. Kubelet: 運行在節(jié)點上的服務(wù),可讀取容器清單,確保指定的容器啟動并運行。

1.在Master上,是由Controller,API Server,Scheduler 以及包括做存儲的Etcd等構(gòu)成。Etcd可以算成Master,也可以作為獨立于Master之外的存儲來對待。Master的Controller、API Server、Scheduler都是單獨的進程模式。這和Yarn有一些不同,Yarn的整個Master是一個單進程的模式。K8s的Master還可以在多個Master之間完成自發(fā)的選舉,然后由active狀態(tài)的Master對外提供服務(wù)。

2.在Slave上,它主要是包括Kube proxy、Kubelet,以及Docker等相關(guān)的組件,每個Node上部署的相關(guān)組件都是類似的,通過它來管理上面運行的多個Pod。

3.根據(jù)不同用戶的習(xí)慣,可以通過UI或者CLI的方式向K8s提交任務(wù)。用戶可以通過K8s提供的Dashboard Web UI的方式將任務(wù)進行提交,也可以通過Kubectl命令行的方式進行提交。

Part 02  Flink概述

Apache Flink 是一個框架和分布式處理引擎,用于在無邊界和有邊界數(shù)據(jù)流上進行有狀態(tài)的計算。Flink 能在所有常見集群環(huán)境中運行,并能以內(nèi)存速度和任意規(guī)模進行計算。其架構(gòu)圖如下:

圖片

Flink整個系統(tǒng)包含三個部分:

Client:Flink Client主要給用戶提供向Flink系統(tǒng)提交用戶任務(wù)(流式作業(yè))的能力。

TaskManager:Flink系統(tǒng)的業(yè)務(wù)執(zhí)行節(jié)點,執(zhí)行具體的用戶任務(wù)。TaskManager可以有多個,各個TaskManager都平等。

JobManager:Flink系統(tǒng)的管理節(jié)點,管理所有的TaskManager,并決策用戶任務(wù)在哪些Taskmanager執(zhí)行。JobManager在HA模式下可以有多個,但只有一個主JobManager。

Part 03  Flink on K8s部署模式 

Flink的部署方式有很多,支持Local,Standalone,Yarn,Docker,Kubernetes模式等。而根據(jù)Flink job的提交模式,又可以分為三種模式:

圖片

模式1:Application Mode

Flink提交的程序,被當(dāng)做集群內(nèi)部Application,不再需要Client端做繁重的準(zhǔn)備工作。(例如執(zhí)行main函數(shù),生成JobGraph,下載依賴并分發(fā)到各個節(jié)點等)。main函數(shù)被提交給JobManager執(zhí)行。一個Application一個Cluster實例。

模式2:Per-Job Mode

可以理解為 Client 模式的Application Mode,利用資源管理框架,例如Yarn,Mesos等,資源隔離性更強。一個Job一個Cluster實例。逐漸被廢棄。

模式3:Session Mode

也是由Client提交,做一些預(yù)備工作。但是Cluster的實例已經(jīng)被創(chuàng)建,是所有Job共享的。一個Job導(dǎo)致的JobManager失敗可能會導(dǎo)致所有的Job失敗。

總的來說,在k8s上可以運行以下四種模式:standalone session,standalone application, native session和native application。其特點如下:

圖片

根據(jù)以上特點,一般生產(chǎn)采用native application模式部署。其啟動流程圖如下:

圖片

1.首先創(chuàng)建出了 Service、Master 和 ConfigMap 這幾個資源以后,Flink Master Deployment 里面已經(jīng)帶了一個用戶 Jar,這個時候 Cluster Entrypoint 就會從用戶 Jar 里面去提取出或者運行用戶的 main,然后產(chǎn)生 JobGraph。之后再提交到 Dispatcher,由 Dispatcher 去產(chǎn)生 Master,然后再向 ResourceManager 申請資源,后面的邏輯的就和 Session 的方式是一樣的。

2.它和 Session 最大的差異就在于它是一步提交的。因為沒有了兩步提交的需求,如果不需要在任務(wù)起來以后訪問外部 UI,就可以不用外部的 Service。可直接通過一步提交使任務(wù)運行。通過本地的 port-forward 或者是用 K8s ApiServer 的一些 proxy 可以訪問 Flink 的 Web UI。此時,External Service 就不需要了,意味著不需要再占用一個 LoadBalancer 或者占用 NodePort。

Part 04  Flink on native k8s部署實戰(zhàn)

部署Flink之前需要一個正在運行的k8s集群,且滿足以下幾點需求:

  • Kubernetes >= 1.9。
  • KubeConfig,它可以列出、創(chuàng)建、刪除 Pod 和服務(wù),可通過 ~/.kube/config 進行配置。您可以通過運行 kubectl auth can-i <list|create|edit|delete> pods 來驗證權(quán)限。
  • 啟用 Kubernetes DNS。
  • 具有創(chuàng)建、刪除 Pod 的 RBAC 權(quán)限的默認服務(wù)帳戶。

在有了以上的k8s集群后,接下去我們需要執(zhí)行以下步驟來啟動一個k8s native application任務(wù):

1.創(chuàng)建一個名字為flink-cluster的namespace

kubectl create namespace flink-cluster

2.創(chuàng)建一個賬戶

Kubectl create serviceaccount flink -n flink-cluster

3.Service account和角色綁定

kubectl create clusterrolebinding flink-role-binding-flink \
--clusterrole=edit \
--serviceaccount=flink-cluster:flink

4.編寫Dockerfile文件

# base image
FROM apache/flink:1.14.5-scala_2.11
RUN mkdir -p $FLINK_HOME/usrlib
RUN mkdir -p $FLINK_HOME/hadoopconf
COPY flink-1.14.5/examples/streaming/TopSpeedWindowing.jar $FLINK_HOME/usrlib/TopSpeedWindowing.jar
COPY core-site.xml $FLINK_HOME/hadoopconf
COPY hdfs-site.xml $FLINK_HOME/hadoopconf
# 添加hdfs的相關(guān)的jar,為了讀取hdfs
COPY flink-shaded-hadoop2-uber-2.8.3-1.8.3.jar $FLINK_HOME/lib
# 配置HADOOP_CONF_DIR為了獲取hadoop的core-site.xml and hdfs-site.xml ,因為checkpoint是存在hdfs的,需要讀寫hdfs
ENV HADOOP_CONF_DIR=$FLINK_HOME/hadoopconf:$HADOOP_CONF_DIR

5.打鏡像

docker build -t apache/flink:v0.1 .

打鏡像的目錄下存在的文件

core-site.xml
Dockerfile
flink-1.14.5
flink-shaded-hadoop2-uber-2.8.3-1.8.3.jar
hdfs-site.xml

6.啟動application mode的任務(wù)

./flink-1.14.5/bin/flink run-application \
--target kubernetes-application \
-Dkubernetes.namespace=flink-cluster \
-Dkubernetes.jobmanager.service-account=flink \
-Dkubernetes.cluster-id=my-first-application-cluster \
-Dkubernetes.high-availability=org.apache.flink.kubernetes.highavailability.KubernetesHaServicesFactory \
-Dkubernetes.cluster-id=my-first-application-cluster \
-Dhigh-availability.storageDir=hdfs://${your hdfs cluster name}/flink/recovery \
-Dkubernetes.container.image=apache/flink:v0.1 \
-Dkubernetes.rest-service.exposed.type=NodePort \
-Dstate.backend=rocksdb \
-Dstate.checkpoints.dir=hdfs://${your hdfs cluster name}/flink/flink-checkpoints \
-Dstate.backend.incremental=true \
local:///opt/flink/usrlib/TopSpeedWindowing.jar

啟動之后會在最后出現(xiàn)如下的日志,最后的地址就是該任務(wù)的web ui地址

2022-07-27 16:45:00,320 INFO  org.apache.flink.kubernetes.KubernetesClusterDescriptor      [] - Create flink application cluster my-first-application-cluster successfully, JobManager Web Interface: http://ip:port

啟動之后我們會看到k8s啟動了以下的flink的組件?

[root@master1 ~]# kubectl get svc -n flink-cluster
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
my-first-application-cluster ClusterIP None <none> 6123/TCP,6124/TCP 1h
my-first-application-cluster-rest ClusterIP ip xxxx <none> 8082/TCP 46h
[root@master1 ~]# kubectl get deployments -n flink-cluster
NAME READY UP-TO-DATE AVAILABLE AGE
my-first-application-cluster 1/1 1 1 1h
[root@master1 ~]# kubectl get pods -n flink-cluster
NAME READY STATUS RESTARTS AGE
my-first-application-cluster-7c4d9d7994-6vwjr 1/1 Running 0 1h
my-first-application-cluster-taskmanager-1-1 1/1 Running 0 461h

這樣,就表示Flink啟動成功了。我們看到在k8s上有2個pod,分別是jobmanger和taskmanger,一個service用于端口映射。

Part 05  Flink平臺k8s改造實踐

在k8s改造之前,我們已經(jīng)有了一個Flink計算平臺。其主要包含3個部分,web ui用于用戶提交SQL任務(wù)或者JAR任務(wù),web服務(wù)端用于解析SQL或者JAR,然后生成Flink Client提交命令,最后執(zhí)行命令提交任務(wù)到集群上去。

圖片

如上圖所示,我們的平臺已經(jīng)有Yarn和Standalone模式提交。那么支持云原生,只需要在原先基礎(chǔ)上增加一個native k8s提交方式即可。在代碼層面就是在提交任務(wù)抽象類上增加一個native k8s的實現(xiàn)。

下圖為具體的一個native k8s SQL任務(wù)提交頁面。只需要設(shè)置運行模式、運行參數(shù)和依賴的第三方j(luò)ar包,再加上具體的SQL腳本即可完成一個Flink任務(wù)的提交。

圖片

文獻來源

[1]Flink官網(wǎng),《Flink Documentation》

[2]Kubernetes官網(wǎng),《kubernetes Documentation》、

[3]騰訊云開發(fā)者社區(qū),《原生的在K8s上運行Flink》

[4]騰訊云開發(fā)者社區(qū),《Flink 1.13 在Native k8s的部署實踐》

[5]51CTO,《網(wǎng)易游戲 Flink SQL 平臺化實踐》?

責(zé)任編輯:未麗燕 來源: 移動Labs
相關(guān)推薦

2022-07-07 10:41:53

鯤鵬

2016-01-14 10:02:54

DockerOpenStack私有云

2023-04-12 07:26:58

翼支付大數(shù)據(jù)平臺

2015-09-21 15:00:54

聯(lián)想OpenStack企業(yè)云平臺

2017-03-07 10:00:01

定義實踐DevOps

2022-12-26 16:34:51

開源云原生

2024-02-27 07:27:58

云原生推薦系統(tǒng)架構(gòu)云原生技術(shù)棧

2015-09-22 10:57:43

樂視云OpenStack IaaS

2022-07-12 13:41:38

云計算云安全

2017-11-28 15:16:47

KubernetesCephGPU云

2013-01-04 13:34:31

云計算北龍超云

2021-08-02 09:40:57

Dapr阿里云Service Mes

2023-07-18 18:14:51

云原生軟件架構(gòu)

2013-10-18 15:02:08

OpenStack

2021-03-04 09:37:40

云計算云原生計算云安全

2015-02-05 07:50:56

2021-06-15 09:57:23

云計算云原生云開發(fā)

2021-04-25 10:26:58

云計算云原生

2020-03-04 09:56:56

網(wǎng)絡(luò)安全云原生容器

2020-09-18 13:09:15

云原生云安全網(wǎng)絡(luò)安全
點贊
收藏

51CTO技術(shù)棧公眾號