偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

大數(shù)據(jù)Spark運(yùn)行環(huán)境:Standalone模式與配置詳解

大數(shù)據(jù) Spark
這里我們來(lái)看看只使用Spark自身節(jié)點(diǎn)運(yùn)行的集群模式,也就是我們所謂的獨(dú)立部署(Standalone)模式。Spark的Standalone模式體現(xiàn)了經(jīng)典的master-slave模式。

大數(shù)據(jù)Spark運(yùn)行環(huán)境:Standalone模式與配置詳解

大數(shù)據(jù)Spark運(yùn)行環(huán)境:Standalone模式與相關(guān)配置詳解

Standalone模式

這里我們來(lái)看看只使用Spark自身節(jié)點(diǎn)運(yùn)行的集群模式,也就是我們所謂的獨(dú)立部署(Standalone)模式。Spark的Standalone模式體現(xiàn)了經(jīng)典的master-slave模式。

集群規(guī)劃:

 

大數(shù)據(jù)Spark運(yùn)行環(huán)境:Standalone模式與配置詳解

1 解壓縮文件

將spark-3.0.0-bin-hadoop3.2.tgz.tgz文件上傳到Linux并解壓縮在指定位置

  1. tar -zxvf spark-3.0.0-bin-hadoop3.2.tgz -C /opt/module 
  2. cd /opt/module  
  3. mv spark-3.0.0-bin-hadoop3.2 spark-standalone 

2 修改配置文件

1) 進(jìn)入解壓縮后路徑的conf目錄,修改slaves.template文件名為slaves

  1. mv slaves.template slaves 

2) 修改slaves文件,添加work節(jié)點(diǎn)

  1. hadoop102hadoop103hadoop104 

3) 修改spark-env.sh.template文件名為spark-env.sh

  1. mv spark-env.sh.template spark-env.sh 

4) 修改spark-env.sh文件,添加JAVA_HOME環(huán)境變量和集群對(duì)應(yīng)的master節(jié)點(diǎn)

  1. export JAVA_HOME=/opt/module/jdk1.8.0_212 
  2. SPARK_MASTER_HOST=hadoop102SPARK_MASTER_PORT=7077 

注意:7077端口,相當(dāng)于hadoop3.x內(nèi)部通信的8020端口,此處的端口需要確認(rèn)自己的虛擬機(jī)配置

5) 分發(fā)spark-standalone目錄

  1. xsync spark-standalone 

3 啟動(dòng)集群

1) 執(zhí)行腳本命令:

  1. sbin/start-all.sh 

2) 查看三臺(tái)服務(wù)器運(yùn)行進(jìn)程

  1. ================hadoop102================ 
  2. 3330 Jps 
  3. 3238 Worker 
  4. 3163 Master 
  5. ================hadoop103================ 
  6. 2966 Jps 
  7. 2908 Worker 
  8. ================hadoop104================ 
  9. 2978 Worker 
  10. 3036 Jps 

3) 查看Master資源監(jiān)控Web UI界面: http://hadoop102:8080

4 提交應(yīng)用

  1. bin/spark-submit \ 
  2. --class org.apache.spark.examples.SparkPi \ 
  3. --master spark://hadoop102:7077 \ 
  4. ./examples/jars/spark-examples_2.12-3.0.0.jar \ 
  5. 10 
  • --class表示要執(zhí)行程序的主類
  • --master spark://hadoop102:7077 獨(dú)立部署模式,連接到Spark集群
  • spark-examples_2.12-3.0.0.jar 運(yùn)行類所在的jar包
  • 數(shù)字10表示程序的入口參數(shù),用于設(shè)定當(dāng)前應(yīng)用的任務(wù)數(shù)量

執(zhí)行任務(wù)時(shí),會(huì)產(chǎn)生多個(gè)Java進(jìn)程

 

大數(shù)據(jù)Spark運(yùn)行環(huán)境:Standalone模式與配置詳解

執(zhí)行任務(wù)時(shí),默認(rèn)采用服務(wù)器集群節(jié)點(diǎn)的總核數(shù),每個(gè)節(jié)點(diǎn)內(nèi)存1024M。

5 配置歷史服務(wù)

由于spark-shell停止掉后,集群監(jiān)控hadoop102:4040頁(yè)面就看不到歷史任務(wù)的運(yùn)行情況,所以開(kāi)發(fā)時(shí)都配置歷史服務(wù)器記錄任務(wù)運(yùn)行情況。

1) 修改spark-defaults.conf.template文件名為spark-defaults.conf

  1. mv spark-defaults.conf.template spark-defaults.conf 

2) 修改spark-default.conf文件,配置日志存儲(chǔ)路徑

  1. spark.eventLog.enabled          true 
  2. spark.eventLog.dir               hdfs://hadoop102:8020/directory 

注意:需要啟動(dòng)hadoop集群,HDFS上的directory目錄需要提前存在。

  1. sbin/start-dfs.sh 
  2. hadoop fs -mkdir /directory 

3) 修改spark-env.sh文件, 添加日志配置

  1. export SPARK_HISTORY_OPTS=" 
  2. -Dspark.history.ui.port=18080 
  3. -Dspark.history.fs.logDirectory=hdfs://hadoop102:8020/directory 
  4. -Dspark.history.retainedApplications=30" 

注:寫(xiě)成一行!!空格隔開(kāi)!!!

  • 參數(shù)1含義:WEB UI訪問(wèn)的端口號(hào)為18080
  • 參數(shù)2含義:指定歷史服務(wù)器日志存儲(chǔ)路徑
  • 參數(shù)3含義:指定保存Application歷史記錄的個(gè)數(shù),如果超過(guò)這個(gè)值,舊的應(yīng)用程序信息將被刪除,這個(gè)是內(nèi)存中的應(yīng)用數(shù),而不是頁(yè)面上顯示的應(yīng)用數(shù)。

4) 分發(fā)配置文件

  1. xsync conf 

5) 重新啟動(dòng)集群和歷史服務(wù)

  1. sbin/start-all.sh 
  2. sbin/start-history-server.sh 

6) 重新執(zhí)行任務(wù)

  1. bin/spark-submit \ 
  2. --class org.apache.spark.examples.SparkPi \ 
  3. --master spark://hadoop102:7077 \ 
  4. ./examples/jars/spark-examples_2.12-3.0.0.jar \ 
  5. 10 

7) 查看歷史服務(wù):http://hadoop102:18080

6 配置高可用(HA)

所謂的高可用是因?yàn)楫?dāng)前集群中的Master節(jié)點(diǎn)只有一個(gè),所以會(huì)存在單點(diǎn)故障問(wèn)題。所以為了解決單點(diǎn)故障問(wèn)題,需要在集群中配置多個(gè)Master節(jié)點(diǎn),一旦處于活動(dòng)狀態(tài)的Master發(fā)生故障時(shí),由備用Master提供服務(wù),保證作業(yè)可以繼續(xù)執(zhí)行。這里的高可用一般采用Zookeeper設(shè)置

集群規(guī)劃:

 

大數(shù)據(jù)Spark運(yùn)行環(huán)境:Standalone模式與配置詳解

1) 停止集群

  1. sbin/stop-all.sh 

2) 啟動(dòng)Zookeeper

3) 修改spark-env.sh文件添加如下配置

  1. 注釋如下內(nèi)容: 
  2. #SPARK_MASTER_HOST=hadoop102#SPARK_MASTER_PORT=7077 
  3.  添加如下內(nèi)容:#Master監(jiān)控頁(yè)面默認(rèn)訪問(wèn)端口為8080,但是會(huì)和Zookeeper沖突,所以改成8989,也可以自定義,訪問(wèn)UI監(jiān)控頁(yè)面時(shí)請(qǐng)注意 
  4. SPARK_MASTER_WEBUI_PORT=8989 
  5.  export SPARK_DAEMON_JAVA_OPTS=" 
  6. -Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=hadoop102,hadoop103,hadoop104 -Dspark.deploy.zookeeper.dir=/spark" 

注:寫(xiě)成一行!!空格隔開(kāi)!!!

4) 分發(fā)配置文件

  1. xsync conf/ 

5) 啟動(dòng)集群

  1. sbin/start-all.sh 

6) 啟動(dòng)hadoop103的單獨(dú)Master節(jié)點(diǎn),此時(shí)hadoop103節(jié)點(diǎn)Master狀態(tài)處于備用狀態(tài)

  1. [bigdata@hadoop103 spark-standalone]$ sbin/start-master.sh 

7) 提交應(yīng)用到高可用集群

  1. bin/spark-submit \ 
  2. --class org.apache.spark.examples.SparkPi \ 
  3. --master spark://hadoop102:7077,hadoop103:7077 \ 
  4. ./examples/jars/spark-examples_2.12-3.0.0.jar \ 
  5. 10 

8) 停止hadoop102的Master資源監(jiān)控進(jìn)程

9) 查看hadoop103的Master 資源監(jiān)控Web UI,稍等一段時(shí)間后,hadoop103節(jié)點(diǎn)的Master狀態(tài)提升為活動(dòng)狀態(tài)

責(zé)任編輯:未麗燕 來(lái)源: 今日頭條
相關(guān)推薦

2014-04-16 14:04:34

SparkStandalone

2021-03-15 14:02:21

大數(shù)據(jù)數(shù)據(jù)開(kāi)發(fā)Spark

2014-09-16 10:13:27

Spark搭建環(huán)境

2023-06-07 17:04:48

集群Standalone

2022-10-14 15:44:03

大數(shù)據(jù)Hadoop

2017-05-31 14:35:17

大數(shù)據(jù)運(yùn)行環(huán)境數(shù)據(jù)管道

2010-09-17 16:54:26

Java運(yùn)行環(huán)境

2019-07-22 10:45:31

2011-06-23 18:37:02

Qt 數(shù)據(jù)庫(kù)

2010-07-14 16:16:16

Telnet模式

2009-07-09 14:57:08

JDK環(huán)境配置

2014-07-04 10:01:08

Spark集群

2017-10-11 11:10:02

Spark Strea大數(shù)據(jù)流式處理

2011-08-15 23:14:34

Oraclerman環(huán)境配置

2014-04-04 10:53:04

2009-07-15 11:20:05

MyEclipse F

2020-05-26 15:05:30

Spark安裝環(huán)境

2014-05-16 10:55:47

Spark

2011-09-14 09:40:06

Android開(kāi)發(fā)

2009-03-03 20:44:06

桌面虛擬化Xendesktop虛擬化
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)