偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

Hadoop VS Spark 性能原理分析

大數(shù)據(jù) Hadoop Spark
面對Hadoop與Spark孰優(yōu)孰劣這個問題,最準(zhǔn)確的觀點(diǎn)就是,設(shè)計人員旨在讓Hadoop和Spark在同一個團(tuán)隊里面協(xié)同運(yùn)行。

面對Hadoop與Spark孰優(yōu)孰劣這個問題,最準(zhǔn)確的觀點(diǎn)就是,設(shè)計人員旨在讓Hadoop和Spark在同一個團(tuán)隊里面協(xié)同運(yùn)行。 

[[327818]]

直接比較Hadoop和Spark有難度,因為它們處理的許多任務(wù)都一樣,但是在一些方面又并不相互重疊。

比如說,Spark沒有文件管理功能,因而必須依賴Hadoop分布式文件系統(tǒng)(HDFS)或另外某種解決方案。將Hadoop MapReduce與Spark作一番比較來得更明智,因為它們作為數(shù)據(jù)處理引擎更具有可比性。

過去幾年,隨著數(shù)據(jù)科學(xué)趨于成熟,也日益需要用一種不同的方法來處理大數(shù)據(jù)。Hadoop在一些業(yè)務(wù)應(yīng)用領(lǐng)域的表現(xiàn)比后起之秀Spark更勝一籌,不過Spark在大數(shù)據(jù)領(lǐng)域有其一席之地,這歸功于它具有速度快、易于使用的優(yōu)點(diǎn)。本文剖析了兩大平臺的一系列常見屬性,包括性能、容錯、成本、易用性、數(shù)據(jù)處理、兼容性和安全性。

Hadoop和Spark方面要記住的最重要一點(diǎn)就是,它們并不是非此即彼的關(guān)系,因為它們不是相互排斥,也不是說一方是另一方的簡易替代者。兩者彼此兼容,這使得這對組合成為一種功能極其強(qiáng)大的解決方案,適合諸多大數(shù)據(jù)應(yīng)用場合。

Hadoop的定義

Hadoop是Apache.org的一個項目,其實(shí)是一種軟件庫和框架,以便使用簡單的編程模型,跨計算器集群對龐大數(shù)據(jù)集(大數(shù)據(jù))進(jìn)行分布式處理。Hadoop可靈活擴(kuò)展,從單一計算機(jī)系統(tǒng),到提供本地存儲和計算能力的數(shù)千個商用系統(tǒng),它都能輕松支持。實(shí)際上,Hadoop就是大數(shù)據(jù)分析領(lǐng)域的重量級大數(shù)據(jù)平臺。

Hadoop由協(xié)同運(yùn)行、構(gòu)建Hadoop框架的多個模塊組成。Hadoop框架的主要模塊包括如下:

  • Hadoop Common
  • Hadoop分布式文件系統(tǒng)(HDFS)
  • Hadoop YARN
  • Hadoop MapReduce

雖然上述四個模塊構(gòu)成了Hadoop的核心,不過還有其他幾個模塊。這些模塊包括:Ambari、Avro、Cassandra、Hive、Pig、Oozie、Flume和Sqoop,它們進(jìn)一步增強(qiáng)和擴(kuò)展了Hadoop的功能,得以擴(kuò)大到大數(shù)據(jù)應(yīng)用領(lǐng)域,處理龐大數(shù)據(jù)集。

許多使用大數(shù)據(jù)集和分析工具的公司使用Hadoop。它已成為大數(shù)據(jù)應(yīng)用系統(tǒng)中事實(shí)上的標(biāo)準(zhǔn)。設(shè)計Hadoop的初衷是處理這項任務(wù):搜尋和搜索數(shù)十億個網(wǎng)頁,將這些信息收集到數(shù)據(jù)庫中。正是由于渴望搜尋和搜索互聯(lián)網(wǎng),才有了Hadoop的HDFS及分布式處理引擎MapReduce。

如果數(shù)據(jù)集變得極其龐大或極其復(fù)雜,以至于當(dāng)前的解決方案無法在數(shù)據(jù)用戶認(rèn)為合理的時間段內(nèi)有效地處理信息,Hadoop對公司就會大有用處。

MapReduce是一種出色的文本處理引擎,它理應(yīng)如此,因為搜尋互聯(lián)網(wǎng)和搜索互聯(lián)網(wǎng)(它的首要任務(wù))都是基于文本的任務(wù)。

Spark的定義

Apache Spark開發(fā)人員聲稱它是“一種用于數(shù)據(jù)大規(guī)模處理的快速通用引擎”。相比之下,如果說Hadoop的大數(shù)據(jù)框架好比是800磅重的大猩猩,Spark就好比是130磅重的獵豹。

雖然批評Spark的內(nèi)存處理技術(shù)的人士承認(rèn),Spark確實(shí)速度很快(最多比Hadoop MapReduce快100倍),但他們可能并不愿意承認(rèn)它在磁盤上運(yùn)行起來速度最多快10倍。Spark還可以執(zhí)行批量處理,然而它真正擅長的是處理流工作負(fù)載、交互式查詢和基于機(jī)器的學(xué)習(xí)。

相比MapReduce基于磁盤的批量處理引擎,Spark賴以成名之處是其數(shù)據(jù)實(shí)時處理功能。Spark與Hadoop及其模塊兼容。實(shí)際上,在Hadoop的項目頁面上,Spark就被列為是一個模塊。

Spark有自己的頁面,因為雖然它可以通過YARN(另一種資源協(xié)調(diào)者)在Hadoop集群中運(yùn)行,但是它也有一種獨(dú)立模式。它可以作為Hadoop模塊來運(yùn)行,也可以作為獨(dú)立解決方案來運(yùn)行;這樣一來,很難直接比較兩者。然而隨著時間的推移,一些大數(shù)據(jù)科學(xué)家預(yù)計Spark會出現(xiàn)分叉,可能會取代Hadoop,尤其是在更快速地訪問處理的數(shù)據(jù)至關(guān)重要的情況下。

Spark是一種集群計算框架,這意味著它更多地與MapReduce競爭,而不是與整個Hadoop生態(tài)系統(tǒng)競爭。比如說,Spark沒有自己的分布式文件系統(tǒng),但可以使用HDFS。

Spark使用內(nèi)存,也可以使用磁盤進(jìn)行處理,而MapReduce完全基于磁盤。MapReduce和Spark的主要區(qū)別在于,MapReduce使用持久存儲,而Spark使用彈性分布式數(shù)據(jù)集(RDDS),下面容錯部分有更詳細(xì)的解釋。

性能

網(wǎng)上不缺關(guān)于Spark與MapReduce相比有多快的信息。對兩者進(jìn)行比較有個問題,那就是它們處理數(shù)據(jù)的方式不一樣,數(shù)據(jù)處理部分有介紹。Spark之所以如此快速,原因在于它在內(nèi)存中處理一切數(shù)據(jù)。沒錯,它還可以使用磁盤來處理未全部裝入到內(nèi)存中的數(shù)據(jù)。

Spark的內(nèi)存處理為來自多個來源的數(shù)據(jù)提供了近乎實(shí)時分析的功能:營銷活動、機(jī)器學(xué)習(xí)、物聯(lián)網(wǎng)傳感器、日志監(jiān)控、安全分析和社交媒體網(wǎng)站。另外,MapReduce使用批量處理,其實(shí)從來就不是為驚人的速度設(shè)計的。它的初衷是不斷收集來自網(wǎng)站的信息,不需要這些數(shù)據(jù)具有實(shí)時性或近乎實(shí)時性。

易用性

眾所周知,Spark以性能見長,但是它也因易用性而小有名氣,原因是它隨帶易于使用的API,支持Scala(原生語言)、Java、Python和Spark SQL。Spark SQL非常類似于SQL 92,所以幾乎不需要經(jīng)歷一番學(xué)習(xí),馬上可以上手。

Spark還有一種交互模式,那樣開發(fā)人員和用戶都可以獲得查詢和其他操作的即時反饋。MapReduce沒有交互模式,不過有了Hive和Pig等附加模塊,采用者使用MapReduce來得容易一點(diǎn)。

成本

MapReduce和Spark都是Apache項目,這意味著它們是開源免費(fèi)軟件產(chǎn)品。雖然軟件不需要成本,但是派人用硬件運(yùn)行任何一種平臺帶來了成本。這兩種產(chǎn)品都設(shè)計成可以在商用硬件上運(yùn)行,比如所謂的低成本白盒服務(wù)器系統(tǒng)。

MapReduce和Spark在同樣的硬件上運(yùn)行,那么這兩種解決方案的成本差異體現(xiàn)在哪里?MapReduce使用常規(guī)數(shù)量的內(nèi)存,因為數(shù)據(jù)處理基于磁盤,所以公司得購買速度更快的磁盤和大量磁盤空間來運(yùn)行MapReduce。MapReduce還需要更多的系統(tǒng),將磁盤輸入/輸出分布到多個系統(tǒng)上。

Spark需要大量內(nèi)存,但是可以使用常規(guī)數(shù)量的常規(guī)轉(zhuǎn)速磁盤。一些用戶抱怨會產(chǎn)生臨時文件,需要清理。這些臨時文件通常保存7天,以便加快針對同一數(shù)據(jù)集的任何處理。磁盤空間相對便宜,由于Spark不使用磁盤輸入/輸入用于處理,已使用的磁盤空間可以用于SAN或NAS。

然而,由于需要大量內(nèi)存在內(nèi)存中處理一切數(shù)據(jù),Spark系統(tǒng)的成本更高,這點(diǎn)沒錯。但是Spark的技術(shù)同時減少了所需的系統(tǒng)數(shù)量。所以,最后的情形是,系統(tǒng)成本較高,但是數(shù)量大大減少。也許到時候,Spark實(shí)際上可以降低每個計算單位的成本,盡管內(nèi)存方面有額外的要求。

舉例說明,“Spark已證明在數(shù)據(jù)多達(dá)PB的情況下也輕松自如。它被用于在數(shù)量只有十分之一的機(jī)器上,對100TB數(shù)據(jù)進(jìn)行排序的速度比Hadoop MapReduce快3倍。”這一成績讓Spark成為2014年Daytona GraySort基準(zhǔn)。

兼容性

MapReduce和Spark相互兼容;MapReduce通過JDBC和ODC兼容諸多數(shù)據(jù)源、文件格式和商業(yè)智能工具,Spark具有與MapReduce同樣的兼容性。

數(shù)據(jù)處理

MapReduce是一種批量處理引擎。MapReduce以順序步驟來操作,先從集群讀取數(shù)據(jù),然后對數(shù)據(jù)執(zhí)行操作,將結(jié)果寫回到集群,從集群讀取更新后的數(shù)據(jù),執(zhí)行下一個數(shù)據(jù)操作,將那些結(jié)果寫回到結(jié)果,依次類推。Spark執(zhí)行類似的操作,不過是在內(nèi)存中一步執(zhí)行。它從集群讀取數(shù)據(jù)后,對數(shù)據(jù)執(zhí)行操作,然后寫回到集群。

Spark還包括自己的圖形計算庫GraphX。GraphX讓用戶可以查看與圖形和集合同樣的數(shù)據(jù)。用戶還可以使用彈性分布式數(shù)據(jù)集(RDD),改變和聯(lián)合圖形,容錯部分作了討論。

容錯

至于容錯,MapReduce和Spark從兩個不同的方向來解決問題。MapReduce使用TaskTracker節(jié)點(diǎn),它為JobTracker節(jié)點(diǎn)提供了心跳(heartbeat)。如果沒有心跳,那么JobTracker節(jié)點(diǎn)重新調(diào)度所有將執(zhí)行的操作和正在進(jìn)行的操作,交給另一個TaskTracker節(jié)點(diǎn)。這種方法在提供容錯性方面很有效,可是會大大延長某些操作(即便只有一個故障)的完成時間。

Spark使用彈性分布式數(shù)據(jù)集(RDD),它們是容錯集合,里面的數(shù)據(jù)元素可執(zhí)行并行操作。RDD可以引用外部存儲系統(tǒng)中的數(shù)據(jù)集,比如共享式文件系統(tǒng)、HDFS、HBase,或者提供Hadoop InputFormat的任何數(shù)據(jù)源。Spark可以用Hadoop支持的任何存儲源創(chuàng)建RDD,包括本地文件系統(tǒng),或前面所列的其中一種文件系統(tǒng)。

RDD擁有五個主要屬性:

  • 分區(qū)列表
  • 計算每個分片的函數(shù)
  • 依賴其他RDD的項目列表

面向鍵值RDD的分區(qū)程序(比如說RDD是散列分區(qū)),這是可選屬性

計算每個分片的首選位置的列表(比如HDFS文件的數(shù)據(jù)塊位置),這是可選屬性

RDD可能具有持久性,以便將數(shù)據(jù)集緩存在內(nèi)存中。這樣一來,以后的操作大大加快,最多達(dá)10倍。Spark的緩存具有容錯性,原因在于如果RDD的任何分區(qū)丟失,就會使用原始轉(zhuǎn)換,自動重新計算。

可擴(kuò)展性

按照定義,MapReduce和Spark都可以使用HDFS來擴(kuò)展。那么,Hadoop集群能變得多大呢?

據(jù)稱雅虎有一套42000個節(jié)點(diǎn)組成的Hadoop集群,可以說擴(kuò)展無極限。最大的已知Spark集群是8000個節(jié)點(diǎn),不過隨著大數(shù)據(jù)增多,預(yù)計集群規(guī)模也會隨之變大,以便繼續(xù)滿足吞吐量方面的預(yù)期。

安全

Hadoop支持Kerberos身份驗證,這管理起來有麻煩。然而,第三方廠商讓企業(yè)組織能夠充分利用活動目錄Kerberos和LDAP用于身份驗證。同樣那些第三方廠商還為傳輸中數(shù)據(jù)和靜態(tài)數(shù)據(jù)提供數(shù)據(jù)加密。

Hadoop分布式文件系統(tǒng)支持訪問控制列表(ACL)和傳統(tǒng)的文件權(quán)限模式。Hadoop為任務(wù)提交中的用戶控制提供了服務(wù)級授權(quán)(Service Level Authorization),這確??蛻魮碛姓_的權(quán)限。

Spark的安全性弱一點(diǎn),目前只支持通過共享密鑰(密碼驗證)的身份驗證。Spark在安全方面帶來的好處是,如果你在HDFS上運(yùn)行Spark,它可以使用HDFS ACL和文件級權(quán)限。此外,Spark可以在YARN上運(yùn)行,因而能夠使用Kerberos身份驗證。

總結(jié)Hadoop vs Spark

乍一看,對任何大數(shù)據(jù)應(yīng)用而言,使用Spark似乎是默認(rèn)選擇。然而,事實(shí)并非如此。MapReduce已在大數(shù)據(jù)市場取得了進(jìn)展,尤其受到這種公司企業(yè)的追捧:需要由商用系統(tǒng)對龐大數(shù)據(jù)集加以控制。Spark的速度、靈活性和相對易用性對MapReduce的低操作成本來說是絕對補(bǔ)充。

實(shí)際上,Spark與MapReduce是一種相互共生的關(guān)系。Hadoop提供了Spark所沒有的功能特性,比如分布式文件系統(tǒng),而Spark為需要它的那些數(shù)據(jù)集提供了實(shí)時內(nèi)存處理。完美的大數(shù)據(jù)場景正是設(shè)計人員當(dāng)初預(yù)想的那樣:讓Hadoop和Spark在同一個團(tuán)隊里面協(xié)同運(yùn)行。

 

責(zé)任編輯:未麗燕 來源: 今日頭條
相關(guān)推薦

2022-06-01 13:52:11

開源大數(shù)據(jù)

2023-11-06 18:37:23

虛擬線程編寫

2017-10-19 08:28:15

大數(shù)據(jù)HadoopSpark

2009-11-04 13:51:46

ADO.NET性能

2021-12-26 00:03:25

Spark性能調(diào)優(yōu)

2021-01-25 20:20:35

數(shù)據(jù)分析SparkHadoop

2014-03-26 11:09:27

Spark

2013-03-21 11:20:00

性能測試性能調(diào)優(yōu)測試

2016-04-18 10:45:22

Dr. ElephanHadoop性能監(jiān)控

2022-06-30 10:38:53

Lepton無損壓縮圖片圖片質(zhì)量

2025-04-16 08:50:00

信號量隔離線程池隔離并發(fā)控制

2017-04-19 11:17:48

SparkHadoopMapReduce

2012-03-21 09:31:51

ibmdw

2010-05-24 14:59:29

Hadoop集群

2022-06-28 08:42:03

磁盤kafka高性能

2020-05-18 07:00:00

性能測試壓力測試負(fù)載測試

2011-06-08 16:59:04

性能測試載測試壓力測試

2014-09-09 14:10:01

企業(yè)級HadoopSpark

2018-03-21 11:05:26

Spark大數(shù)據(jù)應(yīng)用程序

2014-04-09 10:55:55

Cloudera\Sp
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號