實現(xiàn)R與Hadoop聯(lián)合作業(yè)的三種方法
為了滿足用R語言處理pb量級數(shù)據(jù)的需求,我們需要把它和Hadoop聯(lián)合起來使用。本文的目的就是闡述實現(xiàn)二者聯(lián)合作業(yè)的不同技術(shù)。
方法一:利用Streaming APIs
Hadoop支持一些 Streaming API來將R語言中的函數(shù)傳入,并在MapReduce模式下運行這些函數(shù)。這些Streaming API可以將任意能在map-reduce模式下訪問和操作標(biāo)準(zhǔn)I/O接口的R腳本傳入Hadoop中。因此,你不需要額外開啟一些客戶端之類的東西。如下是一個例子:
方法二:使用Rhipe包
Rhipe包允許用戶在R中使用MapReduce。在使用這一方法前,要做相應(yīng)的前期準(zhǔn)備工作。R需要被安裝在Hadoop集群中的每一個數(shù)據(jù)節(jié)點上,此外每個節(jié)點還要安裝Protocol Buffers(更多資料請參考 http://wiki.apache.org/hadoop/ProtocolBuffers),Rhipe也需要在每個節(jié)點上都可以被使用。
下面是在R中利用Rhipe應(yīng)用MapReduce框架的范例:
方法三:使用RHadoop
RHadoop是Recolution Analytics下的一個開源庫,與Rhipe類似,它的功能也是在MapReduce模式下執(zhí)行R函數(shù)。后續(xù)列舉的都是該庫中的一些包。plyrmr 包可以在Hadoop中對大數(shù)據(jù)集進行一些常用的數(shù)據(jù)整理操作。rmr包提供了一些讓R和Hadoop聯(lián)合作業(yè)的函數(shù)。rdfs包提供了一些函數(shù)來連接R 和分布式文件系統(tǒng)(HDFS)。rhbase包中的函數(shù)則能連接R和HBase。
下面這個例子中,我們會演示如何使用rmr包中的一些函數(shù)來讓R與Hadoop聯(lián)合作業(yè)。
方法總結(jié)
總的說來,上述三種方法都能很容易地實現(xiàn)R與Hadoop的聯(lián)合作業(yè),這樣一來R就擁有了在分布式文件系統(tǒng)(HDFS)上處理大數(shù)據(jù)的能力。但同時,這三種方法也各有利弊。
關(guān)鍵結(jié)論:
1、使用Streaming APIs最為簡單,它的安裝和設(shè)置都很方便。Rhipe和RHadoop都需要對R進行一些設(shè)置,并且也需要Hadoop集群上一些包的支持。但在執(zhí)行函數(shù)方面,Streaming APIs 需要將函數(shù)依次map和reduce,而Rhipe和RHadoop允許開發(fā)者在R函數(shù)中定義并調(diào)用MapReduce函數(shù)。
2、與Rhipe和RHadoop不同,使用Streamings APIs也不需要客戶端。
3、除此之外,我們也可以使用Apache Mahout,Apache Hive,Segue框架與其他來自Revolution Analytics的商業(yè)版R來實現(xiàn)大規(guī)模機器學(xué)習(xí)。