偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

Hadoop HBase 單機(jī)環(huán)境簡(jiǎn)單配置教程

大數(shù)據(jù) Hadoop
Hadoop是Apache的一個(gè)項(xiàng)目,它是一個(gè)實(shí)現(xiàn)了MapReduce計(jì)算模型的可以運(yùn)用于大型集群并行計(jì)算的分布式并行計(jì)算編程框架,當(dāng)然分布式計(jì)算離不開分布式存儲(chǔ),Hadoop框架包含了分布式存儲(chǔ)系統(tǒng)HDFS(Hadoop Distributed File System),其存儲(chǔ)和數(shù)據(jù)結(jié)構(gòu)很類似Google的GFS。

寫在前面: Hadoop是Apache的一個(gè)項(xiàng)目,它是一個(gè)實(shí)現(xiàn)了MapReduce計(jì)算模型的可以運(yùn)用于大型集群并行計(jì)算的分布式并行計(jì)算編程框架,當(dāng)然分布式計(jì)算離不開分布式存儲(chǔ),Hadoop框架包含了分布式存儲(chǔ)系統(tǒng)HDFS(Hadoop Distributed File System),其存儲(chǔ)和數(shù)據(jù)結(jié)構(gòu)很類似Google的GFS。

 


HBase是Hadoop的子項(xiàng)目,它是基于Hadoop HDFS分布存儲(chǔ)系統(tǒng)的一個(gè)Google BigTable開源實(shí)現(xiàn)(最近看了BigTable的Paper,很受鼓舞和啟發(fā)),它在存儲(chǔ)數(shù)據(jù)結(jié)構(gòu)上并非關(guān)系型,而是疏松分布式的,持久并按多維排序并索引的map型,下次我把介紹BigTable和HBase的文章轉(zhuǎn)載過來。

在初接觸Hadoop和Hbase的時(shí)候,大多數(shù)技術(shù)人員只希望通過簡(jiǎn)單的方法初步搭起框架環(huán)境,但我找了好多安裝手冊(cè)都是上來就部署集群分布環(huán)境(盡管做Hadoop就是為了這個(gè)目的),搭建集群環(huán)境的時(shí)候要設(shè)置ssh協(xié)議訪問權(quán)限,要生成訪問公鑰,并且slaves配置上的小錯(cuò)誤也會(huì)導(dǎo)致整個(gè)部署問題重重,所以我在部署成功后記錄下最簡(jiǎn)單運(yùn)行的standalone模式的安裝配置過程,希望初學(xué)者在需要的時(shí)候能找到這個(gè)小小的guide,以后有時(shí)間我會(huì)再把集群配置的方法寫出來。

開始:
1.在Apache/Hadoop項(xiàng)目的網(wǎng)站(hadoop.apache.org/)下載hadoop以及hbase的發(fā)行包,此處兩個(gè)發(fā)行包的大版本號(hào)一定要一致,譬如都是0.18版本:
hadoop-0.18.2.tar.gz hbase-0.18.1.tar.gz

2.使用root身份登錄目標(biāo)服務(wù)器系統(tǒng)(Suse10 Linux),首先安裝java虛擬機(jī),這個(gè)比較簡(jiǎn)單,隨便找個(gè)綠色的解壓就可以了,在這個(gè)例子里面我使用IBM WAS6.1附帶的jdk,它的home目錄是/opt/IBM/WebSphere/AppServer/java,我們只需要配置系統(tǒng)的環(huán)境變量就可以了.
編輯全局環(huán)境變量文件/etc/profile,在文件后面添加
export JAVA_HOME=/opt/IBM/WebSphere/AppServer/java
export PATH=$JAVA_HOME:$PATH
保存profile文件后使用 $source /etc/profile 命令重新加載profile,然后隨便在一個(gè)目錄下面運(yùn)行 $java -version 查看javahome環(huán)境變量和path變量是否被正確加載.
另外到 /etc/hosts 文件中查看主機(jī)映射是否存在,例如 127.0.0.1 localhost 或者什么其他的名字,在這里默認(rèn)配置本機(jī)為localhost,如果需要做分布式的話,本機(jī)要做namenode,所以要把所有的datanode的host添加到這里面.

3.創(chuàng)建hadoop用戶, $useradd hadoop 可以用 $passwd hadoop 修改hadoop用戶的登錄密碼.

4.創(chuàng)建hadoop用戶的home目錄,如果打算在別處安裝hadoop/hbase的話可以不這樣做,這里我們默認(rèn)將hadoop/hbase安裝在/home/${username}目錄下.
$cd /home
$mkdir hadoop
將目錄用戶指派給hadoop
$chown hadoop hadoop
改變目錄權(quán)限,這里我們配大一些,其實(shí)只要644就足夠了:
$chmod 755 hadoop

5.使用hadoop用戶登錄系統(tǒng),將下載的兩個(gè)發(fā)行包文件傳到/home/hadoop目錄下面,然后給它們加上執(zhí)行權(quán)限:
$chmod a+x hadoop-0.18.2.tar.gz
$chmod a+x hbase-0.18.1.tar.gz

6.解壓hadoop:
$tar zxvf hadoop-0.18.2.tar.gz
這樣做會(huì)在/home/hadoop目錄下解壓hadoop發(fā)行包并創(chuàng)建到/home/hadoop/hadoop-0.18.2目錄中,這里可以詳細(xì)設(shè)計(jì)目錄結(jié)構(gòu)并創(chuàng)建link文件來方便日后升級(jí)等工作,這里我們先簡(jiǎn)單放在這里.

7.修改hadoop環(huán)境腳本:
修改文件/home/hadoop/hadoop-0.18.2/conf/hadoop-env.sh,在其中加入JAVA_HOME變量: export JAVA_HOME=/opt/IBM/WebSphere/AppServer/java
HADOOP_HOME變量我們可以不設(shè)置,默認(rèn)的情況是指定HADOOP_HOME為運(yùn)行啟動(dòng)腳本當(dāng)前目錄的父目錄.

8.修改hadoop啟動(dòng)配置:
參照默認(rèn)配置文件/home/hadoop/hadoop-0.18.2/conf/hadoop-default.xml 修改用戶配置文件/home/hadoop/hadoop-0.18.2/conf/hadoop-site.xml,hadoop啟動(dòng)的時(shí)候會(huì)加載默認(rèn)配置文件,然后讀取用戶配置文件并使用用戶配置文件中的屬性替換默認(rèn)配置文件中的值,這里最簡(jiǎn)單的情況我們只需要修改如下幾項(xiàng)即可,如果需要做分布的話也是要在這個(gè)文件里面進(jìn)行配置.將要修改的配置項(xiàng)簡(jiǎn)單的放到hadoop-site.xml文件的<configuration/>中去:
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000/</value>
</property>

<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>

9.格式化nodename及啟動(dòng)hdfs守護(hù)進(jìn)程:
$/home/hadoop/hadoop-0.18.2/bin/hadoop namenode -format
$/home/hadoop/hadoop-0.18.2/bin/start-all.sh
使用shart-all.sh可以方便的啟動(dòng)所有的hdfs守護(hù)進(jìn)程,如果想關(guān)閉這些守護(hù)進(jìn)程可以使用stop-all.sh腳本.
啟動(dòng)過程中需要輸入登錄密碼.
啟動(dòng)成功后可以用以下簡(jiǎn)單方法測(cè)試hdfs:
$/home/hadoop/hadoop-0.18.2/bin/hadoop dfs -mkdir dir4test
$/home/hadoop/hadoop-0.18.2/bin/hadoop dfs -ls
$/home/hadoop/hadoop-0.18.2/bin/hadoop dfs -put /home/hadoop/file4test.zip file4test_temp.zip
相當(dāng)于linux系統(tǒng)下的mkdir ls cp命令.
用瀏覽器訪問 http://localhost:50030/ 和 http://localhost:50070/ 可以查看hdfs拓?fù)浣Y(jié)構(gòu)和job進(jìn)程還有hdfs文件系統(tǒng)結(jié)構(gòu).

10.解壓hbase發(fā)行包:
$tar zxvf hbase-0.18.1.tar.gz

11.修改hbase環(huán)境腳本:
修改文件/home/hadoop/hbase-0.18.1/conf/hbase-env.sh,在其中加入JAVA_HOME變量: export JAVA_HOME=/opt/IBM/WebSphere/AppServer/java
簡(jiǎn)單啟動(dòng)暫時(shí)不需要在用戶配置文件/home/hadoop/hbase-0.18.1/conf/hbase-site.xml添加任何替代屬性.

12.啟動(dòng)hbase:
$/home/hadoop/hbase-0.18.1/bin/start-hbase.sh
成功啟動(dòng)hbase的守護(hù)進(jìn)程.
啟動(dòng)hbase hql shell:
$/home/hadoop/hbase-0.18.1/bin/hbase shell
在hql shell中可以進(jìn)行hbase數(shù)據(jù)操作,如果需要幫助信息可以鍵入:
hbase>help
簡(jiǎn)單測(cè)試hbase:
在hbase shell下:
hbase>create 't1','f1','f3'
hbase>list

使用瀏覽器訪問 http://localhost:60010/ 可以查看當(dāng)前hbase信息.

啟動(dòng)hbase REST服務(wù):
$/home/hadoop/hbase-0.18.1/bin/hbase rest start
成功啟動(dòng)hbase REST服務(wù)后就可以通過對(duì)uri: http://localhost:60050/api/ 的通用REST操作(GET/POST/PUT/DELETE)實(shí)現(xiàn)對(duì)hbase的REST形式數(shù)據(jù)操作.

To be continue...

 
責(zé)任編輯:李英杰 來源: 新浪博客
相關(guān)推薦

2010-11-25 16:48:20

HadoopHbase

2010-06-03 13:21:07

HadoopHBase

2009-06-08 17:50:00

javalinuxjsp

2013-05-27 14:37:31

Hadoop 2.0.

2012-11-07 17:25:46

hadoopUbuntu 12.0

2013-05-27 14:13:51

Hadoop 2.0.

2010-06-04 09:43:47

hadoop應(yīng)用

2009-07-03 16:21:43

2011-08-24 14:14:13

LUA環(huán)境 配置

2010-06-03 13:08:51

2010-05-21 12:58:01

Subversion使

2013-06-13 10:39:54

Hadoop2.0.4

2012-09-18 09:55:44

Hadoop 2.0

2011-08-24 15:34:44

MinGWLua環(huán)境配置

2010-06-04 18:29:02

Hadoop單機(jī)模式

2010-06-04 14:28:01

Hadoop開發(fā)環(huán)境

2010-06-03 14:08:56

Hadoop創(chuàng)建Hba

2011-08-29 10:15:13

FacebookHadoopHBase

2014-09-04 09:35:17

2020-11-19 10:30:28

Linux
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)