原本使用Hbase所內建的Zookeeper來啟動HMaster、HRegionServer,但是不知道是什麼原因,
HQuorumPeer(Zookeeper)總是啟動一下就停用了,已經啟動的HMaster、HRegionServer,
也都因為找不到HQuorumPeer而停用。跟著Google找到的文件,修改好幾次的設定,情況依舊。
自己也仔細看了Zookeeper log,可是它都只有啟動的訊息,沒有停止或錯誤的訊息。
只好先刪除以rpm安裝的Hadoop,再以tar的方式安裝,無效;
而這個PORT就是各Node在選擇時所使用的PORT。
[zookeeper] --不見了
四、設定Hbase
修改hbase-site.xml
填入正確的JAVA路徑
export JAVA_HOME=/usr/java/jdk1.7.0_05
這裡要注意輸入Hadoop的設定檔路徑,不是Hbase。
export HBASE_CLASSPATH=/usr/local/hadoop-1.0.3/conf
預設的heap會使用1GB的記憶體,但是我只有1G的記憶體,所以把它改小
export HBASE_HEAPSIZE=256
是否啟用內建的Zookeeper,所以是false,不使用內建。
export HBASE_MANAGES_ZK=false
修改hbase-site.xml,內容大致如下:
hbase.rootdir
hdfs://oel62n1.ccc.com.tw:54310/hbase
The directory shared by RegionServers.
hbase.cluster.distributed
true
The mode the cluster will be in. Possible values are
false: standalone and pseudo-distributed setups with managed Zookeeper
true: fully-distributed with unmanaged Zookeeper Quorum (see hbase-env.sh)
hbase.zookeeper.property.clientPort
2181
Property from ZooKeeper's config zoo.cfg.
The port at which the clients will connect.
hbase.rootdir是參考Hadoop的core-site.xml檔內的參數:
fs.default.name 加上卻存放的資料夾。
hbase.cluster.distributed表示是否要啟用hbase的叢集
hbase.zookeeper.property.clientPort指的是獨立Zookeeper Port
接著編輯/usr/local/hbase-0.92.1/conf/regionservers
[hduser@oel62n1 conf]
增加Node的Host:
oel62n1
oel62n2
參考上面scp的步驟,把整個hbase-0.92.1複製到oel62n2上
在Master上啟用Hbase叢集
[hduser@oel62 bin]$ cd /usr/local/hbase-0.92.1/bin
[hduser@oel62 bin]$ ./start-hbase.sh
HQuorumPeer(Zookeeper)總是啟動一下就停用了,已經啟動的HMaster、HRegionServer,
也都因為找不到HQuorumPeer而停用。跟著Google找到的文件,修改好幾次的設定,情況依舊。
自己也仔細看了Zookeeper log,可是它都只有啟動的訊息,沒有停止或錯誤的訊息。
只好先刪除以rpm安裝的Hadoop,再以tar的方式安裝,無效;
再把Hbase的版本從0.94改為0.92.1,也是沒用。
最後試著設定獨立的Zookeeper,結果很穩定,真是感動。
一、環境:
Hadoop:1.0.3
Zookeeper:3.3.6
Hbase:0.92.1
作業系統:Oracle Linux 6.2 x64
Master:192.168.56.201(oel62n1)
Slave:192.168.56.202(oel62n2)
二、設定Hadoop
自己新增一個user(每個Node都要)
[root@oel62n1 ~]# useradd -m hduser
下載後解壓縮
[root@oel62n1 ~]# tar -zxvf hadoop-1.0.3.tar.gz
我將原始資料夾移動到/usr/local,並且改變權限
[root@oel62n1 ~]# mv hadoop-1.0.3 /usr/local
[root@oel62n1 ~]# chown -R hduser:hduser /usr/loca/hadoop-1.0.3
修改設定檔,內容與之前用rmp安裝的設定一樣,可參考之前文章
最後試著設定獨立的Zookeeper,結果很穩定,真是感動。
一、環境:
Hadoop:1.0.3
Zookeeper:3.3.6
Hbase:0.92.1
作業系統:Oracle Linux 6.2 x64
Master:192.168.56.201(oel62n1)
Slave:192.168.56.202(oel62n2)
二、設定Hadoop
自己新增一個user(每個Node都要)
[root@oel62n1 ~]# useradd -m hduser
下載後解壓縮
[root@oel62n1 ~]# tar -zxvf hadoop-1.0.3.tar.gz
我將原始資料夾移動到/usr/local,並且改變權限
[root@oel62n1 ~]# mv hadoop-1.0.3 /usr/local
[root@oel62n1 ~]# chown -R hduser:hduser /usr/loca/hadoop-1.0.3
修改設定檔,內容與之前用rmp安裝的設定一樣,可參考之前文章
[root@oel62n1 ~]# su - hduser
[ hduser@oel62n1 ~]$ cd /usr/local/hadoop-1.0.3/conf
[ hduser@oel62n1 conf]$ vi hadoop-env.sh
[ hduser@oel62n1 conf]$ vi core-site.xml
[ hduser@oel62n1 conf]$ vi hdfs-site.xml
[ hduser@oel62n1 conf]$ vi mapred-site.xml
[ hduser@oel62n1 conf]$ vi master
[ hduser@oel62n1 conf]$ vi slavers
設定免密碼登入SSH,這次改以rsa加密製作key
[ hduser@oel62n1 ~]$ ssh-keygen -t rsa
[ hduser@oel62n1 ~]$ ssh-copy-id -i ~/.ssh/id_rsa.pub hduser@oel62n2
[ hduser@oel62n1 ~]$ ssh-copy-id -i ~/.ssh/id_rsa.pub hduser@oel62n1
複製hadoop-1.0.3到其他Node(oel62n2),並且修改權限
[root@oel62n1 ~]# scp -r /usr/local/hadoop-1.0.3 hduser@oel62n2:/usr/local
[root@oel62n2 ~]# chown -R hduser:hduser /usr/local/hadoop-1.0.3
啟動服務
[ hduser@oel62n1 ~]$ cd /usr/local/hadoop-1.0.3/bin
[ hduser@oel62n1 ~]$ ./start-all.sh
三、設定Zookeeper
下載後解壓縮
[hduser@oel62n1 ~]$ tar -zxvf zookeeper-3.3.6.tar.gz
[hduser@oel62n1 ~]$ mv zookeeper-3.3.6 /usr/local
設定zookeeper的參數,將sample複製過來使用
[hduser@oel62n1 ~]$ cd /usr/local/zookeeper-3.3.6/conf
[hduser@oel62n1 ~]$ cp zoo_sample.cfg zoo.cfg
編輯zoo.cfg
[hduser@oel62n1 ~]$ vi zoo.cfg
參數說明可參考:
修改zoo.cfg的參數,預設在/tmp,重開機內容就不見了,所以自己改在:
dataDir=/usr/local/zookeeper-3.3.6/dataDir
叢集模式下,需要在zoo.cfg的最後面加入Node的IP、Port
格式為server.ID=HOST_IP:PORT1:PORT2
ID是一個數字表示第幾號的Node;PORT1是這台Node與Master Node之間通訊的PORT;
PORT2是當Master Node故障時,各Node之間必需選擇一個新的Master,而這個PORT就是各Node在選擇時所使用的PORT。
server.1=192.168.56.201:3688:3689
server.2=192.168.56.202: 3688:3689
與Hadoop一樣,將整個資料夾複製到其他的Node上
[root@oel62n1 ~]# scp -r /usr/local/zookeeper-3.3.6 hduser@oel62n2:/usr/local
[root@oel62n2 ~]# chown -R hduser:hduser /usr/local/zookeeper-3.3.6
在每台Node上設定myid,先參照zoo.cfg的dataDir的位置,在dataDir內增加文字檔myid
[hduser@oel62n1 ~]$ vi /usr/local/zookeeper-3.3.6/dataDir/myid
依據各zoo.cfg內server.ID中ID的數字填入myid文字檔,例如:
oel62n1的myid就是1;oel62n2的myid就是2
分別啟動各Node的Zookeeper
[hduser@oel62n1 ~]$ cd /usr/local/zookeeper-3.3.6/bin
[hduser@oel62n1 bin]$ ./zkServer.sh start
[hduser@oel62n2 ~]$ cd /usr/local/zookeeper-3.3.6/bin
[hduser@oel62n2 bin]$ ./zkServer.sh start
用Client端的程式去測試:
[hduser@oel62n1 bin]$ zkCli.sh -server 127.0.0.1:2181
[zk: 127.0.0.1:2181(CONNECTED) 1] create /test01 abcd --建立測試
再到oel62n2測試找不找的到資料:
[hduser@oel62n2 bin]$ zkCli.sh -server 127.0.0.1:2181
[zk: 127.0.0.1:2181(CONNECTED) 1] ls /
[test01, zookeeper] --這是Master Node的資料,表示成功。
[zk: 127.0.0.1:2181(CONNECTED) 1] delete /test01 --刪除
[zk: 127.0.0.1:2181(CONNECTED) 2] ls /[zookeeper] --不見了
四、設定Hbase
依上列方法下載並解壓縮到/usr/local/hbase-1.0.3,並改變擁有者為hduser
修改hbase-site.xml
填入正確的JAVA路徑
export JAVA_HOME=/usr/java/jdk1.7.0_05
這裡要注意輸入Hadoop的設定檔路徑,不是Hbase。
export HBASE_CLASSPATH=/usr/local/hadoop-1.0.3/conf
預設的heap會使用1GB的記憶體,但是我只有1G的記憶體,所以把它改小
export HBASE_HEAPSIZE=256
是否啟用內建的Zookeeper,所以是false,不使用內建。
export HBASE_MANAGES_ZK=false
修改hbase-site.xml,內容大致如下:
false: standalone and pseudo-distributed setups with managed Zookeeper
true: fully-distributed with unmanaged Zookeeper Quorum (see hbase-env.sh)
The port at which the clients will connect.
hbase.rootdir是參考Hadoop的core-site.xml檔內的參數:
fs.default.name 加上卻存放的資料夾。
hbase.cluster.distributed表示是否要啟用hbase的叢集
hbase.zookeeper.property.clientPort指的是獨立Zookeeper Port
接著編輯/usr/local/hbase-0.92.1/conf/regionservers
[hduser@oel62n1 conf]
增加Node的Host:
oel62n1
oel62n2
參考上面scp的步驟,把整個hbase-0.92.1複製到oel62n2上
在Master上啟用Hbase叢集
[hduser@oel62 bin]$ cd /usr/local/hbase-0.92.1/bin
[hduser@oel62 bin]$ ./start-hbase.sh