修改配置文件

修改hbase-env.sh

更改前: 在这里插入图片描述

将# export HBASE_MANAGES_ZK=true改为export HBASE_MANAGES_ZK=false 表示启动HBase时不启动zookeeper,用户单独启动zookeeper。 更改后: 在这里插入图片描述

修改hbase-site.xml

更改前: 在这里插入图片描述

在hbase-site.xml中添加

   <property>
		<name>hbase.rootdir</name>
		<value>hdfs://dmcluster/hbase</value>
	</property>
	<property>
		<name>hbase.cluster.distributed</name>
		<value>true</value>
	</property>
	<property>
		<name>hbase.zookeeper.quorum</name>
		<value>app-11,app-12,app-13</value>
	</property>
	<property>
		<name>hbase.zookeeper.property.dataDir</name>
		<value>/hadoop/HBase/hbase-2.2.0/zookeeper</value>
	</property>
	<property>
		<name>hbase.zookeeper.property.clientPort</name>
		<value>2181</value>
	</property>
	<property>
		<name>hbase.unsafe.stream.capability.enforce</name>
		<value>false</value>
	</property>
```	
	
	


更改后:
 ![在这里插入图片描述](./images/20210121150931200.jpg?type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NTgxMDA0Ng==,size_16,color_FFFFFF,t_70#pic_center)

## 修改regionservers
更改前:
 ![在这里插入图片描述](./images/20210121150949497.jpg#pic_center)

在regionservers中添加app-11
app-12
app-13
更改后:
 ![在这里插入图片描述](./images/202101211510001.jpg#pic_center)

## 添加backup-masters文件
文件中只写app-13
 ![在这里插入图片描述](./images/20210121151011744.jpg#pic_center)

 
# 安装HBase
## 下载HBase安装包
1、以root用户登录
   命令:```sudo /bin/bash```
![在这里插入图片描述](./images/20210121151024261.jpg#pic_center)
 
2、创建HBase目录
   命令:```mkdir /hadoop/HBase```
 ![在这里插入图片描述](./images/20210121151031939.jpg#pic_center)

3、将HBase目录下的所有目录改为hadoop所有
   命令:```chown hadoop:hadoop /hadoop/HBase```
 ![在这里插入图片描述](./images/20210121151038804.jpg#pic_center)

4、以hadoop用户登录
   命令:```su - hadoop```
 ![在这里插入图片描述](./images/20210121151057174.jpg#pic_center)


5、进入HBase安装目录
   命令:```cd /hadoop/HBase/```
 ![在这里插入图片描述](./images/20210121151104449.jpg#pic_center)

6、下载HBase安装包
   命令:```wget http://archive.apache.org/dist/hbase/2.2.0/hbase-2.2.0-bin.tar.gz```
 ![在这里插入图片描述](./images/20210121151111461.jpg#pic_center)

7、解压安装包
   命令:```tar -xzf hbase-2.2.0-bin.tar.gz```
 ![在这里插入图片描述](./images/20210121151120661.jpg#pic_center)

## 修改配置文件
8、进入到配置文件下
   命令:```cd hbase-2.2.0/conf/```
 ![在这里插入图片描述](./images/20210121151135125.jpg#pic_center)

9、删除需要修改的配置文件
   命令:```rm -rf hbase-env.sh hbase-site.xml regionservers```
 ![在这里插入图片描述](./images/20210121151144710.jpg#pic_center)

10、将/tmp/Spark-stack/HBase/conf目录下修改好的配置文件拷贝到配置文件中
命令:```cp /tmp/Spark-stack/HBase/conf/* ./```
 ![在这里插入图片描述](./images/20210121151153659.jpg#pic_center)

## 修改环境变量
11、打开环境变量
命令:```vi ~/.bashrc```
 ![在这里插入图片描述](./images/2021012115122044.jpg?type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NTgxMDA0Ng==,size_16,color_FFFFFF,t_70#pic_center)

12、添加```export HBASE_HOME=/hadoop/HBase/hbase-2.2.0
		 export PATH=${HBASE_HOME}/bin:$PATH```
 ![在这里插入图片描述](./images/20210121151228574.jpg?type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NTgxMDA0Ng==,size_16,color_FFFFFF,t_70#pic_center)

13、使环境变量生效
命令:```source ~/.bashrc```
 ![在这里插入图片描述](./images/20210121151237426.jpg#pic_center)

14、查看环境变量是否生效
   命令:```echo $PATH```
 ![在这里插入图片描述](./images/20210121151245435.jpg#pic_center)

## 在其他的两个机器上安装HBase
15、在app-12和app-13上先创建安装HBase的目录
命令:```ssh hadoop@app-12 "mkdir /hadoop/HBase"```、```ssh hadoop@app-13 "mkdir /hadoop/HBase"```
 ![在这里插入图片描述](./images/20210121151309839.jpg#pic_center)


16、将HBsae拷贝到app-12和app-13上
命令:```scp -r -q /hadoop/HBase/hbase-2.2.0 hadoop@app-12:/hadoop/HBase/```、```scp -r -q /hadoop/HBase/hbase-2.2.0 hadoop@app-13:/hadoop/HBase/```
 ![在这里插入图片描述](./images/20210121151329110.jpg#pic_center)

17、将环境变量也拷贝到app-12和app-13上
命令:```scp ~/.bashrc hadoop@app-12:~/```、```scp ~/.bashrc hadoop@app-13:~/```
 ![在这里插入图片描述](./images/20210121151401991.jpg#pic_center)



## 清除工作(清除第一次安装失败之后删除不干净的文件)
18、清除hdfs中hbase目录,不存在则不需要清除
命令:```hdfs dfs -rm -r -f /hbase```
 ![在这里插入图片描述](./images/20210121151412893.jpg#pic_center)

19、清除zookeeper中hbase节点,否则可能出现Master is initializing之类错误
命令:```echo 'rmr /hbase' | zkCli.sh```
 ![在这里插入图片描述](./images/20210121151419542.jpg?type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NTgxMDA0Ng==,size_16,color_FFFFFF,t_70#pic_center)

20、在app-12上启动HBase,因为app-12是HBASE_MASTER
命令:```ssh hadoop@app-12 "cd /hadoop/HBase/hbase-2.2.0/bin && ./start-hbase.sh"```
 ![在这里插入图片描述](./images/20210121151429917.jpg?type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NTgxMDA0Ng==,size_16,color_FFFFFF,t_70#pic_center)

21、查看是否启动成功
命令:```ssh hadoop@app-12 "jps"```
 ![在这里插入图片描述](./images/20210121151451525.jpg?type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NTgxMDA0Ng==,size_16,color_FFFFFF,t_70#pic_center)

22、打开HBaseWeb监控页面
   网址:http:// app-12:16030
 ![在这里插入图片描述](./images/20210121151509910.jpg?type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NTgxMDA0Ng==,size_16,color_FFFFFF,t_70#pic_center)

## 设置自动化脚本
23、添加到自动启动中
命令:```vi /hadoop/config.conf```
 ![在这里插入图片描述](./images/20210121151521813.jpg?type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NTgxMDA0Ng==,size_16,color_FFFFFF,t_70#pic_center)

24、添加export HBASE_IS_INSTALL=True
 ![在这里插入图片描述](./images/20210121151532448.jpg?type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NTgxMDA0Ng==,size_16,color_FFFFFF,t_70#pic_center)

25、使环境变量生效
命令:```source ~/.bashrc```
 ![在这里插入图片描述](./images/20210121151539858.jpg#pic_center)

26、确认start.all脚本有HBase
命令:```vi /hadoop/startAll.sh```
![在这里插入图片描述](./images/20210121151547145.jpg?type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NTgxMDA0Ng==,size_16,color_FFFFFF,t_70#pic_center)
详细学习内容可观看Spark快速大数据处理扫一扫~~~或者引擎搜索Spark余海峰
![在这里插入图片描述](./images/20210121151622142.png?type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NTgxMDA0Ng==,size_16,color_FFFFFF,t_70#pic_center)