修改配置文件

修改hbase-env.sh

更改前: 在这里插入图片描述

将# export HBASE_MANAGES_ZK=true改为export HBASE_MANAGES_ZK=false 表示启动HBase时不启动zookeeper,用户单独启动zookeeper。 更改后: 在这里插入图片描述

修改hbase-site.xml

更改前: 在这里插入图片描述

在hbase-site.xml中添加

<property> <name>hbase.rootdir</name> <value>hdfs://dmcluster/hbase</value> </property> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> <property> <name>hbase.zookeeper.quorum</name> <value>app-11,app-12,app-13</value> </property> <property> <name>hbase.zookeeper.property.dataDir</name> <value>/hadoop/HBase/hbase-2.2.0/zookeeper</value> </property> <property> <name>hbase.zookeeper.property.clientPort</name> <value>2181</value> </property> <property> <name>hbase.unsafe.stream.capability.enforce</name> <value>false</value> </property> ``` 更改后: ![在这里插入图片描述](./images/20210121150931200.jpg?type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NTgxMDA0Ng==,size_16,color_FFFFFF,t_70#pic_center) ## 修改regionservers 更改前: ![在这里插入图片描述](./images/20210121150949497.jpg#pic_center) 在regionservers中添加app-11 app-12 app-13 更改后: ![在这里插入图片描述](./images/202101211510001.jpg#pic_center) ## 添加backup-masters文件 文件中只写app-13 ![在这里插入图片描述](./images/20210121151011744.jpg#pic_center)   # 安装HBase ## 下载HBase安装包 1、以root用户登录 命令:```sudo /bin/bash``` ![在这里插入图片描述](./images/20210121151024261.jpg#pic_center) 2、创建HBase目录 命令:```mkdir /hadoop/HBase``` ![在这里插入图片描述](./images/20210121151031939.jpg#pic_center) 3、将HBase目录下的所有目录改为hadoop所有 命令:```chown hadoop:hadoop /hadoop/HBase``` ![在这里插入图片描述](./images/20210121151038804.jpg#pic_center) 4、以hadoop用户登录 命令:```su - hadoop``` ![在这里插入图片描述](./images/20210121151057174.jpg#pic_center) 5、进入HBase安装目录 命令:```cd /hadoop/HBase/``` ![在这里插入图片描述](./images/20210121151104449.jpg#pic_center) 6、下载HBase安装包 命令:```wget http://archive.apache.org/dist/hbase/2.2.0/hbase-2.2.0-bin.tar.gz``` ![在这里插入图片描述](./images/20210121151111461.jpg#pic_center) 7、解压安装包 命令:```tar -xzf hbase-2.2.0-bin.tar.gz``` ![在这里插入图片描述](./images/20210121151120661.jpg#pic_center) ## 修改配置文件 8、进入到配置文件下 命令:```cd hbase-2.2.0/conf/``` ![在这里插入图片描述](./images/20210121151135125.jpg#pic_center) 9、删除需要修改的配置文件 命令:```rm -rf hbase-env.sh hbase-site.xml regionservers``` ![在这里插入图片描述](./images/20210121151144710.jpg#pic_center) 10、将/tmp/Spark-stack/HBase/conf目录下修改好的配置文件拷贝到配置文件中 命令:```cp /tmp/Spark-stack/HBase/conf/* ./``` ![在这里插入图片描述](./images/20210121151153659.jpg#pic_center) ## 修改环境变量 11、打开环境变量 命令:```vi ~/.bashrc``` ![在这里插入图片描述](./images/2021012115122044.jpg?type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NTgxMDA0Ng==,size_16,color_FFFFFF,t_70#pic_center) 12、添加```export HBASE_HOME=/hadoop/HBase/hbase-2.2.0 export PATH=${HBASE_HOME}/bin:$PATH``` ![在这里插入图片描述](./images/20210121151228574.jpg?type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NTgxMDA0Ng==,size_16,color_FFFFFF,t_70#pic_center) 13、使环境变量生效 命令:```source ~/.bashrc``` ![在这里插入图片描述](./images/20210121151237426.jpg#pic_center) 14、查看环境变量是否生效 命令:```echo $PATH``` ![在这里插入图片描述](./images/20210121151245435.jpg#pic_center) ## 在其他的两个机器上安装HBase 15、在app-12和app-13上先创建安装HBase的目录 命令:```ssh hadoop@app-12 "mkdir /hadoop/HBase"```、```ssh hadoop@app-13 "mkdir /hadoop/HBase"``` ![在这里插入图片描述](./images/20210121151309839.jpg#pic_center) 16、将HBsae拷贝到app-12和app-13上 命令:```scp -r -q /hadoop/HBase/hbase-2.2.0 hadoop@app-12:/hadoop/HBase/```、```scp -r -q /hadoop/HBase/hbase-2.2.0 hadoop@app-13:/hadoop/HBase/``` ![在这里插入图片描述](./images/20210121151329110.jpg#pic_center) 17、将环境变量也拷贝到app-12和app-13上 命令:```scp ~/.bashrc hadoop@app-12:~/```、```scp ~/.bashrc hadoop@app-13:~/``` ![在这里插入图片描述](./images/20210121151401991.jpg#pic_center) ## 清除工作(清除第一次安装失败之后删除不干净的文件) 18、清除hdfs中hbase目录,不存在则不需要清除 命令:```hdfs dfs -rm -r -f /hbase``` ![在这里插入图片描述](./images/20210121151412893.jpg#pic_center) 19、清除zookeeper中hbase节点,否则可能出现Master is initializing之类错误 命令:```echo 'rmr /hbase' | zkCli.sh``` ![在这里插入图片描述](./images/20210121151419542.jpg?type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NTgxMDA0Ng==,size_16,color_FFFFFF,t_70#pic_center) 20、在app-12上启动HBase,因为app-12是HBASE_MASTER 命令:```ssh hadoop@app-12 "cd /hadoop/HBase/hbase-2.2.0/bin && ./start-hbase.sh"``` ![在这里插入图片描述](./images/20210121151429917.jpg?type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NTgxMDA0Ng==,size_16,color_FFFFFF,t_70#pic_center) 21、查看是否启动成功 命令:```ssh hadoop@app-12 "jps"``` ![在这里插入图片描述](./images/20210121151451525.jpg?type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NTgxMDA0Ng==,size_16,color_FFFFFF,t_70#pic_center) 22、打开HBaseWeb监控页面 网址:http:// app-12:16030 ![在这里插入图片描述](./images/20210121151509910.jpg?type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NTgxMDA0Ng==,size_16,color_FFFFFF,t_70#pic_center) ## 设置自动化脚本 23、添加到自动启动中 命令:```vi /hadoop/config.conf``` ![在这里插入图片描述](./images/20210121151521813.jpg?type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NTgxMDA0Ng==,size_16,color_FFFFFF,t_70#pic_center) 24、添加export HBASE_IS_INSTALL=True ![在这里插入图片描述](./images/20210121151532448.jpg?type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NTgxMDA0Ng==,size_16,color_FFFFFF,t_70#pic_center) 25、使环境变量生效 命令:```source ~/.bashrc``` ![在这里插入图片描述](./images/20210121151539858.jpg#pic_center) 26、确认start.all脚本有HBase 命令:```vi /hadoop/startAll.sh``` ![在这里插入图片描述](./images/20210121151547145.jpg?type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NTgxMDA0Ng==,size_16,color_FFFFFF,t_70#pic_center) 详细学习内容可观看Spark快速大数据处理扫一扫~~~或者引擎搜索Spark余海峰 ![在这里插入图片描述](./images/20210121151622142.png?type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NTgxMDA0Ng==,size_16,color_FFFFFF,t_70#pic_center)