保证当前shell的用户为hadoop(如果当前用户已经是hadoop,此步可忽略)
参考第一章相关节。
HDFS基本操作
1、运行hdfs命令查看子命令信息。 命令:
hdfs
注:主要打印出三类命令,管理命令、客户端命令、管理守护进程命令。
2、命令:
hdfs version
注:打印了Hadoop信息、源码信息、编译信息等。
3、命令:
hdfs classpath
注:打印classpath
4、命令:
hdfs getconf
注:打印getconf下的命令
5、打印namenode。 命令:
hdfs getconf -namenodes
注:单节点只有app-11(同时承担master/secondary)。
6、命令:
hdfs dfs
注:对Linux系统文件的操作。
HDFS文件操作
1、在根目录下创建一个文件。 命令:
hdfs dfs -mkdir /test2
2、将本地文件文件拷贝到test2下。 命令:
hdfs dfs -cp /hadoop/Hadoop/hadoop-3.1.2/etc/hadoop/*.xml /test2
3、查看是否拷贝成功。 命令:
hdfs dfs -ls /test2
4、先查看本地目录和文件。 命令:
pwd
ls
5、下载hdfs中文件到本地目录下。 命令:
hdfs dfs -get /test2/core-site.xml ./
ls
6、可以使用Linux命令查看改文件。 命令:
vi core-site.xml
友情提示:详细学习内容可观看Spark快速大数据处理——余海峰https://edu.csdn.net/course/detail/24205