保证当前shell的用户为hadoop(如果当前用户已经是hadoop,此步可忽略)

参考第一章相关节。

HDFS基本操作

1、运行hdfs命令查看子命令信息。 命令:

hdfs

注:主要打印出三类命令,管理命令、客户端命令、管理守护进程命令。 在这里插入图片描述

2、命令:

hdfs version

注:打印了Hadoop信息、源码信息、编译信息等。 在这里插入图片描述

3、命令:

hdfs classpath

注:打印classpath 在这里插入图片描述

4、命令:

hdfs getconf

注:打印getconf下的命令 在这里插入图片描述

5、打印namenode。 命令:

hdfs getconf -namenodes

注:单节点只有app-11(同时承担master/secondary)。

6、命令:

hdfs dfs

注:对Linux系统文件的操作。

在这里插入图片描述

HDFS文件操作

1、在根目录下创建一个文件。 命令:

hdfs dfs -mkdir /test2

在这里插入图片描述

2、将本地文件文件拷贝到test2下。 命令:

hdfs dfs -cp /hadoop/Hadoop/hadoop-3.1.2/etc/hadoop/*.xml /test2

3、查看是否拷贝成功。 命令:

hdfs dfs -ls /test2

4、先查看本地目录和文件。 命令:

pwd
ls

5、下载hdfs中文件到本地目录下。 命令:

hdfs dfs -get /test2/core-site.xml ./
ls

6、可以使用Linux命令查看改文件。 命令:

vi core-site.xml

友情提示:详细学习内容可观看Spark快速大数据处理——余海峰https://edu.csdn.net/course/detail/24205