0
点赞
收藏
分享

微信扫一扫

熟悉常用的HDFS操作(附录HDFS常用命令)

code_balance 2022-04-27 阅读 55
HDFShadoop

文章目录

1. 学习目的

1、理解HDFS在Hadoop体系结构中的角色;

2、熟练使用HDFS操作常用的Shell命令;

3、熟悉HDFS操作常用的Java API

2. 学习内容

1、编程实现指定功能,并利用Hadoop提供的Shell命令完成相同任务:

2、编程实现一个类“MyFSDataInputStream”,该类继承“org.apache.hadoop.fs.FSDataInputStream”。

3. 实验一

编程实现以下指定功能,并利用Hadoop提供的Shell命令完成相同任务

3.1 追加文本

向HDFS中上传任意文本文件,如果指定的文件在HDFS中已经存在,由用户指定是追加到原有文件末尾还是覆盖原有的文件

首先我们启动我们hadoop的所有结点(此命令需在sbin目录下进行),命令:

sh start-all.sh

其中如果你是用管理员权限创建的目录,系统启动读取时需要你输入密码,输入即可

image-20220426213609612

当然如果之前已经运行了nameNode和DataNode会显示运行失败,可以使用jps查看进程,用kill -9 进程号鲨掉进程再启动

image-20220426213351446

vim start-all.sh

核心内容如下:

# Start all hadoop daemons.  Run this on master node.

echo "This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh"

bin=`dirname "${BASH_SOURCE-$0}"`
bin=`cd "$bin"; pwd`

DEFAULT_LIBEXEC_DIR="$bin"/../libexec
HADOOP_LIBEXEC_DIR=${HADOOP_LIBEXEC_DIR:-$DEFAULT_LIBEXEC_DIR}
. $HADOOP_LIBEXEC_DIR/hadoop-config.sh

# start hdfs daemons if hdfs is present
if [ -f "${HADOOP_HDFS_HOME}"/sbin/start-dfs.sh ]; then
  "${HADOOP_HDFS_HOME}"/sbin/start-dfs.sh --config $HADOOP_CONF_DIR
fi

# start yarn daemons if yarn is present
if [ -f "${HADOOP_YARN_HOME}"/sbin/start-yarn.sh ]; then
  "${HADOOP_YARN_HOME}"/sbin/start-yarn.sh --config $HADOOP_CONF_DIR
fi

可以看到它启动了start-dfs.shstart-yarn.sh两个脚本

这两个脚本在start-all.sh的同级目录下,请自行研究,主要内容就是为了启动hadoop的组件

上一次实验我们其实就已经上传过一个文件到hadoop中了,我们可以通过hadoop fs -ls -R /命令查看(请在hadoop目录下进行

  • -ls 显示目录信息
  • -R递归 所以: -ls -R 递归显示文件信息

image-20220426215803421

查看一下文件内容,命令:

hadoop fs -cat /root/data/input/log.txt

image-20220426221422634

我们现在直接来修改这个文件,由于上次实验我们是在/input目录下建了log.txt文件,这次我们依旧在这里建文件,当然文件建在哪里并不重要,请读者随意,echo打印,>重定向,这里将打印内容输出到指定目录的文件中,文件不存在会自动创建

image-20220426221258618

追加到文件末尾的命令(这里最好用绝对路径):

hadoop fs -appendToFile /input/test2.txt /root/data/input/log.txt

image-20220426221710959

命令很简单,就是把源文件上传到hadoop的目标目录中,前提是hadoop中要有这个目录,没有请使用hadoop fs -mkdir -p /root/data/input创建

hadoop fs -put /input/test2.txt /root/data/input/	

image-20220426222502230

3.2 覆盖文本

覆盖文本和追加文本一样,只是要注意本地文件和hadoop中的目录都要存在

命令:

hadoop fs -copyFromLocal -f 本地文件路径 hadoop中文件路径

我这里在之前的test2.txt中覆盖一行文本,>>表示重定向并追加,>表示重定向并覆盖

image-20220426223659890

所以我的命令就是:

hadoop fs -copyFromLocal -f /input/test2.txt /root/data/input/test2.txt

image-20220426223735290

3.3 脚本完成

其实脚本也就是一段能够执行的代码,在windows平台上是以.bat的后缀名出现的,在Linux上是以.sh后缀名出现的

if $(hadoop fs -test -e /root/data/input/test2.txt);then $(hadoop fs -appendToFile /input/test2.txt /root/data/input/test2.txt);
else $(hadoop fs -copyFromLocal -f /input/test2.txt /root/data/input/test2.txt);
fi

我们先来分析一下这三行脚本,在Linux的shell脚本中iffi是要成对出现的,表示判断语句

$()是用来做命令替换用的,表示括号内的是一串可以运行的执行,而不是字符串,我们还经常采用反撇号**``**来做命令替换

thenelse就更好理解了,就是分支语句

综上所示,脚本的作用就是判断一下你有没有中hadoop中已经存在test2.txt这个文件了,存在就追加,不存在就覆盖(会默认创建)

接下来我们演示一下,在演示之前我们先将之前hadoop中的test2.txt文件删除掉

image-20220426230438584

我们就在当前目录下创建这个脚本,起名为test.sh

vim test.sh

输入脚本(这里你要填你的路径哦!)

image-20220426230808331

执行一下(sh表示用shell脚本执行)

sh test.sh

image-20220426230851912

查看一下,可以看到没有文件,所以追加了文本

image-20220426231015271

然后再运行一次sh test.sh,可以看到因为文件已经存在了,所以这一次是追加文本了

image-20220426231127871

4. 实验二

4.1 下载文件脚本

上面的脚本会写了,下面的脚本就很容易理解了

if $(hadoop fs -test -e /input/test2.txt);then $(hadoop fs -copyToLocal /root/data/input/test2.txt /input/test3.txt); 
else $(hadoop fs -copyToLocal /root/data/input/test2.txt /input/test2.txt); 
fi

先判断一下在本地中有没有test2.txt这个文件了,有就执行下面的代码也就是下载文件为test3.txt,没有就下载为test2.txt

这里我们先把之前/input/test2.txt这个文件删掉,命令为rm -f -f表示强制删除

接下来我们继续创建一个脚本,也在当前目录下

vim test2.sh

image-20220426235803240

我们执行一次:

sh test2.sh

image-20220426232856258

可以看到没有该文件,所以下载文件文件名为test2.txt

我们再执行一次,可以看到生成的是test3.txt

image-20220426234619037

这里可能也会有问题,可能是由于hadoop版本或者是权限问题不支持判断本地文件,这里我们知道脚本含义就可以了

4.2 输出文件内容脚本

命令:

hadoop fs -cat /root/data/input/test2.txt

其实直接执行也可以的,这里直接用简单的方式将其作为脚本执行,读者也可以自行像上面一样建个xxx.sh再执行

其实脚本不也就是一段可以执行的代码吗

image-20220427000203051

4.3 显示单个文件信息脚本

hadoop fs -ls -h /root/data/input/test2.txt

image-20220427000308627

4.4 显示目录信息脚本

hadoop fs -ls -R -h /root/data/input

image-20220427000502416

4.5 自动创建目录脚本

#!/bin/bash
if $(hadoop fs -test -d /root/data/input2);then $(hadoop fs -touchz /root/data/input2/test.txt);
else $(hadoop fs -mkdir -p /root/data/input2 && hadoop fs -touchz /root/data/input2/test.txt);
fi
  • hadoop fs -touchz 递归的创建一个文件

这个和之前的太类似了,这里就不赘述了

4.6 追加文件脚本

hadoop fs -appendToFile 本地目录/文件 hadoop目录/文件

4.7 删除文件脚本

hadoop fs -rm /root/data/input/test2.txt

image-20220427001256471

4.8 移动路径

mv命令详解

使用方法:hadoop fs -mv URI [URI …]

将文件从源路径移动到目标路径。这个命令允许有多个源路径,此时目标路径必须是一个目录。不允许在不同的文件系统间移动文件。
示例:

  • hadoop fs -mv /user/hadoop/file1 /user/hadoop/file2
  • hadoop fs -mv hdfs://host:port/file1 hdfs://host:port/file2 hdfs://host:port/file3 hdfs://host:port/dir1

返回值:

成功返回0,失败返回-1

我们将input下面的log.txt移动到output目录下

hadoop fs -mv /root/data/input/log.txt /root/data/output/log.txt 

image-20220427001705985

5. 实验三编写Java代码

5.1 远程运行

其实我们在3.1节中启动hadoop中所有组件的时候启动了nodeMange,nodeMange提供了一个网页来供我们管理我们的结点和集群,默认端口9000,但结点集群不太一样是8088

管理界面:http://localhost:8088

NameNode界面:http://localhost:50070

HDFS NameNode界面:http://localhost:8042

我这里访问我的nameNode管理界面,由于我用的是云服务器,所以地址隐藏了,默认端口50070,在这里你可以对你的集群进行管理

image-20220427002811843

<dependency>
    <groupId>org.apache.hive</groupId>
    <artifactId>hive-jdbc</artifactId>
    <version>2.1.1</version>
</dependency>

<dependency>
    <groupId>org.apache.hadoop</groupId>
    <artifactId>hadoop-client</artifactId>
    <version>3.0.0</version>
</dependency>

<dependency>
    <groupId>org.apache.hadoop</groupId>
    <artifactId>hadoop-common</artifactId>
    <version>3.0.0</version>
</dependency>
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;

import java.io.BufferedReader;
import java.io.IOException;
import java.io.InputStreamReader;
import java.net.URI;
import java.net.URISyntaxException;

public class test {

    public static void main(String[] args) throws URISyntaxException, IOException, InterruptedException {
        
        // 下面的地址是hadoop的地址
        FileSystem fs=FileSystem.get(
                new URI("hdfs://192.168.153.129:9000"), new Configuration(), "root");
        
        // 下面的地址是hadoop的地址,后面的路径是你要读取的文件
        FSDataInputStream in = fs.open(new Path(
                "hdfs://192.168.153.129:9000/user/hive/warehouse/test.db/t1/dt=3/t1"));

        BufferedReader d = new BufferedReader(new InputStreamReader(in));
 
        String line;
        while ((line = d.readLine()) != null) { 
        	System.out.println(line)
        } 
        d.close();
        in.close();
        fs.close();
    }
}


或者你可以去maven的中央仓库中找到(注意主要和你的hadoop版本一样):

5.2 Linux端运行

在Linux端运行需要一下jar包,都在hadoop的目录下

hadoop-2.8.5/share/hadoop/common
hadoop-2.8.5/share/hadoop/common/bin
hadoop-2.8.5/share/hadoop/hdfs
hadoop-2.8.5/share/hadoop/hdfs/bin

请参考文章:

  • Java: Hadoop文件系统的读写操作

附录 hadoop常用命令

更多命令请看hadoop官方中文文档!!!!!

hadoop官方中文文档

1 hadoop fs -ls <path>

   列出指定目录下的内容,支持pattern匹配。输出格式如filename(full path)<r n>size.n代表备份数。

2 hadoop fs -lsr <path>

   递归列出该路径下所有子目录信息

3 hadoop fs -du<path>

显示目录中所有文件大小,或者指定一个文件时,显示此文件大小

4 hadoop fs -dus<path>

显示文件大小 相当于 linux的du -sb s代表显示只显示总计,列出最后的和 b代表显示文件大小时以byte为单位

5 hadoop fs -mv <src> <dst> 

将目标文件移动到指定路径下,当src为多个文件,dst必须为目录

6 hadoop fs -cp <src> <dst>

拷贝文件到目标位置,src为多个文件时,dst必须是个目录

7 hadoop fs -rm [skipTrash] <src>

删除匹配pattern的指定文件

8 hadoop fs -rmr [skipTrash] <src>

递归删除文件目录及文件

9 hadoop fs -rmi [skipTrash] <src>

为了避免误删数据,加了一个确认

10 hadoop fs -put <> ... <dst>

从本地系统拷贝到dfs中

11 hadoop fs -copyFromLocal<localsrc>...<dst>

从本地系统拷贝到dfs中,与-put一样

12 hadoop fs -moveFromLocal <localsrc>...<dst>

从本地系统拷贝文件到dfs中,拷贝完删除源文件

13 hadoop fs -get [-ignoreCrc]  [-crc] <src> <localdst>

 从dfs中拷贝文件到本地系统,文件匹配pattern,若是多个文件,dst必须是个目录

14 hadoop fs -getmerge  <src> <localdst>

从dfs中拷贝多个文件合并排序为一个文件到本地文件系统

15 hadoop fs -cat <src>

输出文件内容

16 hadoop fs -copyTolocal [-ignoreCre] [-crc] <src> <localdst>

与 -get一致

17 hadoop fs -mkdir <path>

在指定位置创建目录

18 hadoop fs -setrep [-R] [-w] <rep> <path/file>

设置文件的备份级别,-R标志控制是否递归设置子目录及文件

19 hadoop fs -chmod [-R] <MODE[,MODE]...|OCTALMODE>PATH

修改文件权限, -R递归修改 mode为a+r,g-w,+rwx ,octalmode为755

20 hadoop  fs -chown [-R] [OWNER][:[GROUP]] PATH

递归修改文件所有者和组

21 hadoop fs -count[q] <path>

统计文件个数及占空间情况,输出表格列的含义分别为:DIR_COUNT.FILE_COUNT.CONTENT_SIZE.FILE_NAME,如果加-q 的话,还会列出QUOTA,REMAINING_QUOTA,REMAINING_SPACE_QUOTA

Hadoop fs –test –[ezd] PATH     对PATH进行如下类型的检查:-e PATH是否存在,如果PATH存在,返回0,否则返回1;-z 文件是否为空,如果长度为0,返回0,否则返回1; -d 是否为目录,如果PATH为目录,返回0,否则返回1

举报

相关推荐

0 条评论