热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

实验六熟悉常用的HDFS操作命令

实验五https:mp.csdn.neteditorhtml116616391配置环境和实验五一样实验内容和要求Hadoop提供的sheel的命令学习指导http:hadoop.

实验五

https://mp.csdn.net/editor/html/116616391



配置环境和实验五一样

  • 实验内容和要求

Hadoop提供的sheel的命令学习指导http://hadoop.apache.org/docs/r1.0.4/cn/hdfs_shell.html

一,利用Hadoop提供的Shell命令完成以下任务:

任务1:向HDFS中上传任意文本文件,如果指定的文件在HDFS中已经存在,由用户指定是追加到原有文件末尾还是覆盖原有的文件。

  1. 先到Hadoop主文件夹

cd /usr/local/hadoop

  1. 启动Hadoop服务

sbin/start-dfs.sh

sbin/start-yarn.sh

  1. 创建两个任意文本文件用于实验

echo "hello world" > local.txt

echo "hello hadoop" >text.txt

  1. 创建用户工作目录(HDFS默认工作目录格式为/user/当前用户)

hadoop fs -mkdir -p /user/当前用户名      (此时提示hadoop不是command时,按照实验五添加hadoop环境变量)

  1. 检查文件是否存在

hadoop fs -test -e text.txt

echo $?

  1. 上传本地文件到HDFS系统

hadoop fs -put text.txt

  1. 追加到文件末尾的指令

hadoop fs -appendToFile local.txt text.txt

  1. 查看HDFS文件的内容

hadoop fs -cat text.txt

  1. 覆盖原有文件的指令(覆盖之后再执行一遍上一步)

hadoop fs -copyFromLocal -f local.txt text.txt

  1. 以上步骤也可以用如下Shell程序实现

if $(hadoop fs -test -e text.txt);

then $(hadoop fs -appendToFile local.txt text.txt);

else $(hadoop fs -copyFromLocal -f local.txt text.txt);

Fi

任务1的1-10命令:

 

任务2:从HDFS中下载指定文件,如果本地文件与要下载的文件名称相同,则自动对下载的文件重命名。

Shell命令实现:

if $(hadoop fs -test -e /usr/local/hadoop/text.txt);

then $(hadoop fs -copyToLocal text.txt ./text.txt);

else $(hadoop fs -copyToLocal text.txt ./text2.txt);

fi

 

任务3:将HDFS中指定文件的内容输出到终端中;

Shell命令实现:

hadoop fs -cat text.txt

 

任务4:显示HDFS中指定的文件的读写权限、大小、创建时间、路径等信息

hadoop fs -ls -h text.txt

 

任务5:给定HDFS中某一个目录,输出该目录下的所有文件的读写权限、大小、创建时间、路径等信息,如果该文件是目录,则递归输出该目录下所有文件相关信息;

Shell命令实现:

hadoop fs -ls -R -h /user/hadoop

 

任务6:提供一个HDFS内的文件的路径,对该文件进行创建和删除操作。如果文件所在目录不存在,则自动创建目录。

Shell命令实现:

if $(hadoop fs -test -d dir1/dir2);

then $(hadoop fs -touchz dir1/dir2/filename);

else $(hadoop fs -mkdir -p dir1/dir2 && hdfs dfs -touchz dir1/dir2/filename);

fi

 

删除操作:

hadoop fs -rm dir1/dir2/filename

 

任务七:向HDFS中指定的文件追加内容,由用户指定内容追加到原有文件的开头或结尾。

追加到文件末尾

hadoop fs -appendToFile local.txt text.txt

追加到文件开头

hadoop fs -get text.txt

cat text.txt >> local.txt

hadoop fs -copyFromLocal -f text.txt text.txt

 

任务8:在HDFS中,将文件从源路径移动到目的路径

Shell命令实现:

hadoop fs -mv text.txt input

 

  • 实验结果

  1. 请给出每一个shell命令执行后的结果。

如任务下截图

  1. 请说明实验中hadoop fs -test -e text.txt命中hadoop fs命令组合的作用。

调用文件系统(FS)Shell命令应使用 bin/hadoop fs 的形式。 所有的的FS shell命令使用URI路径作为参数。URI格式是scheme://authority/path。对HDFS文件系统,scheme是hdfs,对本地文件系统,scheme是file。其中scheme和authority参数都是可选的,如果未加指定,就会使用配置中指定的默认scheme。

  1. 实验中hadoop fs -copyFromLocal -f text.txt text.txt中copyFromLocal参数的作用是什么。

使用方法:hadoop fs -copyToLocal [-ignorecrc] [-crc] URI

复制文件到本地文件系统,除了限定目标路径是一个本地文件外,和get命令类似。

  1. 实验中hadoop fs -get text.txt中-get参数的含义是什么。

使用方法:hadoop fs -get [-ignorecrc] [-crc] 复制文件到本地文件系统。可用-ignorecrc选项复制CRC校验失败的文件。使用-crc选项复制文件以及CRC信息。


推荐阅读
  • 在List和Set集合中存储Object类型的数据元素 ... [详细]
  • 构建高可用性Spark分布式集群:大数据环境下的最佳实践
    在构建高可用性的Spark分布式集群过程中,确保所有节点之间的无密码登录是至关重要的一步。通过在每个节点上生成SSH密钥对(使用 `ssh-keygen -t rsa` 命令并保持默认设置),可以实现这一目标。此外,还需将生成的公钥分发到所有节点的 `~/.ssh/authorized_keys` 文件中,以确保节点间的无缝通信。为了进一步提升集群的稳定性和性能,建议采用负载均衡和故障恢复机制,并定期进行系统监控和维护。 ... [详细]
  • 安装hadoop2.9.2jdk1.8centos7
    安装JDK1.8查看JDK1.8的安装https:www.cnblogs.comTJ21p13208514.html安装hadoop上传hadoop下载hadoop地址http:m ... [详细]
  • 1、概述hdfs文件系统主要设计为了存储大文件的文件系统;如果有个TB级别的文件,我们该怎么存储呢?分布式文件系统未出现的时候࿰ ... [详细]
  • 用阿里云的免费 SSL 证书让网站从 HTTP 换成 HTTPS
    HTTP协议是不加密传输数据的,也就是用户跟你的网站之间传递数据有可能在途中被截获,破解传递的真实内容,所以使用不加密的HTTP的网站是不 ... [详细]
  • Presto:高效即席查询引擎的深度解析与应用
    本文深入解析了Presto这一高效的即席查询引擎,详细探讨了其架构设计及其优缺点。Presto通过内存到内存的数据处理方式,显著提升了查询性能,相比传统的MapReduce查询,不仅减少了数据传输的延迟,还提高了查询的准确性和效率。然而,Presto在大规模数据处理和容错机制方面仍存在一定的局限性。本文还介绍了Presto在实际应用中的多种场景,展示了其在大数据分析领域的强大潜力。 ... [详细]
  • Zookeeper作为Apache Hadoop生态系统中的一个重要组件,主要致力于解决分布式应用中的常见数据管理难题。它提供了统一的命名服务、状态同步服务以及集群管理功能,有效提升了分布式系统的可靠性和可维护性。此外,Zookeeper还支持配置管理和临时节点管理,进一步增强了其在复杂分布式环境中的应用价值。 ... [详细]
  • HBase在金融大数据迁移中的应用与挑战
    随着最后一台设备的下线,标志着超过10PB的HBase数据迁移项目顺利完成。目前,新的集群已在新机房稳定运行超过两个月,监控数据显示,新集群的查询响应时间显著降低,系统稳定性大幅提升。此外,数据消费的波动也变得更加平滑,整体性能得到了显著优化。 ... [详细]
  • 本文详细介绍了HDFS的基础知识及其数据读写机制。首先,文章阐述了HDFS的架构,包括其核心组件及其角色和功能。特别地,对NameNode进行了深入解析,指出其主要负责在内存中存储元数据、目录结构以及文件块的映射关系,并通过持久化方案确保数据的可靠性和高可用性。此外,还探讨了DataNode的角色及其在数据存储和读取过程中的关键作用。 ... [详细]
  • Hadoop + Spark安装(三) —— 调hadoop
    ***************************测试hadoop及问题跟进***************************执行以下语句报错datahadoop-2.9. ... [详细]
  • 前期Linux环境准备1.修改Linux主机名2.修改IP3.修改主机名和IP的映射关系4.关闭防火墙5.ssh免登陆6.安装JDK,配置环境变量等集群规划主机 IP安装软件运行进 ... [详细]
  • 【原创】七、Hadoop 2.5.2+zookeeper高可用部署
    一、原理(四大要点)(1)保证元数据一致(edits)namenode(fsimage edits)a、NFSb、journalnodec、zk(2)只有一台namenode对外提 ... [详细]
  • hadoop3.1.2 first programdefault wordcount (Mac)
    hadoop3.1.2安装完成后的第一个实操示例程 ... [详细]
  • Hadoop——实验七:MapReduce编程实践
    文章目录一.实验目的二.实验内容三.实验步骤及结果分析 1.基于ubuntukylin14.04(7)版本,安装hadoop-eclipse-kepler-plugi ... [详细]
  • MicrosoftDeploymentToolkit2010部署培训实验手册V1.0目录实验环境说明3实验环境虚拟机使用信息3注意:4实验手册正文说 ... [详细]
author-avatar
Eliza
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有