热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

HDFSAPI

Hadoop的文件操作位于包org.apache.hadoop.fs里面,能够进行新建、删除、修改等操作。比较重要的几个类:(1)Configurati

Hadoop的文件操作位于包org.apache.hadoop.fs里面,能够进行新建、删除、修改等操作。

比较重要的几个类:

(1)Configuration:HDFS的配置信息;

(2)FileSystem: HDFS文件系统;

(3)Path: HDFS文件或目录的路径;

(4)FileStatus: Path下面的文件或目录;

(5)BlockLocation: 文件块的位置;

(6)DistributedFileSystem: 分布式文件系统;

(7)DatanodeInfo:数据节点信息。

代码:

package com.hellohadoop;import java.io.IOException;
import java.text.SimpleDateFormat;
import java.util.Date;import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.hdfs.DistributedFileSystem;
import org.apache.hadoop.hdfs.protocol.DatanodeInfo;
import org.apache.hadoop.fs.BlockLocation;
import org.apache.hadoop.fs.FSDataOutputStream;public class FileOperator {static Configuration conf;static FileSystem hdfs;public static void main(String[] args) throws Exception{Init();Upload();
// Create();
// CreateFolder();
// Rename();
// Delete();
// IsExist();
// GetTime();
// GetAllFiles();
// GetLocations();
// GetAllHosts();
}// 初始化public static void Init() throws Exception{conf = new Configuration();hdfs = FileSystem.get(conf); }// 上传文件public static void Upload() throws Exception{// 本地文件Path src = new Path("F:\\Hadoop\\DataFiles\\data.txt");// 上传路径Path dst = new Path("hdfs://master:9000/user/Administrator/");// 上传文件
hdfs.copyFromLocalFile(src, dst);System.out.println("Upload to " + conf.get("fs.default.name"));}// 创建文件public static void Create() throws Exception{byte[] buff = "Hello Hadoop!".getBytes();// 新建文件路径Path dfs = new Path("hdfs://master:9000/user/Administrator/hello");FSDataOutputStream outputStream = hdfs.create(dfs);outputStream.write(buff, 0, buff.length);System.out.println("Created!");}// 创建文件夹public static void CreateFolder() throws Exception{// 新建文件路径Path dfs = new Path("hdfs://master:9000/user/Administrator/helloDir");hdfs.mkdirs(dfs);System.out.println("Created!");}// 重新命名HDFS文件public static void Rename() throws Exception{Path of = new Path("hdfs://master:9000/user/Administrator/data.txt");Path nf = new Path("hdfs://master:9000/user/Administrator/newdata.txt");boolean isOk = hdfs.rename(of, nf);String res = isOk? "Yes": "No";System.out.println("Result:" + res);}// 删除HDFS文件public static void Delete() throws Exception{Path file = new Path("hdfs://master:9000/user/Administrator/helloDir");
// hdfs.delete(file, false);// 第二个为是否递归删除,如果目录下面有文件,是否递归删除为false会报错hdfs.delete(file, true);}// 查看某个文件是否存在public static void IsExist() throws IOException{Path file = new Path("hdfs://master:9000/user/Administrator/hello1");String res = hdfs.exists(file)? "Yes": "No";System.out.println("Result:" + res);}// 查看文件最后修改时间public static void GetTime() throws Exception{Path file = new Path("hdfs://master:9000/user/Administrator/hello");FileStatus fs = hdfs.getFileStatus(file);long mTime = fs.getModificationTime();SimpleDateFormat sdf = new SimpleDateFormat("yyyy-MM-dd hh:mm:ss");String sTime = sdf.format(new Date(mTime));System.out.println("Modified Time:" + sTime);}// 递归查看文件目录public static void GetAllFiles() throws Exception{Path file = new Path("hdfs://master:9000/");AllFile(file);}public static void AllFile(Path p) throws Exception{FileStatus[] fs = hdfs.listStatus(p);for (FileStatus f: fs){// 是文件输出路径if (hdfs.isFile(f.getPath())){System.out.println(f.getPath());}// 是目录继续递归else{System.out.println();System.out.println(f.getPath() + ":");AllFile(f.getPath());}}}// 查看文件在HDFS中的位置public static void GetLocations() throws Exception{Path file = new Path("hdfs://master:9000/user/Administrator/stsme_20150330.sql");FileStatus fs = hdfs.getFileStatus(file);BlockLocation[] blk = hdfs.getFileBlockLocations(fs, 0, fs.getLen());for(int i=0; i){String[] host = blk[i].getHosts();System.out.println("Block " + i + " Location:" + host[0]);} }// 查看HDFS集群上所有节点public static void GetAllHosts() throws Exception{DistributedFileSystem dfs = (DistributedFileSystem) hdfs;DatanodeInfo[] dns = dfs.getDataNodeStats();for (int i=0; i){System.out.println("Datanode " + i + " Name:" + dns[i].getHostName());}}}




推荐阅读
  • 本文介绍了如何通过 Maven 依赖引入 SQLiteJDBC 和 HikariCP 包,从而在 Java 应用中高效地连接和操作 SQLite 数据库。文章提供了详细的代码示例,并解释了每个步骤的实现细节。 ... [详细]
  • 本文将介绍如何编写一些有趣的VBScript脚本,这些脚本可以在朋友之间进行无害的恶作剧。通过简单的代码示例,帮助您了解VBScript的基本语法和功能。 ... [详细]
  • 1:有如下一段程序:packagea.b.c;publicclassTest{privatestaticinti0;publicintgetNext(){return ... [详细]
  • 本文介绍如何使用阿里云的fastjson库解析包含时间戳、IP地址和参数等信息的JSON格式文本,并进行数据处理和保存。 ... [详细]
  • 本文详细介绍如何使用Python进行配置文件的读写操作,涵盖常见的配置文件格式(如INI、JSON、TOML和YAML),并提供具体的代码示例。 ... [详细]
  • 本文探讨了Hive中内部表和外部表的区别及其在HDFS上的路径映射,详细解释了两者的创建、加载及删除操作,并提供了查看表详细信息的方法。通过对比这两种表类型,帮助读者理解如何更好地管理和保护数据。 ... [详细]
  • PHP 5.2.5 安装与配置指南
    本文详细介绍了 PHP 5.2.5 的安装和配置步骤,帮助开发者解决常见的环境配置问题,特别是上传图片时遇到的错误。通过本教程,您可以顺利搭建并优化 PHP 运行环境。 ... [详细]
  • 本文介绍了Java并发库中的阻塞队列(BlockingQueue)及其典型应用场景。通过具体实例,展示了如何利用LinkedBlockingQueue实现线程间高效、安全的数据传递,并结合线程池和原子类优化性能。 ... [详细]
  • 主要用了2个类来实现的,话不多说,直接看运行结果,然后在奉上源代码1.Index.javaimportjava.awt.Color;im ... [详细]
  • 本文详细介绍了 Dockerfile 的编写方法及其在网络配置中的应用,涵盖基础指令、镜像构建与发布流程,并深入探讨了 Docker 的默认网络、容器互联及自定义网络的实现。 ... [详细]
  • UNP 第9章:主机名与地址转换
    本章探讨了用于在主机名和数值地址之间进行转换的函数,如gethostbyname和gethostbyaddr。此外,还介绍了getservbyname和getservbyport函数,用于在服务器名和端口号之间进行转换。 ... [详细]
  • 本文详细分析了Hive在启动过程中遇到的权限拒绝错误,并提供了多种解决方案,包括调整文件权限、用户组设置以及环境变量配置等。 ... [详细]
  • 本文详细介绍了 Apache Jena 库中的 Txn.executeWrite 方法,通过多个实际代码示例展示了其在不同场景下的应用,帮助开发者更好地理解和使用该方法。 ... [详细]
  • andr ... [详细]
  • Hadoop入门与核心组件详解
    本文详细介绍了Hadoop的基础知识及其核心组件,包括HDFS、MapReduce和YARN。通过本文,读者可以全面了解Hadoop的生态系统及应用场景。 ... [详细]
author-avatar
海滨2502940147
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有