HDFS Java客户端Daemon

2024-04-15 04:04
文章标签 java 客户端 hdfs daemon

本文主要是介绍HDFS Java客户端Daemon,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

HDFS Java客户端Daemon

1.简单介绍

1.1.pom依赖

比较老的版本

<dependencyManagement><dependencies><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-common</artifactId><version>2.8.4</version></dependency><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-hdfs</artifactId><version>2.8.4</version></dependency><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-client</artifactId><version>2.8.4</version></dependency><dependency><groupId>org.projectlombok</groupId><artifactId>lombok</artifactId><version>1.16.10</version></dependency><dependency><groupId>log4j</groupId><artifactId>log4j</artifactId><version>1.2.17</version></dependency><dependency><groupId>org.slf4j</groupId><artifactId>slf4j-api</artifactId><version>1.7.7</version></dependency></dependencies>
</dependencyManagement>

1.2.简单介绍

org.apache.hadoop.fs.FileSystem是我们向HDFS发送请求的客户端,里面定义了HDFS常用的一些文件操作接口。

org.apache.hadoop.conf.Configuration,承载创建FileSystem客户端时的配置信息。

创建客户端的方法:

import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.conf.Configuration;import java.net.URI;// 最简单的配置,可以用来创建一些读取、下载文件的客户端
// 1.配置信息
Configuration config = new Configuration();
config.set("fs.defaultFS", "hdfs://node1:9000");  // HDFS服务端地址
//2.获取文件系统
FileSystem fs = FileSystem.get(config);//指定用户、文件副本数的配置,可以用来创建一些上传、创建的客户端
// 1.配置信息
Configuration config = new Configuration();
config.set("dfs.replication", "2");
//2.获取文件系统
FileSystem fs = FileSystem.get(new URI("hdfs://node1:9000"), config, "root");

常用接口:

1.上传


//1.上传本地Windows文件的路径
Path src = new Path("D:\\xxx");//2.要上传到HDFS的路径
Path dst = new Path("hdfs://node1:9000/xxx");//3.以拷贝的方式上传,从src -> dst
fs.copyFromLocalFile(src,dst);

2.下载

// 指定一下用户和副本数
FileSystem fs = FileSystem.get(new URI("hdfs://node1:9000"), config, "root"); //1.上传本地Windows文件的路径
Path local = new Path("D:\\xxx");//2.要上传到HDFS的路径
Path remote = new Path("hdfs://node1:9000/xxx");// 参数含义:是否删除远程文件  远程文件   本地文件  使用本地文件系统
fs.copyToLocalFile(false, remote, local, true);

2.搭建daemon

目录结构

src
main
pool
hdfs01
HdfsClient.java
ServerEnum.java
HdfsUtil.java

2.1. ServerEnum.java

记录配置信息

package pool;import org.apache.hadoop.conf.Configuration;public enum ServerEnum {DEFAULT("hdfs://node1:9000") {@Overridepublic Configuration getConfig() {Configuration config = new Configuration();config.set("fs.defaultFS", url);return config;}},REPLICATE2("hdfs://node1:9000") {@Overridepublic Configuration getConfig() {Configuration config = new Configuration();config.set("dfs.replication", "2");return config;}};public final String url;ServerEnum(String url) {this.url = url;}public abstract Configuration getConfig();
}

2.1. HdfsClient.java

生产HDFS客户端

package pool;import org.apache.hadoop.fs.FileSystem;import java.net.URI;public class HdfsClient implements AutoCloseable{private final FileSystem fileSystem;public FileSystem getFileSystem() {return fileSystem;}private HdfsClient(FileSystem fileSystem) {this.fileSystem = fileSystem;}public static HdfsClient from(ServerEnum serverEnum) throws Exception {FileSystem fileSystem = FileSystem.get(serverEnum.getConfig());return new HdfsClient(fileSystem);}public static HdfsClient from(ServerEnum serverEnum, String user) throws Exception {FileSystem fileSystem = FileSystem.get(new URI(serverEnum.url), serverEnum.getConfig(), user);return new HdfsClient(fileSystem);}@Overridepublic void close() throws Exception {if (fileSystem != null) {fileSystem.close();}}
}

2.3. HdfsUtil.java

package hdfs01;import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;
import pool.HdfsClient;
import pool.ServerEnum;import java.io.File;
import java.io.FileInputStream;
import java.io.FileOutputStream;
import java.nio.charset.StandardCharsets;public class HdfsUtil {private static void upload(String local, String remote) throws Exception {try (HdfsClient client = HdfsClient.from(ServerEnum.REPLICATE2, "root");FileSystem fs = client.getFileSystem()) {fs.copyFromLocalFile(new Path(local), new Path(remote));}System.out.println("upload success");}private static void download(String remote, String local) throws Exception {try (HdfsClient client = HdfsClient.from(ServerEnum.DEFAULT, "root");FileSystem fs = client.getFileSystem()) {fs.copyToLocalFile(false, new Path(remote), new Path(local), true);}System.out.println("download success");}private static void streamUpload(String local, String remote) throws Exception {try (HdfsClient client = HdfsClient.from(ServerEnum.REPLICATE2, "root");FileSystem fs = client.getFileSystem()) {FileInputStream input = new FileInputStream(new File(local));FSDataOutputStream output = fs.create(new Path(remote));IOUtils.copyBytes(input, output, 4*1024, false);}System.out.println("upload by stream success");}private static void streamDownload(String remote, String local) throws Exception {try (HdfsClient client = HdfsClient.from(ServerEnum.DEFAULT);FileSystem fs = client.getFileSystem()) {FileOutputStream out = new FileOutputStream(local);FSDataInputStream in = fs.open(new Path(remote));IOUtils.copyBytes(in, out, 4*1024, false);System.out.println("downlaod by stream success");}}private static void create(String file, byte[] data) throws Exception {try (HdfsClient client = HdfsClient.from(ServerEnum.REPLICATE2, "root");FileSystem fs = client.getFileSystem()) {FSDataOutputStream outPut = fs.create(new Path(file));outPut.write(data);outPut.close();}}public static void main(String[] args) throws Exception {String local1 = HdfsUtil.class.getResource("/hello.txt").getPath();String local2 = "D:\\code\\pratise\\big-data\\study\\hadoop\\src\\main\\resources\\down.txt";String remote1 = "/hello.txt";String remote2 = "hdfs://node1:9000/hello2.txt";String createFile = "hdfs://node1:9000/new.txt";//        upload(local, remote1;
//
//        download(remote2, "");//        streamUpload(local1, remote1);//            streamDownload(remote2, local2);create(createFile, "这是新建的文件".getBytes(StandardCharsets.UTF_8));}
}

这篇关于HDFS Java客户端Daemon的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/904806

相关文章

线上Java OOM问题定位与解决方案超详细解析

《线上JavaOOM问题定位与解决方案超详细解析》OOM是JVM抛出的错误,表示内存分配失败,:本文主要介绍线上JavaOOM问题定位与解决方案的相关资料,文中通过代码介绍的非常详细,需要的朋... 目录一、OOM问题核心认知1.1 OOM定义与技术定位1.2 OOM常见类型及技术特征二、OOM问题定位工具

基于 Cursor 开发 Spring Boot 项目详细攻略

《基于Cursor开发SpringBoot项目详细攻略》Cursor是集成GPT4、Claude3.5等LLM的VSCode类AI编程工具,支持SpringBoot项目开发全流程,涵盖环境配... 目录cursor是什么?基于 Cursor 开发 Spring Boot 项目完整指南1. 环境准备2. 创建

Spring Security简介、使用与最佳实践

《SpringSecurity简介、使用与最佳实践》SpringSecurity是一个能够为基于Spring的企业应用系统提供声明式的安全访问控制解决方案的安全框架,本文给大家介绍SpringSec... 目录一、如何理解 Spring Security?—— 核心思想二、如何在 Java 项目中使用?——

SpringBoot+RustFS 实现文件切片极速上传的实例代码

《SpringBoot+RustFS实现文件切片极速上传的实例代码》本文介绍利用SpringBoot和RustFS构建高性能文件切片上传系统,实现大文件秒传、断点续传和分片上传等功能,具有一定的参考... 目录一、为什么选择 RustFS + SpringBoot?二、环境准备与部署2.1 安装 RustF

springboot中使用okhttp3的小结

《springboot中使用okhttp3的小结》OkHttp3是一个JavaHTTP客户端,可以处理各种请求类型,比如GET、POST、PUT等,并且支持高效的HTTP连接池、请求和响应缓存、以及异... 在 Spring Boot 项目中使用 OkHttp3 进行 HTTP 请求是一个高效且流行的方式。

java.sql.SQLTransientConnectionException连接超时异常原因及解决方案

《java.sql.SQLTransientConnectionException连接超时异常原因及解决方案》:本文主要介绍java.sql.SQLTransientConnectionExcep... 目录一、引言二、异常信息分析三、可能的原因3.1 连接池配置不合理3.2 数据库负载过高3.3 连接泄漏

javacv依赖太大导致jar包也大的解决办法

《javacv依赖太大导致jar包也大的解决办法》随着项目的复杂度和依赖关系的增加,打包后的JAR包可能会变得很大,:本文主要介绍javacv依赖太大导致jar包也大的解决办法,文中通过代码介绍的... 目录前言1.检查依赖2.更改依赖3.检查副依赖总结 前言最近在写项目时,用到了Javacv里的获取视频

Java实现字节字符转bcd编码

《Java实现字节字符转bcd编码》BCD是一种将十进制数字编码为二进制的表示方式,常用于数字显示和存储,本文将介绍如何在Java中实现字节字符转BCD码的过程,需要的小伙伴可以了解下... 目录前言BCD码是什么Java实现字节转bcd编码方法补充总结前言BCD码(Binary-Coded Decima

SpringBoot全局域名替换的实现

《SpringBoot全局域名替换的实现》本文主要介绍了SpringBoot全局域名替换的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一... 目录 项目结构⚙️ 配置文件application.yml️ 配置类AppProperties.Ja

Java使用Javassist动态生成HelloWorld类

《Java使用Javassist动态生成HelloWorld类》Javassist是一个非常强大的字节码操作和定义库,它允许开发者在运行时创建新的类或者修改现有的类,本文将简单介绍如何使用Javass... 目录1. Javassist简介2. 环境准备3. 动态生成HelloWorld类3.1 创建CtC