HBase-HLog分析

2024-09-03 16:48
文章标签 分析 hbase hlog

本文主要是介绍HBase-HLog分析,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

HLog的全部实现在包:

org.apache.hadoop.hbase.regionserver.wal 中

 

相关的配置为

参数名默认值含义
hbase.regionserver.hlog.enabledtrue是否启用WAL
hbase.regionserver.hlog.writer.implSequenceFileLogWriterHLog.Writer实现类
hbase.regionserver.hlog.reader.implSequenceFileLogReaderHLog.Reader实现类
hbase.regionserver.hlog.keyclassHLogKeyHLog.Entry的key实现类
hbase.regionserver.wal.enablecompressionfalse是否对日志压缩
io.file.buffer.size4096读取文件的buffer大小
hbase.regionserver.hlog.replication1复制类型
hbase.regionserver.hlog.blocksize32M文件系统块大小
hbase.regionserver.hlog.lowreplication.rolllimit5若低于副本数,尝试几次
hbase.regionserver.hlog.tolerable.lowreplication??未知
hbase.regionserver.maxlogs32最大日志个数
hbase.regionserver.logroll.multiplier0.95到HDFS块95%时回滚

hbase.regionserver.hlog.lowreplication.rolllimit

其中在Hlog.syncer方法中调用checkLowReplication方法用来判断是否hlog在hdfs上的副本数低于配置项,

若低于则requestLogRoll,最终调用logRollRequested方法,但是调用次数不超过默认5次

 

核心类HLog,负责创建读,写接口的实现,完成最终的写入数据,读数据等。

HLog.Reader  HLog读接口,实现类:SequenceFileLogReader

HLog.Writer    HLog写接口,实现类:SequenceFileLogWriter

HLog中包含了若干 HLog.Entry,Entry是一个K/V键值对

键为:HLogKey

值为:WALEdit

工具类:

    HLogSplitter(./hbase hlog命令实现类)

    Compressor(负责将input内容压缩到output中,或者input内容解压到output中)

WALActionsListener  日志的观察者监听类,当日志发生变化了可以触发观察者,比如replication功能就是实现了这个接口。 

 

HLog是一个二进制格式的文件,文件开头二进制信息:

SEQ0org.apache.hadoop.hbase.regionserver.wal.HLogKey0org.apache.hadoop.hbase.regionserver.wal.WALEdit

一个HLog文件如下:


 

 

这里注明了key和value使用的分别是HLogKey和WALEdit两个类

HLog中包含若干Entry,HLog是一个顺序的文件结构,没有索引,所有的Entry都是顺序挨个读取的。

HLog格式如下图:

 


 

HLog$Entry包含一个key,value
key:    HLogKey
value: WALEdit
Entry二进制内容如下:
1.总数据长度(hlogkey+waledit)
2.key长度
3.数据

 

HLogKey
1.变长int
2.编码后的region名字(若启用压缩则写入压缩后的内容)
3.表名(若启用压缩则写入压缩后的内容)
4.long长度的序列号
5.long长度的时间戳
6.1字节UUID标识(是否用默认的UUID标识)
7.UUID前8个字节
8.UUID后8个字节

 

WALEdit
1.int长度版本号
2.int长度KeyValue个数
3.遍历写入KeyValue(若启用压缩则写入压缩后的内容)3-1.KeyValue长度(int)3-2.KeyValue的二进制数据(4字节的key长,4字节的value长,2字节的rowkey长,key,1字节的family长,family,qualify,8字节的timestampe,1字节的keytype,变成long的memstoreMVC
4.socpe个数(若scope为null则写入0)
5.遍历写入每个scope(int长度)

 

 

HLog读取,写入的列子

	/*** 读取HLog中的内容* @throws IOException*/public void read()throws IOException {FileSystem fs = FileSystem.get(cfg);Path path = new Path("/test/hbase/hlog.1234567890");HLog.Reader reader = HLog.getReader(fs, path, cfg);HLog.Entry entry = reader.next();HLogKey key = entry.getKey();WALEdit edit = entry.getEdit();System.out.println( Bytes.toString(key.getEncodedRegionName()) );System.out.println( Bytes.toString(key.getTablename()) );System.out.println( key.getLogSeqNum() );System.out.println( key.getWriteTime() );System.out.println( key.getClusterId().toString() );List<KeyValue> list = edit.getKeyValues();for(KeyValue kv:list) {System.out.println(kv.toString());}while( (entry=reader.next()) !=null ) {System.out.println(entry);}}

 

 

 

	/*** 将数据写入到HLog,用HLog.Writer直接写入数据* @throws IOException*/public void write() throws IOException {FileSystem fs = FileSystem.get(cfg);Path path = new Path("/test/hbase/hlog.1234567890");HLog.Writer writer =  HLog.createWriter(fs, path, cfg);byte[] encodedRegionName = Bytes.toBytes("myregion");byte[] tablename = Bytes.toBytes("test");long logSeqNum = 100;long now = System.currentTimeMillis();UUID clusterId = UUID.randomUUID();HLogKey key1 = new HLogKey(encodedRegionName, tablename, logSeqNum, now, clusterId);WALEdit edit1 = new WALEdit();edit1.add(generator("key111111111111111111111111", "column", "a",System.currentTimeMillis(), new byte[] { '2' }));		HLog.Entry entry1 = new Entry(key1, edit1);HLogKey key2 = new HLogKey(encodedRegionName, tablename, 101L, now, UUID.randomUUID());WALEdit edit2 = new WALEdit();edit2.add(generator("key333333333333333333333333", "column", "b",System.currentTimeMillis(), VALUES));HLog.Entry entry2 = new Entry(key2, edit2);writer.append(entry2);writer.append(entry1);writer.sync();writer.close();}

 

	/*** 使用HLog写入数据* @throws IOException*/public void hlogWriter() throws IOException {FileSystem fs = FileSystem.get(cfg);String regionDir = "/test/hbase/hlog";HLog log = new HLog(fs, new Path(regionDir, "logs"), new Path(regionDir, "oldlogs"), cfg);byte[] tableName = Bytes.toBytes("test");byte[] startKey = Bytes.toBytes("aaaaa1111111111");byte[] endKey = Bytes.toBytes("zzzzz9999999999");HRegionInfo info = new HRegionInfo(tableName, startKey, endKey);WALEdit edit = new WALEdit();edit.add(generator("key333333333333333333333333", "column", "a",System.currentTimeMillis(), new byte[] { '2' }));edit.add(generator("key333333333333333333333333", "column", "b",System.currentTimeMillis(), VALUES));UUID uuid = UUID.randomUUID();long now = System.currentTimeMillis();HColumnDescriptor family = new HColumnDescriptor("column");HTableDescriptor descriptor = new HTableDescriptor();descriptor.addFamily(family);log.append(info, tableName, edit, uuid, now, descriptor);log.sync();log.hflush();log.hsync();log.close();}

  

	/*** 生成KeyValue* @param key* @param column* @param qualifier* @param timestamp* @param value* @return*/public KeyValue generator(String key, String column, String qualifier,long timestamp, byte[] value) {byte[] keyBytes = Bytes.toBytes(key);byte[] familyBytes = Bytes.toBytes(column);byte[] qualifierBytes = Bytes.toBytes(qualifier);Type type = Type.Put;byte[] valueBytes = value;KeyValue kv = new KeyValue(keyBytes, 0, keyBytes.length, familyBytes,0, familyBytes.length, qualifierBytes, 0,qualifierBytes.length, timestamp, type, valueBytes, 0,valueBytes.length);return kv;}

 

 

 

 

这篇关于HBase-HLog分析的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1133494

相关文章

Nginx分布式部署流程分析

《Nginx分布式部署流程分析》文章介绍Nginx在分布式部署中的反向代理和负载均衡作用,用于分发请求、减轻服务器压力及解决session共享问题,涵盖配置方法、策略及Java项目应用,并提及分布式事... 目录分布式部署NginxJava中的代理代理分为正向代理和反向代理正向代理反向代理Nginx应用场景

Redis中的有序集合zset从使用到原理分析

《Redis中的有序集合zset从使用到原理分析》Redis有序集合(zset)是字符串与分值的有序映射,通过跳跃表和哈希表结合实现高效有序性管理,适用于排行榜、延迟队列等场景,其时间复杂度低,内存占... 目录开篇:排行榜背后的秘密一、zset的基本使用1.1 常用命令1.2 Java客户端示例二、zse

Redis中的AOF原理及分析

《Redis中的AOF原理及分析》Redis的AOF通过记录所有写操作命令实现持久化,支持always/everysec/no三种同步策略,重写机制优化文件体积,与RDB结合可平衡数据安全与恢复效率... 目录开篇:从日记本到AOF一、AOF的基本执行流程1. 命令执行与记录2. AOF重写机制二、AOF的

MyBatis Plus大数据量查询慢原因分析及解决

《MyBatisPlus大数据量查询慢原因分析及解决》大数据量查询慢常因全表扫描、分页不当、索引缺失、内存占用高及ORM开销,优化措施包括分页查询、流式读取、SQL优化、批处理、多数据源、结果集二次... 目录大数据量查询慢的常见原因优化方案高级方案配置调优监控与诊断总结大数据量查询慢的常见原因MyBAT

分析 Java Stream 的 peek使用实践与副作用处理方案

《分析JavaStream的peek使用实践与副作用处理方案》StreamAPI的peek操作是中间操作,用于观察元素但不终止流,其副作用风险包括线程安全、顺序混乱及性能问题,合理使用场景有限... 目录一、peek 操作的本质:有状态的中间操作二、副作用的定义与风险场景1. 并行流下的线程安全问题2. 顺

MyBatis/MyBatis-Plus同事务循环调用存储过程获取主键重复问题分析及解决

《MyBatis/MyBatis-Plus同事务循环调用存储过程获取主键重复问题分析及解决》MyBatis默认开启一级缓存,同一事务中循环调用查询方法时会重复使用缓存数据,导致获取的序列主键值均为1,... 目录问题原因解决办法如果是存储过程总结问题myBATis有如下代码获取序列作为主键IdMappe

Java中最全最基础的IO流概述和简介案例分析

《Java中最全最基础的IO流概述和简介案例分析》JavaIO流用于程序与外部设备的数据交互,分为字节流(InputStream/OutputStream)和字符流(Reader/Writer),处理... 目录IO流简介IO是什么应用场景IO流的分类流的超类类型字节文件流应用简介核心API文件输出流应用文

Android 缓存日志Logcat导出与分析最佳实践

《Android缓存日志Logcat导出与分析最佳实践》本文全面介绍AndroidLogcat缓存日志的导出与分析方法,涵盖按进程、缓冲区类型及日志级别过滤,自动化工具使用,常见问题解决方案和最佳实... 目录android 缓存日志(Logcat)导出与分析全攻略为什么要导出缓存日志?按需过滤导出1. 按

Linux中的HTTPS协议原理分析

《Linux中的HTTPS协议原理分析》文章解释了HTTPS的必要性:HTTP明文传输易被篡改和劫持,HTTPS通过非对称加密协商对称密钥、CA证书认证和混合加密机制,有效防范中间人攻击,保障通信安全... 目录一、什么是加密和解密?二、为什么需要加密?三、常见的加密方式3.1 对称加密3.2非对称加密四、

MySQL中读写分离方案对比分析与选型建议

《MySQL中读写分离方案对比分析与选型建议》MySQL读写分离是提升数据库可用性和性能的常见手段,本文将围绕现实生产环境中常见的几种读写分离模式进行系统对比,希望对大家有所帮助... 目录一、问题背景介绍二、多种解决方案对比2.1 原生mysql主从复制2.2 Proxy层中间件:ProxySQL2.3