Ethereum 源码分析之ethdb

2023-11-10 20:59
文章标签 分析 源码 ethereum ethdb

本文主要是介绍Ethereum 源码分析之ethdb,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1. ethdb(ethereum数据库)源码分析以及levelDB

ethdb package 存放在位置 go-ethereum/ethdb中

根据分析ethdb的接口Database:

//Database接口位置: go-ethereum/ethdb/database.go
type Database interface{Reader  //读取器:从数据库中读取数据Writer  //写入器:向数据库中写入数据Batcher //支持数据存储的接口,将多个操作合并到一个批处理任务中,然后一次性提交给数据库执行.//减少I/O次数Iterator //创建数据库内容的二进制字母排序迭代器的方法.Stater   //提供了各种从键值数据库和不可改变的原始数据中检索到状态的方法Compacter //方法用于给定键范围的底层数据存储进行压缩。它的作用是丢弃已删除和被覆盖的版本,//并重新排列数据,以减少访问它们所需的操作成本.Snapshotter //基于当前状态创建一个数据库快照,所创建的快照将
}
//上述中都是接口,那么ethdb的数据库必须要实现上述接口中的所有方法.

底层数据库支持leveldb(kv键值存储库),memorydb(内存数据库)以及pebble(kv键值存储库)三种数据库. leveldb是最常用和成熟的选项,而memorydb则适用于对速度要求较高且数据不需要持久化的场景.
在这里插入图片描述

接下来我们将会介绍leveldb的底层数据库实现下的ethdb:

1.1 go-ethereum/leveldb package

package location: go-ethereum/ethdb/leveldb

实际底层数据库是:GitHub - syndtr/goleveldb: LevelDB key/value database in Go. 即go-ethereum/leveldb是对goleveldb的一层封装.go-etheruem/ethdb/leveldb的结构体如下:

type Database struct {fn string      // filename for reportingdb *leveldb.DB // LevelDB instance(leveldb实例)//下面的字段都是测量数据库性能的meter.compTimeMeter       metrics.Meter // Meter for measuring the total time spent in database compactioncompReadMeter       metrics.Meter // Meter for measuring the data read during compactioncompWriteMeter      metrics.Meter // Meter for measuring the data written during compactionwriteDelayNMeter    metrics.Meter // Meter for measuring the write delay number due to database compactionwriteDelayMeter     metrics.Meter // Meter for measuring the write delay duration due to database compactiondiskSizeGauge       metrics.Gauge // Gauge for tracking the size of all the levels in the databasediskReadMeter       metrics.Meter // Meter for measuring the effective amount of data readdiskWriteMeter      metrics.Meter // Meter for measuring the effective amount of data writtenmemCompGauge        metrics.Gauge // Gauge for tracking the number of memory compactionlevel0CompGauge     metrics.Gauge // Gauge for tracking the number of table compaction in level0nonlevel0CompGauge  metrics.Gauge // Gauge for tracking the number of table compaction in non0 levelseekCompGauge       metrics.Gauge // Gauge for tracking the number of table compaction caused by read optmanualMemAllocGauge metrics.Gauge // Gauge to track the amount of memory that has been manually allocated (not a part of runtime/GC)levelsGauge [7]metrics.Gauge // Gauge for tracking the number of tables in levelsquitLock sync.Mutex      // Mutex protecting the quit channel accessquitChan chan chan error // Quit channel to stop the metrics collection before closing the databaselog log.Logger // Contextual logger tracking the database path
}

我们从go-etheruem/ethdb/leveldb/leveldb_test.go中BenchmarkLevelDB中开始

func BenchmarkLevelDB(b *testing.B) {dbtest.BenchDatabaseSuite(b, func() ethdb.KeyValueStore {db, err := leveldb.Open(storage.NewMemStorage(), nil)if err != nil {b.Fatal(err)}return &Database{db: db,}})
}
//storage.NewMemStorage()
1.2 leveldb feature
  1. 支持基本操作:Put(key,value),Get(key),Delete(key)

    1. key和value都可以是任意的字节数组
  2. Data是按照key排序的,且排序的顺序是可以自定义的.

  3. 批处理(batcher): 多个改变都可以放在一个具有原子性的批处理

  4. 支持向前和向后的迭代器(iteration)

  5. 支持瞬间快照来获得一致性视图

  6. 支持数据自动压缩.

1.2.1 API
创建数据库:
db, err := leveldb.OpenFile(file, options)读取Get和写入Put操作:
dat, err := db.Get(key, nil) //返回的切片只是拷贝,是可以修改的.
err:=db.Put(key, value, nil)
删除操作:
err:=db.Delete(key, nil)批量处理
leveldb.Batch{}.
1.2.2 leveldb.batch(原子批量化)的源码分析

github.com/syndtr/goleveldb/leveldb/batch.go文件

leveldb提供的批处理创建的方法有:

func leveldb.MakeBatch(n int) *leveldb.Batch
//实际上就是对data切片设置为n,实际上可以减少cpu开销.ethdb中的实现Batch方法:
func (db *Database) NewBatch() ethdb.Batch {return &batch{db: db.db,b:  new(leveldb.Batch),}
}
ethdb中的batch结构体:创建的时候为一个db绑定一个batch.
type batch struct {db   *leveldb.DBb    *leveldb.Batchsize int
}

leveldb的批量处理化(加入操作)如何实现?

批量处理支持Put和Delete操作,那么就需要对外开放Put,Delete操作以及执行(Replay)的操作.

1. 结构体:
type Batch struct{data  []byte //存放批量操作的切片index []batchIndex //存放每个批量操作在data中的末尾位置// internalLen is sums of key/value pair l5. Put和Delete操作ength plus 8-bytes internal key.internalLen int
}2. batchIndex数据类型:
type batchIndex struct{keyType            keyTypekeyPos, keyLen     int //一个数组中的实例的位置1. pos+len 或者2. startPos+endPosvaluePos, valueLen int
}
batchIndex中需要记录一个Put/Delete请求的放在batch中需要记录Key和Value的位置keyType的表示:
type keyType uint
keyTypeDel=keyType(0)
keyTypeVal=keyType(1)3. 重置Batch
func (b *Batch) Reset() {b.data = b.data[:0]b.index = b.index[:0]b.internalLen = 0
}4. Batch长度:
func (b *Batch) Len() int {return len(b.index)
}5. Put和Delete操作
func (b *Batch) Put(key, value []byte) 
func (b *Batch) Delete(key []byte)上面两个实际调用的是appendRec方法

appendRec方法:

import "encoding/binary"func (b *Batch) appendRec(kt keyType, key, value []byte) {//binary.MaxVarintLen32:32位整数经过Varint编码后的最大长度,此时是5.//binary.MaxVarintlen32n := 1 + binary.MaxVarintLen32 + len(key)if kt == keyTypeVal { //如果是put操作则需要加value的长度n += binary.MaxVarintLen32 + len(value)}b.grow(n) //扩展空间index := batchIndex{keyType: kt}o := len(b.data) //在leveldb中key,value都是[]byte数组.data := b.data[:o+n] //data的len长度增加从o变为o+ndata[o] = byte(kt)//每一个batch中的操作第一个字节表示操作类型,o++//binary.PutUvarint把uint64编码加入到data切片中o += binary.PutUvarint(data[o:], uint64(len(key)))index.keyPos = o //记录key存放的开始位置index.keyLen = len(key) //记录key存放的长度o += copy(data[o:], key) //把key复制到data[0:]if kt == keyTypeVal { //put方法,那么就还需要存放val值o += binary.PutUvarint(data[o:], uint64(len(value)))index.valuePos = oindex.valueLen = len(value)o += copy(data[o:], value)}b.data = data[:o]b.index = append(b.index, index)//我觉得应该b.internalLen += index.keyLen + index.valueLen + 8
} 调用grow方法(切片是由len,cap以及底层数组的指针三元组表示):
func (b *Batch) grow(n int) {o := len(b.data) //data的数组长度if cap(b.data)-o < n {div := 1if len(b.index) > batchGrowRec { div = len(b.index) / batchGrowRec}ndata := make([]byte, o, o+n+o/div) //还会额外增加一部分空间:o+n+o*(batchGrowRec)/(b.index)//copy(ndata, b.data)b.data = ndata}
}

leveldb的批量处理化(重现Replay操作)的如何实现?

//批处理就是遍历batch的index数组(数组中的每个元素记录了每一条记录)
func (b *Batch)Replay(r BatchReplay)error{for _,index:=range b.index{switch index.keytype{case keyTypeVal: //put操作,返回key和value的[]byter.Put(index.k(b.data), index.v(b.data))case keyTypeDel://delete操作,返回key的[]byter.Delete(index.k(b.data))}}
}
1.2.3 go-ethereum的leveldb中iterator.Iterator(迭代器)源码分析

leveldb实现的迭代器可以向前向后(forward and backward)

以太坊ethdb底层数据库如果使用的是leveldb,那么对外提供了一个接口来创建leveldb的迭代器,接口如下:

//为满足key的前缀prefix的数据库内容子集创建一个迭代器
func (db *Database) NewIterator(prefix []byte, start []byte) ethdb.Iterator{return db.db.NewIterator(bytesPrefixRange(prefix, start), nil)//bytesPrefixRange()返回满足的键范围.    //return的类型是leveldb包中iterator.Iterator
}上述bytesPrefix

我们可以根据上述发现,leveldb中的迭代器实例可以赋值给ethdb.Iterator说明该迭代器实例实现了ethdb.Iterator的方法. ethdb.Iterator的接口如下:

type Iterator interface {// 移动迭代器到下一个kv对,返回该迭代器是否是饥饿的(exhausted)Next() bool// Error returns any accumulated error. Exhausting all the key/value pairs// is not considered to be an error.Error() error// 返回当前迭代器指向的key/value对的key或者nil,且不要对返回的切片的值进行更改// 如果需要对切片的值更改,需要用copy方式Key() []byte//返回当前迭代器指向的key/value对的value或者nil,且不要对返回的切片的值进行更改\//如果需要对切片的值更改,需要用copy方式Value() []byte//Release是释放相关的资源,Release是可以被调用多次的且不会返回error.Release()
}
1.2.4 go-ethereum的leveldb中snapshot(快照)

在以太坊go-ethereum/ethdb/snapshot.go中定义了快照接口的类型:

type Snapshot interface{//检索键值存储数据存储支持的快照中是否存在Has(key []byte)(bool,error)// 检索键值存储数据存储支持的快照中并返回key所对应的valueGet(key []byte)([]byte,error)//释放资源Release()
}        

这篇关于Ethereum 源码分析之ethdb的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/385199

相关文章

Nginx分布式部署流程分析

《Nginx分布式部署流程分析》文章介绍Nginx在分布式部署中的反向代理和负载均衡作用,用于分发请求、减轻服务器压力及解决session共享问题,涵盖配置方法、策略及Java项目应用,并提及分布式事... 目录分布式部署NginxJava中的代理代理分为正向代理和反向代理正向代理反向代理Nginx应用场景

Redis中的有序集合zset从使用到原理分析

《Redis中的有序集合zset从使用到原理分析》Redis有序集合(zset)是字符串与分值的有序映射,通过跳跃表和哈希表结合实现高效有序性管理,适用于排行榜、延迟队列等场景,其时间复杂度低,内存占... 目录开篇:排行榜背后的秘密一、zset的基本使用1.1 常用命令1.2 Java客户端示例二、zse

Redis中的AOF原理及分析

《Redis中的AOF原理及分析》Redis的AOF通过记录所有写操作命令实现持久化,支持always/everysec/no三种同步策略,重写机制优化文件体积,与RDB结合可平衡数据安全与恢复效率... 目录开篇:从日记本到AOF一、AOF的基本执行流程1. 命令执行与记录2. AOF重写机制二、AOF的

MyBatis Plus大数据量查询慢原因分析及解决

《MyBatisPlus大数据量查询慢原因分析及解决》大数据量查询慢常因全表扫描、分页不当、索引缺失、内存占用高及ORM开销,优化措施包括分页查询、流式读取、SQL优化、批处理、多数据源、结果集二次... 目录大数据量查询慢的常见原因优化方案高级方案配置调优监控与诊断总结大数据量查询慢的常见原因MyBAT

分析 Java Stream 的 peek使用实践与副作用处理方案

《分析JavaStream的peek使用实践与副作用处理方案》StreamAPI的peek操作是中间操作,用于观察元素但不终止流,其副作用风险包括线程安全、顺序混乱及性能问题,合理使用场景有限... 目录一、peek 操作的本质:有状态的中间操作二、副作用的定义与风险场景1. 并行流下的线程安全问题2. 顺

MyBatis/MyBatis-Plus同事务循环调用存储过程获取主键重复问题分析及解决

《MyBatis/MyBatis-Plus同事务循环调用存储过程获取主键重复问题分析及解决》MyBatis默认开启一级缓存,同一事务中循环调用查询方法时会重复使用缓存数据,导致获取的序列主键值均为1,... 目录问题原因解决办法如果是存储过程总结问题myBATis有如下代码获取序列作为主键IdMappe

Java中最全最基础的IO流概述和简介案例分析

《Java中最全最基础的IO流概述和简介案例分析》JavaIO流用于程序与外部设备的数据交互,分为字节流(InputStream/OutputStream)和字符流(Reader/Writer),处理... 目录IO流简介IO是什么应用场景IO流的分类流的超类类型字节文件流应用简介核心API文件输出流应用文

java 恺撒加密/解密实现原理(附带源码)

《java恺撒加密/解密实现原理(附带源码)》本文介绍Java实现恺撒加密与解密,通过固定位移量对字母进行循环替换,保留大小写及非字母字符,由于其实现简单、易于理解,恺撒加密常被用作学习加密算法的入... 目录Java 恺撒加密/解密实现1. 项目背景与介绍2. 相关知识2.1 恺撒加密算法原理2.2 Ja

Nginx屏蔽服务器名称与版本信息方式(源码级修改)

《Nginx屏蔽服务器名称与版本信息方式(源码级修改)》本文详解如何通过源码修改Nginx1.25.4,移除Server响应头中的服务类型和版本信息,以增强安全性,需重新配置、编译、安装,升级时需重复... 目录一、背景与目的二、适用版本三、操作步骤修改源码文件四、后续操作提示五、注意事项六、总结一、背景与

Android实现图片浏览功能的示例详解(附带源码)

《Android实现图片浏览功能的示例详解(附带源码)》在许多应用中,都需要展示图片并支持用户进行浏览,本文主要为大家介绍了如何通过Android实现图片浏览功能,感兴趣的小伙伴可以跟随小编一起学习一... 目录一、项目背景详细介绍二、项目需求详细介绍三、相关技术详细介绍四、实现思路详细介绍五、完整实现代码