avb校验相关与块校验原理

2023-11-11 00:20
文章标签 校验 原理 相关 avb

本文主要是介绍avb校验相关与块校验原理,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一、启动校验流程

edk2/QcomModulePkg/Library/avb/VerifiedBoot.c
DEBUG ((EFI_D_ERROR, "LoadImageAndAuth failed %r\n", Status)); in LoadImageAndAuth()edk2/QcomModulePkg/Application/LinuxLoader/LinuxLoader.c
DEBUG ((EFI_D_ERROR, "LoadImageAndAuth failed: %r\n", Status));BootLib/PartitionTableUpdate.c
/QcomModulePkg/Library/avb/libavb/avb_slot_verify.c
LinuxLoaderEntryStatus = GetRebootReason (&BootReason);校验启动原因EnumeratePartitions()FindPtnActiveSlotUpdatePartitionEntries()   -----   加载avb分区LoadImageAndAuth      ---------------                  VerifiedBoot.c FindBootableSlot    --------------         PartitionTableUpdate.c//errorGetBootPartitionEntry HandleActiveSlotUnbootable          //一直返回错误GetBootPartitionEntry             // BootEntry       检测没过GetActiveSlot                     //successGetBootPartitionEntry    -----    for()LoadImageAndAuthVB2  ---------------           VerifiedBoot.c avb_should_update_rollbackIsCurrentSlotBootableavb_slot_verify    ------------------      avb_slot_verify.cload_and_verify_vbmetaops->read_from_partition(ops,  AvbReadFromPartition"Load Image %a total time: %lu ms \n"avb_vbmeta_image_verifyavb_rsa_verifyiavb_parse_key_data                 //Unexpected key lengthavb_manage_hashtree_error_modeavb_append_options   //avb 根据resolved_hashtree_error_mode 设置verity_modecmdline_append_option    //设置verity_mode到slot_data->cmdlineavb_sub_cmdlineHandleActiveSlotUnbootable                //当前槽置为unbootableAppendVBCmdLine      //cmdline赋值到VBCmdLineDisplayVerifiedBootScreenDisplayVerifiedBootMenuBootLinux (&Info);UpdateCmdLineAddtoBootConfigList   //gBS = SystemTable->BootServices;这里会利用uefi boot服务记录map

二、通用块设备层对请求的处理

2.1 块设备概述

在这里插入图片描述

在这里插入图片描述
• 块设备的控制器传输的固定数据单元大小称为扇区(sector)。因此I/O调度器
和块设备驱动必须以扇区为单位管理数据。
• 虚拟文件系统、映射层(mapping layer)管理磁盘数据的逻辑单元大小称为块
(block)。对于文件系统来说,块是最小的磁盘数据存储单元。
• 前面在分散/聚合DMA中,我们提到块设备驱动应该能够处理称为“段”的数据
单元;每个“段”是内存中的一页或页的一部分,“段”中的数据在磁盘上是
连续的。
• 磁盘缓冲区处理的数据单元大小为“页”,每个对应一个页帧。(注1)
• 通用块设备层粘合所有上层和底层的部分,这样它就知道扇区、块、段和数据
页。

在这里插入图片描述
bi_io_vecs指向一个bio_vec结构体数组,该结构体链表包含了一个特定I/O操作所需要
使用到的所有段(segment)。每个bio_vec结构都是一个形式为<page, offset, len>的向量,
它描述的是一个特定的段:段所在的物理页、块在物理页中的偏移量、从给定偏移量开始的
块长度。整个bio_io_vec结构体数组表示了一个完整的缓冲区。bio_vec结构体定义在文件
include/linux/bio.h中。

内核使用gendisk结构,定义在include/linux/genhd.h中,来表示一个独立的磁盘设备。
实际上内核还使用gendisk表示分区,但是驱动程序不需要了解这些。在gendisk结构中的许
多成员必须由驱动程序进行初始化。
物理磁盘通常被分成多个逻辑分区。每个块设备文件可以表示一个整个物理磁盘或者其
中的一个分区。如/dev/sda、/dev/sda1、/dev/sda2等。若一个物理磁盘有多个分区,则磁
盘的布局保存在hd_struct数据结构数组中,数组的地址由gendisk结构体中的part成员保存。
hd_struct数据结构的定义在文件include/linux/genhd.h中。
在这里插入图片描述
当内核在系统中发现一个新磁盘时,调用alloc_disk()分配相关数据结构,如gendisk,
hd_struct等,然后调用add_disk()将磁盘添加到系统中。注意:一旦调用了add_disk,
磁盘设备就被“激活“,表示可以使用,并随时会调用它们提供的方法。

2.2向通用块设备层发送请求

  1. 上层下发磁盘数据请求
  2. 通用块层申请bio结构,将请求的数据分段记录到bio中
  3. 如果请求的数据大于一个bio允许的最大数据量,则将请求分成多个bio
  4. 调用submit_bio提交bio请求
  5. submit_bio函数经过层层调用,最终调用块设备请求队列中的make_request_fn成员函数将bio提交给I/O调度层进行处理

generic_make_request函数将bio连接到current->bio_list链表中,并调用__generic_make_request函数提交链表中所有的bio。
在这里插入图片描述
__generic_make_request函数最终会调用块设备的请求队列中的make_request_fn成员函数将bio请求发送给I/O调度层,至此对磁盘的数据请求离开通用块层,进入下一层——I/O调度层
在这里插入图片描述

2.3 动态校验流程

verity_mapbio->bi_end_io = verity_end_io;verity_end_ioINIT_WORK(&io->work, verity_work);queue_work(io->v->verify_wq, &io->work);verity_workverity_finish_ioverity_verify_iostruct bio *bio = dm_bio_from_per_bio_datafor (b = 0; b < io->n_blocks; b++)verity_fec_decodeDMWARN_LIMIT("%s: FEC: recursion too deep", v->data_dev->name);verity_handle_errDMERR_LIMIT("%s: %s block %llu is corrupted", v->data_dev->name,type_str, block);__submit_bioblk_mq_submit_biobio_endio                                        ///kernel_platform/msm-kernel/block/bio.cbio->bi_end_io
struct dm_verity_io {
72  	struct dm_verity *v;
73  
74  	/* original value of bio->bi_end_io */
75  	bio_end_io_t *orig_bi_end_io;
76  
77  	sector_t block;
78  	unsigned n_blocks;
79  
80  	struct bvec_iter iter;
81  
82  	struct work_struct work;
83  
84  	/*
85  	 * Three variably-size fields follow this struct:
86  	 *
87  	 * u8 hash_req[v->ahash_reqsize];
88  	 * u8 real_digest[v->digest_size];
89  	 * u8 want_digest[v->digest_size];
90  	 *
91  	 * To access them use: verity_io_hash_req(), verity_io_real_digest()
92  	 * and verity_io_want_digest().
93  	 */
94  };
int verity_hash_for_block(struct dm_verity *v, struct dm_verity_io *io,
335  			  sector_t block, u8 *digest, bool *is_zero)
336  {
337  	int r = 0, i;
339  	if (likely(v->levels)) {
340  		/*
341  		 * First, we try to get the requested hash for
342  		 * the current block. If the hash block itself is
343  		 * verified, zero is returned. If it isn't, this
344  		 * function returns 1 and we fall back to whole
345  		 * chain verification.
346  		 */
347  		r = verity_verify_level(v, io, block, 0, true, digest);
348  		if (likely(r <= 0))
349  			goto out;
350  	}
352  	memcpy(digest, v->root_digest, v->digest_size);
354  	for (i = v->levels - 1; i >= 0; i--) {
355  		r = verity_verify_level(v, io, block, i, false, digest);
356  		if (unlikely(r))
357  			goto out;
358  	}
359  out:
360  	if (!r && v->zero_digest)
361  		*is_zero = !memcmp(v->zero_digest, digest, v->digest_size);
362  	else
363  		*is_zero = false;
364  
365  	return r;
366  }

2.4 核心校验数据

struct dm_verity {
35  	struct dm_dev *data_dev;
36  	struct dm_dev *hash_dev;
37  	struct dm_target *ti;
38  	struct dm_bufio_client *bufio;
39  	char *alg_name;
40  	struct crypto_ahash *tfm;
41  	u8 *root_digest;	/* digest of the root block */
42  	u8 *salt;		/* salt: its size is salt_size */
43  	u8 *zero_digest;	/* digest for a zero block */
44  	unsigned salt_size;
45  	sector_t data_start;	/* data offset in 512-byte sectors */
46  	sector_t hash_start;	/* hash start in blocks */
47  	sector_t data_blocks;	/* the number of data blocks */
48  	sector_t hash_blocks;	/* the number of hash blocks */
49  	unsigned char data_dev_block_bits;	/* log2(data blocksize) */
50  	unsigned char hash_dev_block_bits;	/* log2(hash blocksize) */
51  	unsigned char hash_per_block_bits;	/* log2(hashes in hash block) */
52  	unsigned char levels;	/* the number of tree levels */
53  	unsigned char version;
54  	unsigned digest_size;	/* digest size for the current hash algorithm */
55  	unsigned int ahash_reqsize;/* the size of temporary space for crypto */
56  	int hash_failed;	/* set to 1 if hash of any block failed */
57  	enum verity_mode mode;	/* mode for handling verification errors */
58  	unsigned corrupted_errs;/* Number of errors for corrupted blocks */
59
60  	struct workqueue_struct *verify_wq;
61
62  	/* starting blocks for each tree level. 0 is the lowest level. */
63  	sector_t hash_level_block[DM_VERITY_MAX_LEVELS];
64
65  	struct dm_verity_fec *fec;	/* forward error correction */
66  	unsigned long *validated_blocks; /* bitset blocks validated */
67
68  	char *signature_key_desc; /* signature keyring reference */
69  };
70
[??? 3.809367] v->hash_blocks = 662070??662070-656896=5174[??? 3.812900] v->data_dev_block_bits=12
[??? 3.816608] v->hash_dev_block_bits=12
[??? 3.820279] v->hash_per_block_bits=7?? (4096/32 = 128, 指一个4K块上有128个哈希值)
[??? 3.823888] v->levels=3
[??? 3.826380] v->version =1
[??? 3.829033] v->digest_size=32
数据块有656896X4X1024? (超过了2G)
Level 0 :? 656896/128 = 51324k块
Level 1 :? 5132/128= 414k块
Level 2:? 40 /128 = 0,即14k块
共 5132+41+1 = 5174 个块
static void verity_hash_at_level(struct dm_verity *v, sector_t block, int level,
193  				 sector_t *hash_block, unsigned *offset)
194  {
195  	sector_t position = verity_position_at_level(v, block, level);
196  	unsigned idx;
198  	*hash_block = v->hash_level_block[level] + (position >> v->hash_per_block_bits);
200  	if (!offset)
201  		return;
203  	idx = position & ((1 << v->hash_per_block_bits) - 1);
204  	if (!v->version)
205  		*offset = idx * v->digest_size;
206  	else
207  		*offset = idx << (v->hash_dev_block_bits - v->hash_per_block_bits);
208  }static sector_t verity_position_at_level(struct dm_verity *v, sector_t block,
92  					 int level)
93  {
94  	return block >> (level * v->hash_per_block_bits);
95  }

三、init用户态流程

FirstStageMainFirstStageMount::DoFirstStageMountFirstStageMount::MountPartitionsFirstStageMount::MountPartitionFirstStageMountVBootV2::SetUpDmVerityAvbHandle::LoadAndVerifyVbmetaFailed to load offline vbmeta for

四 清除panic标识

adb shell
reboot "dm-verity enforcing"
reboot "dm-verity device corrupted"

五 dm-verity建立过程

在Device Mapper(DM)中使用dm-verity时,需要配置一个哈希树(hash tree),以便验证块设备上的数据的完整性。这通常通过在dmsetup命令中的目标表(target table)参数中指定相关参数来完成。以下是如何为dm-mapper中的dm-verity构建一个哈希树配置表的一般步骤:

  1. 创建源块设备:首先,你需要创建一个普通的块设备,通常是一个已经存在的块设备,例如硬盘分区或者一个镜像文件。

  2. 选择哈希算法:确定要使用的哈希算法。dm-verity支持多种哈希算法,包括SHA-256、SHA-1、SHA-512等。你需要选择一个适合你的需求的哈希算法。

  3. 生成哈希表:使用生成哈希表的工具,例如veritysetup工具,来为源块设备生成哈希表。这个哈希表包含了块设备中每个块的哈希值。通常,你可以运行以下命令来生成哈希表:

veritysetup format /dev/source_device /dev/mapper/verity_device

其中,/dev/source_device 是源块设备,/dev/mapper/verity_device 是dm-verity设备。这个命令将生成哈希表并将其存储在dm-verity设备上。

  1. 配置dm-verity目标:使用dmsetup命令配置dm-verity目标。你需要提供哈希树的根哈希值、块大小、源块设备和dm-verity设备的名称。通常,配置表看起来像这样:
dmsetup create verity_device --table '0 <block_size> verity <root_hash> /dev/source_device /dev/mapper/verity_device'

其中,<block_size> 是块的大小,<root_hash> 是哈希树的根哈希值。

  1. 使用dm-verity设备:一旦dm-verity设备被创建,你可以像使用任何其他块设备一样使用它。数据将在读取时被验证,以确保其完整性。

这里的关键是生成哈希表并配置dm-verity目标,以便验证数据的完整性。哈希表是dm-verity验证数据完整性所必需的,因为它包含了源数据块的哈希值,用于验证数据是否被篡改。配置表指定了如何使用哈希表以及其他相关参数。配置表的格式取决于dm-verity目标的实现和你的需求,但通常是一个包含所需参数的文本字符串。

ubuntu 上dm-mapper相关信息:

astro@astrox:~/code/test$ sudo lvdisplay --maps /dev/mapper/ubuntu--vg-ubuntu--lv--- Logical volume ---LV Path                /dev/ubuntu-vg/ubuntu-lvLV Name                ubuntu-lvVG Name                ubuntu-vgLV UUID                fSgsCj-fCWR-JeiN-WWQL-xPdv-T1gZ-QO9f9MLV Write Access        read/writeLV Creation host, time ubuntu-server, 2023-05-09 09:07:38 +0000LV Status              available# open                 1LV Size                49.25 GiBCurrent LE             12608Segments               1Allocation             inheritRead ahead sectors     auto- currently set to     256Block device           253:0--- Segments ---Logical extents 0 to 12607:Type                linearPhysical volume     /dev/sda3Physical extents    0 to 12607

参考:
https://aliez22.github.io/posts/11537/
https://www.shili8.cn/article/detail_20000194464.html

这篇关于avb校验相关与块校验原理的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/386278

相关文章

Spring Security 单点登录与自动登录机制的实现原理

《SpringSecurity单点登录与自动登录机制的实现原理》本文探讨SpringSecurity实现单点登录(SSO)与自动登录机制,涵盖JWT跨系统认证、RememberMe持久化Token... 目录一、核心概念解析1.1 单点登录(SSO)1.2 自动登录(Remember Me)二、代码分析三、

SpringBoot 异常处理/自定义格式校验的问题实例详解

《SpringBoot异常处理/自定义格式校验的问题实例详解》文章探讨SpringBoot中自定义注解校验问题,区分参数级与类级约束触发的异常类型,建议通过@RestControllerAdvice... 目录1. 问题简要描述2. 异常触发1) 参数级别约束2) 类级别约束3. 异常处理1) 字段级别约束

在MySQL中实现冷热数据分离的方法及使用场景底层原理解析

《在MySQL中实现冷热数据分离的方法及使用场景底层原理解析》MySQL冷热数据分离通过分表/分区策略、数据归档和索引优化,将频繁访问的热数据与冷数据分开存储,提升查询效率并降低存储成本,适用于高并发... 目录实现冷热数据分离1. 分表策略2. 使用分区表3. 数据归档与迁移在mysql中实现冷热数据分

SpringBoot中如何使用Assert进行断言校验

《SpringBoot中如何使用Assert进行断言校验》Java提供了内置的assert机制,而Spring框架也提供了更强大的Assert工具类来帮助开发者进行参数校验和状态检查,下... 目录前言一、Java 原生assert简介1.1 使用方式1.2 示例代码1.3 优缺点分析二、Spring Fr

从原理到实战深入理解Java 断言assert

《从原理到实战深入理解Java断言assert》本文深入解析Java断言机制,涵盖语法、工作原理、启用方式及与异常的区别,推荐用于开发阶段的条件检查与状态验证,并强调生产环境应使用参数验证工具类替代... 目录深入理解 Java 断言(assert):从原理到实战引言:为什么需要断言?一、断言基础1.1 语

MySQL中的表连接原理分析

《MySQL中的表连接原理分析》:本文主要介绍MySQL中的表连接原理分析,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录1、背景2、环境3、表连接原理【1】驱动表和被驱动表【2】内连接【3】外连接【4编程】嵌套循环连接【5】join buffer4、总结1、背景

深度解析Spring AOP @Aspect 原理、实战与最佳实践教程

《深度解析SpringAOP@Aspect原理、实战与最佳实践教程》文章系统讲解了SpringAOP核心概念、实现方式及原理,涵盖横切关注点分离、代理机制(JDK/CGLIB)、切入点类型、性能... 目录1. @ASPect 核心概念1.1 AOP 编程范式1.2 @Aspect 关键特性2. 完整代码实

Java Stream的distinct去重原理分析

《JavaStream的distinct去重原理分析》Javastream中的distinct方法用于去除流中的重复元素,它返回一个包含过滤后唯一元素的新流,该方法会根据元素的hashcode和eq... 目录一、distinct 的基础用法与核心特性二、distinct 的底层实现原理1. 顺序流中的去重

Spring @Scheduled注解及工作原理

《Spring@Scheduled注解及工作原理》Spring的@Scheduled注解用于标记定时任务,无需额外库,需配置@EnableScheduling,设置fixedRate、fixedDe... 目录1.@Scheduled注解定义2.配置 @Scheduled2.1 开启定时任务支持2.2 创建

Spring Boot 实现 IP 限流的原理、实践与利弊解析

《SpringBoot实现IP限流的原理、实践与利弊解析》在SpringBoot中实现IP限流是一种简单而有效的方式来保障系统的稳定性和可用性,本文给大家介绍SpringBoot实现IP限... 目录一、引言二、IP 限流原理2.1 令牌桶算法2.2 漏桶算法三、使用场景3.1 防止恶意攻击3.2 控制资源