RKNPU2从入门到实践 --- 【4】RKNN 模型构建【使用pycharm一步一步搭建RKNN模型】

2024-08-28 07:28

本文主要是介绍RKNPU2从入门到实践 --- 【4】RKNN 模型构建【使用pycharm一步一步搭建RKNN模型】,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

目录

前言

1.1 RKNN 初始化及对象释放 

1.1.1 概念介绍 

1.1.2 实际演示

1.2 RKNN 模型配置

1.2.1 概念介绍 

1.2.2 实际演示 

1.3 模型加载

1.3.1 概念介绍

1.3.1.1 Caffe模型加载接口

1.3.1.2 TensorFlow模型加载接口

1.3.1.3 TensorFlowLite 模型加载接口

1.3.1.4 ONNX 模型加载接口

1.3.1.5 DarkNet模型加载接口 ​编辑​编辑

1.3.1.6 PyTorch 模型加载接口 

​编辑 1.3.2 实际演示

1.4 构建RKNN模型

1.4.1 概念介绍 

​编辑1.4.2 实际演示 

1.5 导出RKNN模型

1.5.1 概念介绍 

1.5.2 实际演示 

1.6 最终测试

前言

本篇博文中所使用到的系统为Ubuntu 20系统,搭建好RKNN Toolkit2环境后,方可继续往下看。
RKNN Toolkit2使用流程图如下所示: 


RKNN模型构建流程如下图所示:

      打开 VMware 虚拟软件,启动linux虚拟系【Ubuntu20系统】,在该系统中你已经配置好了RKNNToolkit2环境。
      随后打开pycharm【在虚拟linux系统中打开的pycharm】,创建一个名为 export_rknn_learning 的文件夹,在该文件夹中创建一个名为export_rknn.py文件,创建一个log.txt文件用于存放日志信息,如下图所示。
随后按照如下步骤:

1.1 RKNN 初始化及对象释放 

1.1.1 概念介绍 

      在使用 RKNNToolkit2 的所有 API 接口时,都需要先调用 RKNN()方法初始化 RKNN 对象,当不 再使用该对象时,通过调用该对象的 release()方法进行释放。
      初始化 RKNN 对象时,可以设置 verbose 和 verbose_file 参数,从而打印详细的日志信息。其 中 verbose 参数指定是否要在终端打印详细日志信息;如果设置了 verbose_file 参数,且 verbose 参数值为 True,日志信息还将写到该参数指定的文件中。 举例如下:

from rknn.api import RKNN
#将详细的日志信息输出到终端,并写到 mobilenet_build.log 文件中
rknn=RKNN(verbose=True,verbose_file='./mobilenet_build.log')
rknn=RKNN(verbose=True) #将详细的日志信息输出到终端
…
rknn.release()
1.1.2 实际演示

第一步和最后一步的代码如下所示: 

 运行上述代码,得到:

log.txt 文件中的内容为:

红色框给出了 rknn-toolkit2 的版本,蓝色框给出了已经将日志log信息保存到 log.txt 文件中。

1.2 RKNN 模型配置

1.2.1 概念介绍 

      在构建 RKNN 模型之前,需要先对模型进行通道均值、量化图片 RGB2BGR 转换、量化类型等配置,这些操作需要通过 config 接口进行配置。


举例如下:

rknn.config(mean_values=[123.675,116.28,103.53],std_values=[58.395,58.395,58.395])
1.2.2 实际演示 

第二步代码如下: 

第二步代码添入后整体代码如下所示: 

from rknn.api import RKNNif __name__ == '__main__':# 第一步:创建一个RKNN对象rknn = RKNN(verbose=True, verbose_file='log.txt')# 第二步:调用config接口配置要生成的RKNN模型rknn.config(mean_values=[[123.675, 116.28,103.53]], # mean_values 表示预处理要减去的均值化参数std_values=[[58.395, 58.395, 58.395]], # std_values 表示预处理要除的标准化参数# 上面这两个参数在模型训练时就已经设置好了,在这里应与训练时的取值一至quantized_dtype='asymetric_quantized-8', # quantized_dtype 表示量化类型quantized_method='channel', # quantized_method 表示量化的方式quantized_algorithm='normal', # quantized_algorithm 表示量化的算法quant_img_RGB2BGR=False, # target_platform='rk3588', # target_platform 表示RKNN模型的运行平台float_dtype='float16', # float_dtype 表示RKNN模型中的默认浮点数类型optimization_level=3, # optimization_level 表示模型优化等级custom_string='this is my rknn model', # 添加自定义字符串信息到 RKNN 模型remove_weight=False, # remove_weight 表示生成一个去除权重信息的从模型compress_weight=False, # 压缩模型权重,可以减小RKNN模型的大小。默认为Falseinputs_yuv_fmt=False, # 表示RKNN模型输入数据的YUV格式single_core_mode=False # 表示构建的RKNN模型运行在单核心模式,只适用RK3588)# 第三步:# 最后一步:释放RKNN对象(不再使用RKNN时)rknn.release()

 

1.3 模型加载

1.3.1 概念介绍

      RKNN-Toolkit2 目前支持 Caffe、TensorFlow、TensorFlowLite、ONNX、DarkNet、PyTorch 等模型 的加载转换,这些模型在加载时需调用对应的接口,以下为这些接口的详细说明。

1.3.1.1 Caffe模型加载接口

1.3.1.2 TensorFlow模型加载接口


举例如下:

1.3.1.3 TensorFlowLite 模型加载接口

1.3.1.4 ONNX 模型加载接口

1.3.1.5 DarkNet模型加载接口 

1.3.1.6 PyTorch 模型加载接口 

 1.3.2 实际演示

我们以pytorch模型结构为例,将提前准备好的 resnet18.pt 文件复制粘贴到虚拟机虚拟系统中的项目文件夹中,如下所示:


第三步代码如下:

第三步代码添入后整体代码如下:
 

from rknn.api import RKNNif __name__ == '__main__':# 第一步:创建一个RKNN对象rknn = RKNN(verbose=True, verbose_file='log.txt')# 第二步:调用config接口配置要生成的RKNN模型rknn.config(mean_values=[[123.675, 116.28,103.53]], # mean_values 表示预处理要减去的均值化参数std_values=[[58.395, 58.395, 58.395]], # std_values 表示预处理要除的标准化参数# 上面这两个参数在模型训练时就已经设置好了,在这里应与训练时的取值一至quantized_dtype='asymetric_quantized-8', # quantized_dtype 表示量化类型quantized_method='channel', # quantized_method 表示量化的方式quantized_algorithm='normal', # quantized_algorithm 表示量化的算法quant_img_RGB2BGR=False, # target_platform='rk3588', # target_platform 表示RKNN模型的运行平台float_dtype='float16', # float_dtype 表示RKNN模型中的默认浮点数类型optimization_level=3, # optimization_level 表示模型优化等级custom_string='this is my rknn model', # 添加自定义字符串信息到 RKNN 模型remove_weight=False, # remove_weight 表示生成一个去除权重信息的从模型compress_weight=False, # 压缩模型权重,可以减小RKNN模型的大小。默认为Falseinputs_yuv_fmt=False, # 表示RKNN模型输入数据的YUV格式single_core_mode=False # 表示构建的RKNN模型运行在单核心模式,只适用RK3588)# 第三步:添加 load_xxx 接口进行常用深度学习模型的导入rknn.load_pytorch(model='./resnet18.pt', # model表示加载模型的地址input_size_list=[[1, 3, 224, 224]], # input_size_list 表示模型输入节点对应图片的尺寸和通道数)# 最后一步:释放RKNN对象(不再使用RKNN时)rknn.release()

1.4 构建RKNN模型

1.4.1 概念介绍 



举例如下:


1.4.2 实际演示 

第四步的代码如下:

 第四步代码添入后整体代码如下:

from rknn.api import RKNNif __name__ == '__main__':# 第一步:创建一个RKNN对象rknn = RKNN(verbose=True, verbose_file='log.txt')# 第二步:调用config接口配置要生成的RKNN模型rknn.config(mean_values=[[123.675, 116.28,103.53]], # mean_values 表示预处理要减去的均值化参数std_values=[[58.395, 58.395, 58.395]], # std_values 表示预处理要除的标准化参数# 上面这两个参数在模型训练时就已经设置好了,在这里应与训练时的取值一至quantized_dtype='asymetric_quantized-8', # quantized_dtype 表示量化类型quantized_method='channel', # quantized_method 表示量化的方式quantized_algorithm='normal', # quantized_algorithm 表示量化的算法quant_img_RGB2BGR=False, # target_platform='rk3588', # target_platform 表示RKNN模型的运行平台float_dtype='float16', # float_dtype 表示RKNN模型中的默认浮点数类型optimization_level=3, # optimization_level 表示模型优化等级custom_string='this is my rknn model', # 添加自定义字符串信息到 RKNN 模型remove_weight=False, # remove_weight 表示生成一个去除权重信息的从模型compress_weight=False, # 压缩模型权重,可以减小RKNN模型的大小。默认为Falseinputs_yuv_fmt=False, # 表示RKNN模型输入数据的YUV格式single_core_mode=False # 表示构建的RKNN模型运行在单核心模式,只适用RK3588)# 第三步:添加 load_xxx 接口进行常用深度学习模型的导入rknn.load_pytorch(model='./resnet18.pt', # model表示加载模型的地址input_size_list=[[1, 3, 224, 224]], # input_size_list 表示模型输入节点对应图片的尺寸和通道数)# 第四步:使用build接口来构建RKNN模型rknn.build(do_quantization=True, # do_quantization 表示是否对RKNN模型进行量化操作dataset='dataset.txt', # dataset 表示要量化的图片rknn_batch_size=-1, # 目前用不到)# 最后一步:释放RKNN对象(不再使用RKNN时)rknn.release()

1.5 导出RKNN模型

1.5.1 概念介绍 

通过本工具构建的 RKNN 模型通过该接口可以导出存储为 RKNN 模型文件,用于模型部署。 

1.5.2 实际演示 

 第五步代码如下所示:

 第五步代码添入后的整体代码如下所示:

from rknn.api import RKNNif __name__ == '__main__':# 第一步:创建一个RKNN对象rknn = RKNN(verbose=True, verbose_file='log.txt')# 第二步:调用config接口配置要生成的RKNN模型rknn.config(mean_values=[[123.675, 116.28,103.53]], # mean_values 表示预处理要减去的均值化参数std_values=[[58.395, 58.395, 58.395]], # std_values 表示预处理要除的标准化参数# 上面这两个参数在模型训练时就已经设置好了,在这里应与训练时的取值一至quantized_dtype='asymetric_quantized-8', # quantized_dtype 表示量化类型quantized_method='channel', # quantized_method 表示量化的方式quantized_algorithm='normal', # quantized_algorithm 表示量化的算法quant_img_RGB2BGR=False, # target_platform='rk3588', # target_platform 表示RKNN模型的运行平台float_dtype='float16', # float_dtype 表示RKNN模型中的默认浮点数类型optimization_level=3, # optimization_level 表示模型优化等级custom_string='this is my rknn model', # 添加自定义字符串信息到 RKNN 模型remove_weight=False, # remove_weight 表示生成一个去除权重信息的从模型compress_weight=False, # 压缩模型权重,可以减小RKNN模型的大小。默认为Falseinputs_yuv_fmt=False, # 表示RKNN模型输入数据的YUV格式single_core_mode=False # 表示构建的RKNN模型运行在单核心模式,只适用RK3588)# 第三步:添加 load_xxx 接口进行常用深度学习模型的导入rknn.load_pytorch(model='./resnet18.pt', # model表示加载模型的地址input_size_list=[[1, 3, 224, 224]], # input_size_list 表示模型输入节点对应图片的尺寸和通道数)# 第四步:使用build接口来构建RKNN模型rknn.build(do_quantization=True, # do_quantization 表示是否对RKNN模型进行量化操作dataset='dataset.txt', # dataset 表示要量化的图片rknn_batch_size=-1, # 目前用不到)# 第五步:调用export_rknn接口导出RKNN模型rknn.export_rknn(export_path='resnet18.rknn',# 表示导出的RKNN模型路径)# 最后一步:释放RKNN对象(不再使用RKNN时)rknn.release()

1.6 最终测试

经过了前面的步骤,我们现在可以通过运行代码来完成了RKNN模型的导出工作,运行代码,得到如下图所示:

至此,我们完成了RKNN模型的导出工作,接下来可进行模型评估工作了。

 

这篇关于RKNPU2从入门到实践 --- 【4】RKNN 模型构建【使用pycharm一步一步搭建RKNN模型】的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1114109

相关文章

gitlab安装及邮箱配置和常用使用方式

《gitlab安装及邮箱配置和常用使用方式》:本文主要介绍gitlab安装及邮箱配置和常用使用方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录1.安装GitLab2.配置GitLab邮件服务3.GitLab的账号注册邮箱验证及其分组4.gitlab分支和标签的

springboot项目中整合高德地图的实践

《springboot项目中整合高德地图的实践》:本文主要介绍springboot项目中整合高德地图的实践,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一:高德开放平台的使用二:创建数据库(我是用的是mysql)三:Springboot所需的依赖(根据你的需求再

SpringBoot3应用中集成和使用Spring Retry的实践记录

《SpringBoot3应用中集成和使用SpringRetry的实践记录》SpringRetry为SpringBoot3提供重试机制,支持注解和编程式两种方式,可配置重试策略与监听器,适用于临时性故... 目录1. 简介2. 环境准备3. 使用方式3.1 注解方式 基础使用自定义重试策略失败恢复机制注意事项

MySQL MCP 服务器安装配置最佳实践

《MySQLMCP服务器安装配置最佳实践》本文介绍MySQLMCP服务器的安装配置方法,本文结合实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下... 目录mysql MCP 服务器安装配置指南简介功能特点安装方法数据库配置使用MCP Inspector进行调试开发指

nginx启动命令和默认配置文件的使用

《nginx启动命令和默认配置文件的使用》:本文主要介绍nginx启动命令和默认配置文件的使用,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录常见命令nginx.conf配置文件location匹配规则图片服务器总结常见命令# 默认配置文件启动./nginx

在Windows上使用qemu安装ubuntu24.04服务器的详细指南

《在Windows上使用qemu安装ubuntu24.04服务器的详细指南》本文介绍了在Windows上使用QEMU安装Ubuntu24.04的全流程:安装QEMU、准备ISO镜像、创建虚拟磁盘、配置... 目录1. 安装QEMU环境2. 准备Ubuntu 24.04镜像3. 启动QEMU安装Ubuntu4

使用Python和OpenCV库实现实时颜色识别系统

《使用Python和OpenCV库实现实时颜色识别系统》:本文主要介绍使用Python和OpenCV库实现的实时颜色识别系统,这个系统能够通过摄像头捕捉视频流,并在视频中指定区域内识别主要颜色(红... 目录一、引言二、系统概述三、代码解析1. 导入库2. 颜色识别函数3. 主程序循环四、HSV色彩空间详解

SQLite3命令行工具最佳实践指南

《SQLite3命令行工具最佳实践指南》SQLite3是轻量级嵌入式数据库,无需服务器支持,具备ACID事务与跨平台特性,适用于小型项目和学习,sqlite3.exe作为命令行工具,支持SQL执行、数... 目录1. SQLite3简介和特点2. sqlite3.exe使用概述2.1 sqlite3.exe

Windows下C++使用SQLitede的操作过程

《Windows下C++使用SQLitede的操作过程》本文介绍了Windows下C++使用SQLite的安装配置、CppSQLite库封装优势、核心功能(如数据库连接、事务管理)、跨平台支持及性能优... 目录Windows下C++使用SQLite1、安装2、代码示例CppSQLite:C++轻松操作SQ

一文详解如何在idea中快速搭建一个Spring Boot项目

《一文详解如何在idea中快速搭建一个SpringBoot项目》IntelliJIDEA作为Java开发者的‌首选IDE‌,深度集成SpringBoot支持,可一键生成项目骨架、智能配置依赖,这篇文... 目录前言1、创建项目名称2、勾选需要的依赖3、在setting中检查maven4、编写数据源5、开启热