Matconvnet关于simplenn 转dagnn的一些小的总结

2024-01-12 11:08

本文主要是介绍Matconvnet关于simplenn 转dagnn的一些小的总结,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

simplenn就是很简单的链式cnn 它里面的一些变量,输入输出都没有名字!
dagnn是一个复杂的CNN,通过dagnn.DagNN.fromSimpleNN可以将simplenn转换为Dagnn。

switch lower(opts.networkType) % 选择网络结构case 'simplenn'% donecase 'dagnn'net = dagnn.DagNN.fromSimpleNN(net, 'canonicalNames', true);net.addLayer('top1err', dagnn.loss('loss', 'classerror'), ...{'prediction', 'label'}, 'error');net.addLayer('top5err', dagnn.loss('loss', 'topkerror', ...'opts', {'topk', 5}), {'prediction', 'label'}, 'top5error');otherwiseassert(false);
end

 这里的net = dagnn.DagNN.fromSimpleNN(net, 'canonicalNames', true)作用其实就是为了方便Dagnn训练改了一些输入输出的名字:

case {'softmaxloss'}block = loss('loss', 'softmaxlog');% The loss has two inputsinput{2} = getNewVarName(obj, 'label');
if opts.canonicalNamesfor l =1:numel(obj.layers)if l==1obj.renameVar(obj.layers(l).inputs{l}, 'input');endif isa(obj.layers(l).block, 'dagnn.softMax') % 如果是softmax就把这一层输入的名字改为prediction,输出的名字改为probobj.renameVar(obj.layers(l).outputs{l}, getNewVarName(obj, 'prob'));obj.renameVar(obj.layers(l).inputs{l}, getNewVarName(obj, 'prediction'))endif isa(obj.layers(l).block, 'dagnn.Loss') % 如果是Loss就把输出的名字改成objection就告诉那个dag_train这层是loss function层,从这里开始往回传梯度obj.renameVar(obj.layers(l).outputs{l}, 'objective');if isempty(regexp(obj.layers().input{l}, '^prob.*'))obj.renameVar(obj.layers(l).input{l}, ...getNewVarName(obj, 'prediction'))endendend
end

为什么要改名字,就是为了方便训练在cnn_train_dag可以看到这么一行代码:

opts.derOutputs = {'objective', 1};

改成叫objective才能知道这一层是loss function从这一层开始反传梯度

具体看一下区别:

可以看到net_dag.layer中的名字都是这样的

 然后如果利用

net = dagnn.DagNN.fromSimpleNN(net, 'canonicalNames', true) ;
可以看到名字换了

 

在这一层之后可以添加一些层 什么error了 error_5了这些层的参数是不调整的,不参与训练 只是用来输出一个错误率而已

然后呢 之所以要把他的输入叫做prediction 其实是为了test的时候好做

net.eval({'input', im_});
scores = net.vars(net.getVarIndex('prediction')).value;
scores = squeeze(gather(scores));[bestscore, best] = max(scores);
figure(1); clf; imagesc(im);
title(sprintf('%s (%d), score %.3f', net.meta.classes.description{best}, best, bestscore));

完结啦

这篇关于Matconvnet关于simplenn 转dagnn的一些小的总结的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/597667

相关文章

JavaSE正则表达式用法总结大全

《JavaSE正则表达式用法总结大全》正则表达式就是由一些特定的字符组成,代表的是一个规则,:本文主要介绍JavaSE正则表达式用法的相关资料,文中通过代码介绍的非常详细,需要的朋友可以参考下... 目录常用的正则表达式匹配符正则表China编程达式常用的类Pattern类Matcher类PatternSynta

SQL中JOIN操作的条件使用总结与实践

《SQL中JOIN操作的条件使用总结与实践》在SQL查询中,JOIN操作是多表关联的核心工具,本文将从原理,场景和最佳实践三个方面总结JOIN条件的使用规则,希望可以帮助开发者精准控制查询逻辑... 目录一、ON与WHERE的本质区别二、场景化条件使用规则三、最佳实践建议1.优先使用ON条件2.WHERE用

Nginx Location映射规则总结归纳与最佳实践

《NginxLocation映射规则总结归纳与最佳实践》Nginx的location指令是配置请求路由的核心机制,其匹配规则直接影响请求的处理流程,下面给大家介绍NginxLocation映射规则... 目录一、Location匹配规则与优先级1. 匹配模式2. 优先级顺序3. 匹配示例二、Proxy_pa

Android学习总结之Java和kotlin区别超详细分析

《Android学习总结之Java和kotlin区别超详细分析》Java和Kotlin都是用于Android开发的编程语言,它们各自具有独特的特点和优势,:本文主要介绍Android学习总结之Ja... 目录一、空安全机制真题 1:Kotlin 如何解决 Java 的 NullPointerExceptio

MySQL基本查询示例总结

《MySQL基本查询示例总结》:本文主要介绍MySQL基本查询示例总结,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下吧... 目录Create插入替换Retrieve(读取)select(确定列)where条件(确定行)null查询order by语句li

Linux区分SSD和机械硬盘的方法总结

《Linux区分SSD和机械硬盘的方法总结》在Linux系统管理中,了解存储设备的类型和特性是至关重要的,不同的存储介质(如固态硬盘SSD和机械硬盘HDD)在性能、可靠性和适用场景上有着显著差异,本文... 目录一、lsblk 命令简介基本用法二、识别磁盘类型的关键参数:ROTA查询 ROTA 参数ROTA

Qt实现网络数据解析的方法总结

《Qt实现网络数据解析的方法总结》在Qt中解析网络数据通常涉及接收原始字节流,并将其转换为有意义的应用层数据,这篇文章为大家介绍了详细步骤和示例,感兴趣的小伙伴可以了解下... 目录1. 网络数据接收2. 缓冲区管理(处理粘包/拆包)3. 常见数据格式解析3.1 jsON解析3.2 XML解析3.3 自定义

Python实现图片分割的多种方法总结

《Python实现图片分割的多种方法总结》图片分割是图像处理中的一个重要任务,它的目标是将图像划分为多个区域或者对象,本文为大家整理了一些常用的分割方法,大家可以根据需求自行选择... 目录1. 基于传统图像处理的分割方法(1) 使用固定阈值分割图片(2) 自适应阈值分割(3) 使用图像边缘检测分割(4)

Windows Docker端口占用错误及解决方案总结

《WindowsDocker端口占用错误及解决方案总结》在Windows环境下使用Docker容器时,端口占用错误是开发和运维中常见且棘手的问题,本文将深入剖析该问题的成因,介绍如何通过查看端口分配... 目录引言Windows docker 端口占用错误及解决方案汇总端口冲突形成原因解析诊断当前端口情况解

java常见报错及解决方案总结

《java常见报错及解决方案总结》:本文主要介绍Java编程中常见错误类型及示例,包括语法错误、空指针异常、数组下标越界、类型转换异常、文件未找到异常、除以零异常、非法线程操作异常、方法未定义异常... 目录1. 语法错误 (Syntax Errors)示例 1:解决方案:2. 空指针异常 (NullPoi