风格迁移2-05:MUNIT(多模态无监督)-源码无死角解析(1)-训练代码总览

本文主要是介绍风格迁移2-05:MUNIT(多模态无监督)-源码无死角解析(1)-训练代码总览,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

以下链接是个人关于 MUNIT(多模态无监督)-图片风格转换,的所有见解,如有错误欢迎大家指出,我会第一时间纠正。有兴趣的朋友可以加微信 17575010159 相互讨论技术。若是帮助到了你什么,一定要记得点赞!因为这是对我最大的鼓励。 文末附带 \color{blue}{文末附带} 文末附带 公众号 − \color{blue}{公众号 -} 公众号 海量资源。 \color{blue}{ 海量资源}。 海量资源

风格迁移2-00:MUNIT(多模态无监督)-目录-史上最新无死角讲解

配置文件

在对源码进行讲解之前,我们先来看一下配置文件configs/edges2shoes_folder.yaml,本人注解如下:

# 再训练迭代的期间,保存图像的频率
image_save_iter: 10000        # How often do you want to save output images during training
# 再训练迭代的期间,显示图片的的频率
image_display_iter: 500       # How often do you want to display output images during training
# 单次显示图片的张数
display_size: 16              # How many images do you want to display each time
# 迭代到指定次数,保存一次模型
snapshot_save_iter: 10000     # How often do you want to save trained models
# log打印保存的频率
log_iter: 10                  # How often do you want to log the training stats# optimization options
# 最大的迭代次数
max_iter: 1000000             # maximum number of training iterations
# 每个批次的大小
batch_size: 1                 # batch size
# 权重衰减
weight_decay: 0.0001          # weight decay
# 优化器相关参数
beta1: 0.5                    # Adam parameter
beta2: 0.999                  # Adam parameter
# 初始化的方式
init: kaiming                 # initialization [gaussian/kaiming/xavier/orthogonal]
# 学习率
lr: 0.0001                    # initial learning rate
# 学习率衰减测率
lr_policy: step               # learning rate scheduler
# 学习率
step_size: 100000             # how often to decay learning rate
# 学习率衰减参数
gamma: 0.5                    # how much to decay learning rate
# 计算生成网络loss的权重大小
gan_w: 1                      # weight of adversarial loss
# 重构图片loos的权重
recon_x_w: 10                 # weight of image reconstruction loss
# 重构图片风格loos的权重
recon_s_w: shu1                  # weight of style reconstruction loss
# 重构图片内容loos的权重
recon_c_w: 1                  # weight of content reconstruction lossrecon_x_cyc_w: 0              # weight of explicit style augmented cycle consistency loss
# 域不变感知损失的权重
vgg_w: 0                      # weight of domain-invariant perceptual loss# model options
gen:# 最深卷积层输出特征的维度dim: 64                     # number of filters in the bottommost layer# 全连接层的filtersmlp_dim: 256                # number of filters in MLP# 风格特征的filtersstyle_dim: 8                # length of style code# 激活函数类型activ: relu                 # activation function [relu/lrelu/prelu/selu/tanh]# 内容编码器下采样的层数n_downsample: 2             # number of downsampling layers in content encoder# 内容编码器中使用残差模块的数目n_res: 4                    # number of residual blocks in content encoder/decoder# pad填补的方式pad_type: reflect           # padding type [zero/reflect]dis:# 最深卷积层输出特征的维度dim: 64                     # number of filters in the bottommost layer# 正则化的方式norm: none                  # normalization layer [none/bn/in/ln]# 激活函数类型activ: lrelu                # activation function [relu/lrelu/prelu/selu/tanh]# 鉴别模型的层数n_layer: 4                  # number of layers in D# 计算 GAN loss的方式gan_type: lsgan             # GAN loss [lsgan/nsgan]# 缩放的数目(暂时不知道是什么)num_scales: 3               # number of scales# pad填补的方式pad_type: reflect           # padding type [zero/reflect]# data options
input_dim_a: 3                              # number of image channels [1/3]
input_dim_b: 3                              # number of image channels [1/3]
num_workers: 8                              # number of data loading threads
# 重新调整图片的大小
new_size: 256                               # first resize the shortest image side to this size
# 随机裁剪图片的高宽
crop_image_height: 256                      # random crop image of this height
crop_image_width: 256                       # random crop image of this width
#data_root: ./datasets/edges2shoes/     # dataset folder location
# 数据集的根目录
data_root: ../2.Dataset/edges2shoes        # dataset folder location

train.py代码注释

"""
Copyright (C) 2018 NVIDIA Corporation.  All rights reserved.
Licensed under the CC BY-NC-SA 4.0 license (https://creativecommons.org/licenses/by-nc-sa/4.0/legalcode).
"""
from utils import get_all_data_loaders, prepare_sub_folder, write_html, write_loss, get_config, write_2images, Timer
import argparse
from torch.autograd import Variable
from trainer import MUNIT_Trainer, UNIT_Trainer
import torch.backends.cudnn as cudnn
import torch
try:from itertools import izip as zip
except ImportError: # will be 3.x seriespass
import os
import sys
import tensorboardX
import shutil
if __name__ == '__main__':parser = argparse.ArgumentParser()parser.add_argument('--config', type=str, default='configs/edges2shoes_folder.yaml', help='Path to the config file.')parser.add_argument('--output_path', type=str, default='.', help="outputs path")parser.add_argument("--resume", action="store_true")parser.add_argument('--trainer', type=str, default='MUNIT', help="MUNIT|UNIT")opts = parser.parse_args()cudnn.benchmark = True# Load experiment setting,获取环境配置config = get_config(opts.config)# 最大的迭代次数max_iter = config['max_iter']# 显示图片大小display_size = config['display_size']# vgg模型的路径config['vgg_model_path'] = opts.output_path# Setup model and data loader, 根据配置创建模型if opts.trainer == 'MUNIT':trainer = MUNIT_Trainer(config)elif opts.trainer == 'UNIT':trainer = UNIT_Trainer(config)else:sys.exit("Only support MUNIT|UNIT")trainer.cuda()# 创建训练以及测试得数据迭代器,同时取出对每个迭代器取出display_size张图片,水平拼接到一起,# 后续会一直拿这些图片作为生成图片的演示,当作一个标本即可train_loader_a, train_loader_b, test_loader_a, test_loader_b = get_all_data_loaders(config)train_display_images_a = torch.stack([train_loader_a.dataset[i] for i in range(display_size)]).cuda()train_display_images_b = torch.stack([train_loader_b.dataset[i] for i in range(display_size)]).cuda()test_display_images_a = torch.stack([test_loader_a.dataset[i] for i in range(display_size)]).cuda()test_display_images_b = torch.stack([test_loader_b.dataset[i] for i in range(display_size)]).cuda()# Setup logger and output folders, 设置打印信息以及输出目录# 获得模型的名字model_name = os.path.splitext(os.path.basename(opts.config))[0]# 创建一个 tensorboardX,记录训练过程中的信息train_writer = tensorboardX.SummaryWriter(os.path.join(opts.output_path + "/logs", model_name))# 准备并且创建好输出目录,同时拷贝对应的config.yaml文件output_directory = os.path.join(opts.output_path + "/outputs", model_name)checkpoint_directory, image_directory = prepare_sub_folder(output_directory)shutil.copy(opts.config, os.path.join(output_directory, 'config.yaml')) # copy config file to output folder# Start training,开始训练模型,如果设置opts.resume=Ture,表示接着之前得训练iterations = trainer.resume(checkpoint_directory, hyperparameters=config) if opts.resume else 0while True:# 获取训练数据for it, (images_a, images_b) in enumerate(zip(train_loader_a, train_loader_b)):# 更新学习率,trainer.update_learning_rate()# 指定数据存储计算的设备images_a, images_b = images_a.cuda().detach(), images_b.cuda().detach()with Timer("Elapsed time in update: %f"):# Main training code,主要的训练代码trainer.dis_update(images_a, images_b, config)trainer.gen_update(images_a, images_b, config)torch.cuda.synchronize()# Dump training stats in log file,记录训练过程中的信息if (iterations + 1) % config['log_iter'] == 0:print("Iteration: %08d/%08d" % (iterations + 1, max_iter))write_loss(iterations, trainer, train_writer)# Write images,到达指定次数后,把生成的样本图片写入到输出文件夹,方便观察生成效果,重新保存if (iterations + 1) % config['image_save_iter'] == 0:with torch.no_grad():test_image_outputs = trainer.sample(test_display_images_a, test_display_images_b)train_image_outputs = trainer.sample(train_display_images_a, train_display_images_b)write_2images(test_image_outputs, display_size, image_directory, 'test_%08d' % (iterations + 1))write_2images(train_image_outputs, display_size, image_directory, 'train_%08d' % (iterations + 1))# HTMLwrite_html(output_directory + "/index.html", iterations + 1, config['image_save_iter'], 'images')# Write images,到达指定次数后,把生成的样本图片写入到输出文件夹,方便观察生成效果,覆盖上一次结果if (iterations + 1) % config['image_display_iter'] == 0:with torch.no_grad():image_outputs = trainer.sample(train_display_images_a, train_display_images_b)write_2images(image_outputs, display_size, image_directory, 'train_current')# Save network weights, 保存训练的模型if (iterations + 1) % config['snapshot_save_iter'] == 0:trainer.save(checkpoint_directory, iterations)# 如果超过最大迭代次数,则退出训练iterations += 1if iterations >= max_iter:sys.exit('Finish training')

还是特别简单,基本都是这个套路:
1.加载训练测试数据集迭代器
2.构建网络模型
3.迭代训练
4.模型评估保存
好了,总体的结构就简单的介绍到这里,下小结为大家开始讲解代码的每一个细节。

在这里插入图片描述

这篇关于风格迁移2-05:MUNIT(多模态无监督)-源码无死角解析(1)-训练代码总览的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/289768

相关文章

Django开发时如何避免频繁发送短信验证码(python图文代码)

《Django开发时如何避免频繁发送短信验证码(python图文代码)》Django开发时,为防止频繁发送验证码,后端需用Redis限制请求频率,结合管道技术提升效率,通过生产者消费者模式解耦业务逻辑... 目录避免频繁发送 验证码1. www.chinasem.cn避免频繁发送 验证码逻辑分析2. 避免频繁

精选20个好玩又实用的的Python实战项目(有图文代码)

《精选20个好玩又实用的的Python实战项目(有图文代码)》文章介绍了20个实用Python项目,涵盖游戏开发、工具应用、图像处理、机器学习等,使用Tkinter、PIL、OpenCV、Kivy等库... 目录① 猜字游戏② 闹钟③ 骰子模拟器④ 二维码⑤ 语言检测⑥ 加密和解密⑦ URL缩短⑧ 音乐播放

Python使用Tenacity一行代码实现自动重试详解

《Python使用Tenacity一行代码实现自动重试详解》tenacity是一个专为Python设计的通用重试库,它的核心理念就是用简单、清晰的方式,为任何可能失败的操作添加重试能力,下面我们就来看... 目录一切始于一个简单的 API 调用Tenacity 入门:一行代码实现优雅重试精细控制:让重试按我

深度解析Spring Security 中的 SecurityFilterChain核心功能

《深度解析SpringSecurity中的SecurityFilterChain核心功能》SecurityFilterChain通过组件化配置、类型安全路径匹配、多链协同三大特性,重构了Spri... 目录Spring Security 中的SecurityFilterChain深度解析一、Security

全面解析Golang 中的 Gorilla CORS 中间件正确用法

《全面解析Golang中的GorillaCORS中间件正确用法》Golang中使用gorilla/mux路由器配合rs/cors中间件库可以优雅地解决这个问题,然而,很多人刚开始使用时会遇到配... 目录如何让 golang 中的 Gorilla CORS 中间件正确工作一、基础依赖二、错误用法(很多人一开

Mysql中设计数据表的过程解析

《Mysql中设计数据表的过程解析》数据库约束通过NOTNULL、UNIQUE、DEFAULT、主键和外键等规则保障数据完整性,自动校验数据,减少人工错误,提升数据一致性和业务逻辑严谨性,本文介绍My... 目录1.引言2.NOT NULL——制定某列不可以存储NULL值2.UNIQUE——保证某一列的每一

深度解析Nginx日志分析与499状态码问题解决

《深度解析Nginx日志分析与499状态码问题解决》在Web服务器运维和性能优化过程中,Nginx日志是排查问题的重要依据,本文将围绕Nginx日志分析、499状态码的成因、排查方法及解决方案展开讨论... 目录前言1. Nginx日志基础1.1 Nginx日志存放位置1.2 Nginx日志格式2. 499

MySQL CTE (Common Table Expressions)示例全解析

《MySQLCTE(CommonTableExpressions)示例全解析》MySQL8.0引入CTE,支持递归查询,可创建临时命名结果集,提升复杂查询的可读性与维护性,适用于层次结构数据处... 目录基本语法CTE 主要特点非递归 CTE简单 CTE 示例多 CTE 示例递归 CTE基本递归 CTE 结

Spring Boot 3.x 中 WebClient 示例详解析

《SpringBoot3.x中WebClient示例详解析》SpringBoot3.x中WebClient是响应式HTTP客户端,替代RestTemplate,支持异步非阻塞请求,涵盖GET... 目录Spring Boot 3.x 中 WebClient 全面详解及示例1. WebClient 简介2.

在MySQL中实现冷热数据分离的方法及使用场景底层原理解析

《在MySQL中实现冷热数据分离的方法及使用场景底层原理解析》MySQL冷热数据分离通过分表/分区策略、数据归档和索引优化,将频繁访问的热数据与冷数据分开存储,提升查询效率并降低存储成本,适用于高并发... 目录实现冷热数据分离1. 分表策略2. 使用分区表3. 数据归档与迁移在mysql中实现冷热数据分