CycleGan总结及简易复现

2024-01-28 07:08
文章标签 总结 复现 简易 cyclegan

本文主要是介绍CycleGan总结及简易复现,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

CycleGan总结及代码简易复现

    • 简介
    • 拓展: 回归损失函数的对比:L1 loss, L2 loss(MSE)以及Smooth L1 Loss的对比
    • CycleGan网络结构

CycleGan论文地址: https://arxiv.org/abs/1703.10593

简介

2017年以前的GAN都是通过配对好的一组图片去训练模型的,但是想要获得大量的成对图片比较难,而CycleGan是无监督生成对抗网络,其实是做的是一个domain adaption的工作,可以通过一些不配对的两组图片利用生成器-判别器模型和计算它的循环损失实现领域的自适应。即把原始图像(如马)导入生成器G1(马→斑马)生成目标图像(斑马),再把目标图像当作F(斑马→马)的输入,计算生成新的图像(马~)与最初的原始图像(马)的差别,即损失,让该损失尽可能地小即能确保生成器不会生成与原始图像无关的图片。如下图所示:
在这里插入图片描述
所以总的损失函数就是L = 两个生成器的损失(G1_loss + F_loss)+两个循环损失(cycle1_loss + cycle2_loss)+ 两个identity损失(即往G1输入斑马的图片,计算生成后的斑马图片与输入的真实斑马图片的差距,同理往F输入马的图片,且此项有时可以省去来提高计算效率)
生成器的损失用MSE,循环损失与identity损失用L1函数。

拓展: 回归损失函数的对比:L1 loss, L2 loss(MSE)以及Smooth L1 Loss的对比

L1 loss函数:指的是模型预测值f(x)和真实值y之间距离的均值,公式为:在这里插入图片描述
图像:在这里插入图片描述
由图像可知:
①当损失很小时,其梯度比较大,不利于模型的训练和收敛
②无论对于什么样的输入值,其梯度都是固定的,所以不会产生梯度爆炸的问题,也就是对偏离真实样本的比较大的值不怎么敏感,有利于模型的稳定。
③在y-f(x)= 0 处不可导,可能影响收敛

L2 loss函数:模型预测值f(x) 与真实样本值y 之间差值平方的均值。
公式:在这里插入图片描述
图像:在这里插入图片描述
由图可知:
①函数在所有输入范围内都是连续的
②随着损失的减小,梯度也在减小,这有利于模型的快速收敛
③对离群点比较敏感,受其影响比较大

Smooth L1 loss函数:
在Faster-Rcnn和SSD中都用到了该函数。
公式:

x为真实值与预测值的差值

图像:在这里插入图片描述
可以看出Smooth loss函数为前两者的结合,取其精华去其糟粕。

Smooth L1的优点;
①相比于L1损失函数,可以收敛得更快。
②相比于L2损失函数,对离群点、异常值不敏感,梯度变化相对更小,训练时不容易跑飞。

CycleGan网络结构

在这里插入图片描述
生成器的网络可简化为:

一个卷积块
两个下采样块
九个残差模块
2个上采样模块
一个卷积块(output_channel = 3)
经过tanh模块(将特征图的值归为-1至1之间)

代码如下:

import torch
import torch.nn as nnclass ConvBlock(nn.Module):def __init__(self, in_channels, out_channels, down=True, use_act=True, **kwargs):super().__init__()self.conv = nn.Sequential(nn.Conv2d(in_channels, out_channels, padding_mode="reflect", **kwargs)if downelse nn.ConvTranspose2d(in_channels, out_channels, **kwargs),nn.InstanceNorm2d(out_channels),nn.ReLU(inplace=True) if use_act else nn.Identity())def forward(self, x):return self.conv(x)class ResidualBlock(nn.Module):def __init__(self, channels):super().__init__()self.block = nn.Sequential(ConvBlock(channels, channels, kernel_size=3, padding=1),ConvBlock(channels, channels, use_act=False, kernel_size=3, padding=1),)def forward(self, x):return x + self.block(x)class Generator(nn.Module):def __init__(self, img_channels, num_features = 64, num_residuals=9):super().__init__()self.initial = nn.Sequential(nn.Conv2d(img_channels, num_features, kernel_size=7, stride=1, padding=3, padding_mode="reflect"),nn.InstanceNorm2d(num_features),nn.ReLU(inplace=True),)self.down_blocks = nn.ModuleList([ConvBlock(num_features, num_features*2, kernel_size=3, stride=2, padding=1),ConvBlock(num_features*2, num_features*4, kernel_size=3, stride=2, padding=1),])self.res_blocks = nn.Sequential(*[ResidualBlock(num_features*4) for _ in range(num_residuals)])self.up_blocks = nn.ModuleList([ConvBlock(num_features*4, num_features*2, down=False, kernel_size=3, stride=2, padding=1, output_padding=1),ConvBlock(num_features*2, num_features*1, down=False, kernel_size=3, stride=2, padding=1, output_padding=1),])self.last = nn.Conv2d(num_features*1, img_channels, kernel_size=7, stride=1, padding=3, padding_mode="reflect")def forward(self, x):x = self.initial(x)for layer in self.down_blocks:x = layer(x)x = self.res_blocks(x)for layer in self.up_blocks:x = layer(x)return torch.tanh(self.last(x))

判别器的网络
同理可得:总共5层卷积层,目标是生成特征图里面的值为0-1之间,方便待会跟生成器网络生成的图进行损失计算。代码如下:

import torch
import torch.nn as nnclass Block(nn.Module):def __init__(self, in_channels, out_channels, stride):super().__init__()self.conv = nn.Sequential(nn.Conv2d(in_channels, out_channels, 4, stride, 1, bias=True, padding_mode="reflect"),nn.InstanceNorm2d(out_channels),nn.LeakyReLU(0.2, inplace=True),)def forward(self, x):return self.conv(x)class Discriminator(nn.Module):def __init__(self, in_channels=3, features=[64, 128, 256, 512]):super().__init__()self.initial = nn.Sequential(nn.Conv2d(in_channels,features[0],kernel_size=4,stride=2,padding=1,padding_mode="reflect",),nn.LeakyReLU(0.2, inplace=True),)layers = []in_channels = features[0]for feature in features[1:]:layers.append(Block(in_channels, feature, stride=1 if feature==features[-1] else 2))in_channels = featurelayers.append(nn.Conv2d(in_channels, 1, kernel_size=4, stride=1, padding=1, padding_mode="reflect"))self.model = nn.Sequential(*layers)def forward(self, x):x = self.initial(x)return torch.sigmoid(self.model(x))

训练模块和载入数据集的模块可以仿照原论文进行编写。

这篇关于CycleGan总结及简易复现的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/652863

相关文章

SQL中JOIN操作的条件使用总结与实践

《SQL中JOIN操作的条件使用总结与实践》在SQL查询中,JOIN操作是多表关联的核心工具,本文将从原理,场景和最佳实践三个方面总结JOIN条件的使用规则,希望可以帮助开发者精准控制查询逻辑... 目录一、ON与WHERE的本质区别二、场景化条件使用规则三、最佳实践建议1.优先使用ON条件2.WHERE用

Nginx Location映射规则总结归纳与最佳实践

《NginxLocation映射规则总结归纳与最佳实践》Nginx的location指令是配置请求路由的核心机制,其匹配规则直接影响请求的处理流程,下面给大家介绍NginxLocation映射规则... 目录一、Location匹配规则与优先级1. 匹配模式2. 优先级顺序3. 匹配示例二、Proxy_pa

Android学习总结之Java和kotlin区别超详细分析

《Android学习总结之Java和kotlin区别超详细分析》Java和Kotlin都是用于Android开发的编程语言,它们各自具有独特的特点和优势,:本文主要介绍Android学习总结之Ja... 目录一、空安全机制真题 1:Kotlin 如何解决 Java 的 NullPointerExceptio

MySQL基本查询示例总结

《MySQL基本查询示例总结》:本文主要介绍MySQL基本查询示例总结,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下吧... 目录Create插入替换Retrieve(读取)select(确定列)where条件(确定行)null查询order by语句li

Linux区分SSD和机械硬盘的方法总结

《Linux区分SSD和机械硬盘的方法总结》在Linux系统管理中,了解存储设备的类型和特性是至关重要的,不同的存储介质(如固态硬盘SSD和机械硬盘HDD)在性能、可靠性和适用场景上有着显著差异,本文... 目录一、lsblk 命令简介基本用法二、识别磁盘类型的关键参数:ROTA查询 ROTA 参数ROTA

Qt实现网络数据解析的方法总结

《Qt实现网络数据解析的方法总结》在Qt中解析网络数据通常涉及接收原始字节流,并将其转换为有意义的应用层数据,这篇文章为大家介绍了详细步骤和示例,感兴趣的小伙伴可以了解下... 目录1. 网络数据接收2. 缓冲区管理(处理粘包/拆包)3. 常见数据格式解析3.1 jsON解析3.2 XML解析3.3 自定义

Python实现图片分割的多种方法总结

《Python实现图片分割的多种方法总结》图片分割是图像处理中的一个重要任务,它的目标是将图像划分为多个区域或者对象,本文为大家整理了一些常用的分割方法,大家可以根据需求自行选择... 目录1. 基于传统图像处理的分割方法(1) 使用固定阈值分割图片(2) 自适应阈值分割(3) 使用图像边缘检测分割(4)

Windows Docker端口占用错误及解决方案总结

《WindowsDocker端口占用错误及解决方案总结》在Windows环境下使用Docker容器时,端口占用错误是开发和运维中常见且棘手的问题,本文将深入剖析该问题的成因,介绍如何通过查看端口分配... 目录引言Windows docker 端口占用错误及解决方案汇总端口冲突形成原因解析诊断当前端口情况解

java常见报错及解决方案总结

《java常见报错及解决方案总结》:本文主要介绍Java编程中常见错误类型及示例,包括语法错误、空指针异常、数组下标越界、类型转换异常、文件未找到异常、除以零异常、非法线程操作异常、方法未定义异常... 目录1. 语法错误 (Syntax Errors)示例 1:解决方案:2. 空指针异常 (NullPoi

Java反转字符串的五种方法总结

《Java反转字符串的五种方法总结》:本文主要介绍五种在Java中反转字符串的方法,包括使用StringBuilder的reverse()方法、字符数组、自定义StringBuilder方法、直接... 目录前言方法一:使用StringBuilder的reverse()方法方法二:使用字符数组方法三:使用自