guided-pix2pix 代码略解

2024-03-06 20:38
文章标签 代码 guided 略解 pix2pix

本文主要是介绍guided-pix2pix 代码略解,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

《Guided Image-to-Image Translation with Bi-Directional Feature Transformation》

train.py

            model.set_input(data)model.optimize_parameters()

开始训练

models/guided_pix2pix_model.py

    def set_input(self, input):self.real_A = input['A'].to(self.device)self.real_B = input['B'].to(self.device)self.guide = input['guide'].to(self.device)

这里的guide是指的是引导的image/pose,real_A指的是作为输入的image,real_B指的是GT

    def forward(self):self.fake_B = self.netG(self.real_A, self.guide)
# load/define networks
self.netG = networks.define_G(input_nc=opt.input_nc, guide_nc=opt.guide_nc, output_nc=opt.output_nc, ngf=opt.ngf, netG=opt.netG, n_layers=opt.n_layers, norm=opt.norm, init_type=opt.init_type, init_gain=opt.init_gain, gpu_ids=self.gpu_ids)

models/networks.py

def define_G(input_nc, guide_nc, output_nc, ngf, netG, n_layers=8, n_downsampling=3, n_blocks=9, norm='batch', init_type='normal', init_gain=0.02, gpu_ids=[]):net = Nonenorm_layer = get_norm_layer(norm_type=norm)if netG == 'bFT_resnet':net = bFT_Resnet(input_nc, guide_nc, output_nc, ngf, norm_layer=norm_layer, n_blocks=n_blocks)elif netG == 'bFT_unet':net = bFT_Unet(input_nc, guide_nc, output_nc, n_layers, ngf, norm_layer=norm_layer)else:raise NotImplementedError('Generator model name [%s] is not recognized' % netG)net = init_net(net, init_type, init_gain, gpu_ids)return net

看一下bFT_resent

class bFT_Resnet(nn.Module):def __init__(self, input_nc, guide_nc, output_nc, ngf=64, n_blocks=9, norm_layer=nn.BatchNorm2d,padding_type='reflect', bottleneck_depth=100):super(bFT_Resnet, self).__init__()self.activation = nn.ReLU(True)n_downsampling=3## inputpadding_in = [nn.ReflectionPad2d(3), nn.Conv2d(input_nc, ngf, kernel_size=7, padding=0)]self.padding_in = nn.Sequential(*padding_in)self.conv1 = nn.Conv2d(ngf, ngf * 2, kernel_size=3, stride=2, padding=1)self.conv2 = nn.Conv2d(ngf * 2, ngf * 4, kernel_size=3, stride=2, padding=1)self.conv3 = nn.Conv2d(ngf * 4, ngf * 8, kernel_size=3, stride=2, padding=1)## guidepadding_g = [nn.ReflectionPad2d(3), nn.Conv2d(guide_nc, ngf, kernel_size=7, padding=0)]self.padding_g = nn.Sequential(*padding_g)self.conv1_g = nn.Conv2d(ngf, ngf * 2, kernel_size=3, stride=2, padding=1)self.conv2_g = nn.Conv2d(ngf * 2, ngf * 4, kernel_size=3, stride=2, padding=1)self.conv3_g = nn.Conv2d(ngf * 4, ngf * 8, kernel_size=3, stride=2, padding=1)# bottleneck1self.bottleneck_alpha_1 = self.bottleneck_layer(ngf, bottleneck_depth)self.G_bottleneck_alpha_1 = self.bottleneck_layer(ngf, bottleneck_depth)self.bottleneck_beta_1 = self.bottleneck_layer(ngf, bottleneck_depth)self.G_bottleneck_beta_1 = self.bottleneck_layer(ngf, bottleneck_depth)# bottleneck2self.bottleneck_alpha_2 = self.bottleneck_layer(ngf*2, bottleneck_depth)self.G_bottleneck_alpha_2 = self.bottleneck_layer(ngf*2, bottleneck_depth)self.bottleneck_beta_2 = self.bottleneck_layer(ngf*2, bottleneck_depth)self.G_bottleneck_beta_2 = self.bottleneck_layer(ngf*2, bottleneck_depth)# bottleneck3self.bottleneck_alpha_3 = self.bottleneck_layer(ngf*4, bottleneck_depth)self.G_bottleneck_alpha_3 = self.bottleneck_layer(ngf*4, bottleneck_depth)self.bottleneck_beta_3 = self.bottleneck_layer(ngf*4, bottleneck_depth)self.G_bottleneck_beta_3 = self.bottleneck_layer(ngf*4, bottleneck_depth)# bottleneck4self.bottleneck_alpha_4 = self.bottleneck_layer(ngf*8, bottleneck_depth)self.G_bottleneck_alpha_4 = self.bottleneck_layer(ngf*8, bottleneck_depth)self.bottleneck_beta_4 = self.bottleneck_layer(ngf*8, bottleneck_depth)self.G_bottleneck_beta_4 = self.bottleneck_layer(ngf*8, bottleneck_depth)### 这些bottlenect_layer都是由1x1的卷积,激活层,1x1的卷积组成的,做从nc->nc的映射resnet = []mult = 2**n_downsamplingfor i in range(n_blocks):resnet += [ResnetBlock(ngf * mult, padding_type=padding_type, activation=self.activation, norm_layer=norm_layer)]self.resnet = nn.Sequential(*resnet)decoder = []for i in range(n_downsampling):mult = 2**(n_downsampling - i)decoder += [nn.ConvTranspose2d(ngf * mult, int(ngf * mult / 2), kernel_size=3, stride=2, padding=1, output_padding=1),norm_layer(int(ngf * mult / 2)), self.activation]self.pre_decoder = nn.Sequential(*decoder)self.decoder = nn.Sequential(*[nn.ReflectionPad2d(3), nn.Conv2d(ngf, output_nc, kernel_size=7, padding=0), nn.Tanh()])def bottleneck_layer(self, nc, bottleneck_depth):return nn.Sequential(*[nn.Conv2d(nc, bottleneck_depth, kernel_size=1), self.activation, nn.Conv2d(bottleneck_depth, nc, kernel_size=1)])def get_FiLM_param_(self, X, i, guide=False):x = X.clone()# bottleneckif guide:if (i==1):alpha_layer = self.G_bottleneck_alpha_1beta_layer = self.G_bottleneck_beta_1elif (i==2):alpha_layer = self.G_bottleneck_alpha_2beta_layer = self.G_bottleneck_beta_2elif (i==3):alpha_layer = self.G_bottleneck_alpha_3beta_layer = self.G_bottleneck_beta_3elif (i==4):alpha_layer = self.G_bottleneck_alpha_4beta_layer = self.G_bottleneck_beta_4else:if (i==1):alpha_layer = self.bottleneck_alpha_1beta_layer = self.bottleneck_beta_1elif (i==2):alpha_layer = self.bottleneck_alpha_2beta_layer = self.bottleneck_beta_2elif (i==3):alpha_layer = self.bottleneck_alpha_3beta_layer = self.bottleneck_beta_3elif (i==4):alpha_layer = self.bottleneck_alpha_4beta_layer = self.bottleneck_beta_4alpha = alpha_layer(x)beta = beta_layer(x)return alpha, betadef forward(self, input, guidance):input = self.padding_in(input)  guidance = self.padding_g(guidance)g_alpha1, g_beta1 = self.get_FiLM_param_(guidance, 1, guide=True)i_alpha1, i_beta1 = self.get_FiLM_param_(input, 1)guidance = affine_transformation(guidance, i_alpha1, i_beta1)input = affine_transformation(input, g_alpha1, g_beta1)input = self.activation(input)guidance = self.activation(guidance)input = self.conv1(input)guidance = self.conv1_g(guidance)g_alpha2, g_beta2 = self.get_FiLM_param_(guidance, 2, guide=True)i_alpha2, i_beta2 = self.get_FiLM_param_(input, 2)input = affine_transformation(input, g_alpha2, g_beta2)guidance = affine_transformation(guidance, i_alpha2, i_beta2)input = self.activation(input)guidance = self.activation(guidance)input = self.conv2(input)guidance = self.conv2_g(guidance)g_alpha3, g_beta3 = self.get_FiLM_param_(guidance, 3, guide=True)i_alpha3, i_beta3 = self.get_FiLM_param_(input, 3)input = affine_transformation(input, g_alpha3, g_beta3)guidance = affine_transformation(guidance, i_alpha3, i_beta3)input = self.activation(input)guidance = self.activation(guidance)input = self.conv3(input)guidance = self.conv3_g(guidance)g_alpha4, g_beta4 = self.get_FiLM_param_(guidance, 4, guide=True)# guidance在这一步之后就舍弃了input = affine_transformation(input, g_alpha4, g_beta4)input = self.activation(input)input = self.resnet(input)input = self.pre_decoder(input)output = self.decoder(input)return output

 

这篇关于guided-pix2pix 代码略解的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/781284

相关文章

利用Python调试串口的示例代码

《利用Python调试串口的示例代码》在嵌入式开发、物联网设备调试过程中,串口通信是最基础的调试手段本文将带你用Python+ttkbootstrap打造一款高颜值、多功能的串口调试助手,需要的可以了... 目录概述:为什么需要专业的串口调试工具项目架构设计1.1 技术栈选型1.2 关键类说明1.3 线程模

Python Transformers库(NLP处理库)案例代码讲解

《PythonTransformers库(NLP处理库)案例代码讲解》本文介绍transformers库的全面讲解,包含基础知识、高级用法、案例代码及学习路径,内容经过组织,适合不同阶段的学习者,对... 目录一、基础知识1. Transformers 库简介2. 安装与环境配置3. 快速上手示例二、核心模

Java的栈与队列实现代码解析

《Java的栈与队列实现代码解析》栈是常见的线性数据结构,栈的特点是以先进后出的形式,后进先出,先进后出,分为栈底和栈顶,栈应用于内存的分配,表达式求值,存储临时的数据和方法的调用等,本文给大家介绍J... 目录栈的概念(Stack)栈的实现代码队列(Queue)模拟实现队列(双链表实现)循环队列(循环数组

使用Java将DOCX文档解析为Markdown文档的代码实现

《使用Java将DOCX文档解析为Markdown文档的代码实现》在现代文档处理中,Markdown(MD)因其简洁的语法和良好的可读性,逐渐成为开发者、技术写作者和内容创作者的首选格式,然而,许多文... 目录引言1. 工具和库介绍2. 安装依赖库3. 使用Apache POI解析DOCX文档4. 将解析

C++使用printf语句实现进制转换的示例代码

《C++使用printf语句实现进制转换的示例代码》在C语言中,printf函数可以直接实现部分进制转换功能,通过格式说明符(formatspecifier)快速输出不同进制的数值,下面给大家分享C+... 目录一、printf 原生支持的进制转换1. 十进制、八进制、十六进制转换2. 显示进制前缀3. 指

使用Python实现全能手机虚拟键盘的示例代码

《使用Python实现全能手机虚拟键盘的示例代码》在数字化办公时代,你是否遇到过这样的场景:会议室投影电脑突然键盘失灵、躺在沙发上想远程控制书房电脑、或者需要给长辈远程协助操作?今天我要分享的Pyth... 目录一、项目概述:不止于键盘的远程控制方案1.1 创新价值1.2 技术栈全景二、需求实现步骤一、需求

Java中Date、LocalDate、LocalDateTime、LocalTime、时间戳之间的相互转换代码

《Java中Date、LocalDate、LocalDateTime、LocalTime、时间戳之间的相互转换代码》:本文主要介绍Java中日期时间转换的多种方法,包括将Date转换为LocalD... 目录一、Date转LocalDateTime二、Date转LocalDate三、LocalDateTim

jupyter代码块没有运行图标的解决方案

《jupyter代码块没有运行图标的解决方案》:本文主要介绍jupyter代码块没有运行图标的解决方案,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录jupyter代码块没有运行图标的解决1.找到Jupyter notebook的系统配置文件2.这时候一般会搜索到

Python通过模块化开发优化代码的技巧分享

《Python通过模块化开发优化代码的技巧分享》模块化开发就是把代码拆成一个个“零件”,该封装封装,该拆分拆分,下面小编就来和大家简单聊聊python如何用模块化开发进行代码优化吧... 目录什么是模块化开发如何拆分代码改进版:拆分成模块让模块更强大:使用 __init__.py你一定会遇到的问题模www.

springboot循环依赖问题案例代码及解决办法

《springboot循环依赖问题案例代码及解决办法》在SpringBoot中,如果两个或多个Bean之间存在循环依赖(即BeanA依赖BeanB,而BeanB又依赖BeanA),会导致Spring的... 目录1. 什么是循环依赖?2. 循环依赖的场景案例3. 解决循环依赖的常见方法方法 1:使用 @La