【论文+代码】VISION PERMUTATOR 即插即用的多层感知器(MLP)模块

本文主要是介绍【论文+代码】VISION PERMUTATOR 即插即用的多层感知器(MLP)模块,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

目录

  • 论文
    • 模块
    • 创新点
  • 代码
    • 模块
    • 分析
      • 代码讲解

论文

本文的研究成果在项目的实现过程中起到了至关重要的作用。以下是本文的详细信息:

文章链接: VISION PERMUTATOR: A PERMUTABLE MLP-LIKE ARCHITECTURE FOR VISUAL RECOGNITION

模块

创新点

在多个方面进行了创新和改进,以下是项目的主要创新点:

代码

代码链接 https://github.com/houqb/VisionPermutator/blob/main

模块

核心算法和模型训练。

import torch.nn as nnclass VisionPermutator(nn.Module):""" Vision Permutator视觉排列器,是一个用于图像处理的神经网络模型"""def __init__(self, layers, img_size=224, patch_size=4, in_chans=3, num_classes=1000,embed_dims=None, transitions=None, segment_dim=None, mlp_ratios=None, skip_lam=1.0,qkv_bias=False, qk_scale=None, drop_rate=0., attn_drop_rate=0., drop_path_rate=0.,norm_layer=nn.LayerNorm, mlp_fn=WeightedPermuteMLP):super().__init__()self.num_classes = num_classes# 将输入图像分割成小块,并进行初步的嵌入self.patch_embed = PatchEmbed(img_size=img_size, patch_size=patch_size, in_chans=in_chans, embed_dim=embed_dims[0])network = []# 构建整个网络的架构for i in range(len(layers)):# 添加基础模块到网络中stage = basic_blocks(embed_dims[i], i, layers, segment_dim[i], mlp_ratio=mlp_ratios[i], qkv_bias=qkv_bias,qk_scale=qk_scale, attn_drop=attn_drop_rate, drop_path_rate=drop_path_rate, norm_layer=norm_layer, skip_lam=skip_lam,mlp_fn=mlp_fn)network.append(stage)if i >= len(layers) - 1:breakif transitions[i] or embed_dims[i] != embed_dims[i+1]:# 如果需要转换,添加下采样层patch_size = 2 if transitions[i] else 1network.append(Downsample(embed_dims[i], embed_dims[i+1], patch_size))# 将网络模块列表封装成 nn.ModuleListself.network = nn.ModuleList(network)# 添加归一化层self.norm = norm_layer(embed_dims[-1])# 分类头部,进行最终的类别预测self.head = nn.Linear(embed_dims[-1], num_classes) if num_classes > 0 else nn.Identity()self.apply(self._init_weights)def _init_weights(self, m):# 初始化模型权重if isinstance(m, nn.Linear):trunc_normal_(m.weight, std=.02)if isinstance(m, nn.Linear) and m.bias is not None:nn.init.constant_(m.bias, 0)elif isinstance(m, nn.LayerNorm):nn.init.constant_(m.bias, 0)nn.init.constant_(m.weight, 1.0)def get_classifier(self):# 获取分类器return self.headdef reset_classifier(self, num_classes, global_pool=''):# 重置分类器,用于迁移学习或微调self.num_classes = num_classesself.head = nn.Linear(self.embed_dim, num_classes) if num_classes > 0 else nn.Identity()def forward_embeddings(self, x):# 处理输入图像,进行初步的嵌入x = self.patch_embed(x)# 将张量维度从 (B, C, H, W) 转换为 (B, H, W, C)x = x.permute(0, 2, 3, 1)return xdef forward_tokens(self, x):# 依次通过网络的每个模块for idx, block in enumerate(self.network):x = block(x)# 展平张量以适应分类头部的输入要求B, H, W, C = x.shapex = x.reshape(B, -1, C)return xdef forward(self, x):# 前向传播的入口函数# 首先,进行初步嵌入处理x = self.forward_embeddings(x)# 接着,通过所有网络模块进行处理x = self.forward_tokens(x)# 最后,进行归一化处理,并通过分类头部进行类别预测x = self.norm(x)# 将所有位置的特征平均,得到最终的预测结果return self.head(x.mean(1))

分析

https://github.com/houqb/VisionPermutator/blob/main/models/vip.py

import torch.nn as nnclass VisionPermutator(nn.Module):""" Vision Permutator视觉排列器,是一个用于图像处理的神经网络模型"""def __init__(self, layers, img_size=224, patch_size=4, in_chans=3, num_classes=1000,embed_dims=None, transitions=None, segment_dim=None, mlp_ratios=None, skip_lam=1.0,qkv_bias=False, qk_scale=None, drop_rate=0., attn_drop_rate=0., drop_path_rate=0.,norm_layer=nn.LayerNorm, mlp_fn=WeightedPermuteMLP):super().__init__()self.num_classes = num_classes# 将输入图像分割成小块,并进行初步的嵌入self.patch_embed = PatchEmbed(img_size=img_size, patch_size=patch_size, in_chans=in_chans, embed_dim=embed_dims[0])network = []# 构建整个网络的架构for i in range(len(layers)):# 添加基础模块到网络中stage = basic_blocks(embed_dims[i], i, layers, segment_dim[i], mlp_ratio=mlp_ratios[i], qkv_bias=qkv_bias,qk_scale=qk_scale, attn_drop=attn_drop_rate, drop_path_rate=drop_path_rate, norm_layer=norm_layer, skip_lam=skip_lam,mlp_fn=mlp_fn)network.append(stage)if i >= len(layers) - 1:breakif transitions[i] or embed_dims[i] != embed_dims[i+1]:# 如果需要转换,添加下采样层patch_size = 2 if transitions[i] else 1network.append(Downsample(embed_dims[i], embed_dims[i+1], patch_size))# 将网络模块列表封装成 nn.ModuleListself.network = nn.ModuleList(network)# 添加归一化层self.norm = norm_layer(embed_dims[-1])# 分类头部,进行最终的类别预测self.head = nn.Linear(embed_dims[-1], num_classes) if num_classes > 0 else nn.Identity()self.apply(self._init_weights)def _init_weights(self, m):# 初始化模型权重if isinstance(m, nn.Linear):trunc_normal_(m.weight, std=.02)if isinstance(m, nn.Linear) and m.bias is not None:nn.init.constant_(m.bias, 0)elif isinstance(m, nn.LayerNorm):nn.init.constant_(m.bias, 0)nn.init.constant_(m.weight, 1.0)def get_classifier(self):# 获取分类器return self.headdef reset_classifier(self, num_classes, global_pool=''):# 重置分类器,用于迁移学习或微调self.num_classes = num_classesself.head = nn.Linear(self.embed_dim, num_classes) if num_classes > 0 else nn.Identity()def forward_embeddings(self, x):# 处理输入图像,进行初步的嵌入x = self.patch_embed(x)# 将张量维度从 (B, C, H, W) 转换为 (B, H, W, C)x = x.permute(0, 2, 3, 1)return xdef forward_tokens(self, x):# 依次通过网络的每个模块for idx, block in enumerate(self.network):x = block(x)# 展平张量以适应分类头部的输入要求B, H, W, C = x.shapex = x.reshape(B, -1, C)return xdef forward(self, x):# 前向传播的入口函数# 首先,进行初步嵌入处理x = self.forward_embeddings(x)# 接着,通过所有网络模块进行处理x = self.forward_tokens(x)# 最后,进行归一化处理,并通过分类头部进行类别预测x = self.norm(x)# 将所有位置的特征平均,得到最终的预测结果return self.head(x.mean(1))

代码讲解

forward 函数是模型的主要执行路径,它将输入图像转化为嵌入特征,通过网络模块进行处理,归一化后通过分类头部输出预测结果。这一步步的处理确保了模型能够有效地提取图像特征,并进行准确的分类。

  1. 初始化函数 (__init__)

    • 初始化模型,设置各种参数,并构建网络结构。
    • patch_embed 将输入图像分割成小块并进行初步的嵌入。
    • network 是一个包含多个阶段和下采样层的模块列表。
    • normhead 分别是归一化层和分类头部,用于最终的预测。
  2. 权重初始化函数 (_init_weights)

    • 初始化线性层和归一化层的权重和偏置。
  3. 获取分类器函数 (get_classifier)

    • 返回分类头部,主要用于评估或微调。
  4. 重置分类器函数 (reset_classifier)

    • 重置分类头部,以适应不同的分类任务。
  5. 前向嵌入函数 (forward_embeddings)

    • 对输入图像进行初步处理,将其分割成小块并嵌入到更高维度的特征空间。
  6. 前向处理函数 (forward_tokens)

    • 通过所有网络模块进行处理,将特征进一步提取和转换。
  7. 前向传播函数 (forward)

    • 这个函数是整个模型的核心:
      1. 首先调用 forward_embeddings 对输入图像进行初步处理,将其转换为嵌入特征。
      2. 然后调用 forward_tokens 依次通过所有网络模块进行特征提取和转换。
      3. 接着对特征进行归一化处理。
      4. 最后,通过分类头部进行类别预测。这里使用了全局平均池化 (x.mean(1)),将所有位置的特征平均,得到一个最终的特征向量,输入到分类头部进行预测。

这篇关于【论文+代码】VISION PERMUTATOR 即插即用的多层感知器(MLP)模块的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1036076

相关文章

Python的time模块一些常用功能(各种与时间相关的函数)

《Python的time模块一些常用功能(各种与时间相关的函数)》Python的time模块提供了各种与时间相关的函数,包括获取当前时间、处理时间间隔、执行时间测量等,:本文主要介绍Python的... 目录1. 获取当前时间2. 时间格式化3. 延时执行4. 时间戳运算5. 计算代码执行时间6. 转换为指

利用Python调试串口的示例代码

《利用Python调试串口的示例代码》在嵌入式开发、物联网设备调试过程中,串口通信是最基础的调试手段本文将带你用Python+ttkbootstrap打造一款高颜值、多功能的串口调试助手,需要的可以了... 目录概述:为什么需要专业的串口调试工具项目架构设计1.1 技术栈选型1.2 关键类说明1.3 线程模

Python Transformers库(NLP处理库)案例代码讲解

《PythonTransformers库(NLP处理库)案例代码讲解》本文介绍transformers库的全面讲解,包含基础知识、高级用法、案例代码及学习路径,内容经过组织,适合不同阶段的学习者,对... 目录一、基础知识1. Transformers 库简介2. 安装与环境配置3. 快速上手示例二、核心模

Python正则表达式语法及re模块中的常用函数详解

《Python正则表达式语法及re模块中的常用函数详解》这篇文章主要给大家介绍了关于Python正则表达式语法及re模块中常用函数的相关资料,正则表达式是一种强大的字符串处理工具,可以用于匹配、切分、... 目录概念、作用和步骤语法re模块中的常用函数总结 概念、作用和步骤概念: 本身也是一个字符串,其中

Python中的getopt模块用法小结

《Python中的getopt模块用法小结》getopt.getopt()函数是Python中用于解析命令行参数的标准库函数,该函数可以从命令行中提取选项和参数,并对它们进行处理,本文详细介绍了Pyt... 目录getopt模块介绍getopt.getopt函数的介绍getopt模块的常用用法getopt模

Java的栈与队列实现代码解析

《Java的栈与队列实现代码解析》栈是常见的线性数据结构,栈的特点是以先进后出的形式,后进先出,先进后出,分为栈底和栈顶,栈应用于内存的分配,表达式求值,存储临时的数据和方法的调用等,本文给大家介绍J... 目录栈的概念(Stack)栈的实现代码队列(Queue)模拟实现队列(双链表实现)循环队列(循环数组

使用Java将DOCX文档解析为Markdown文档的代码实现

《使用Java将DOCX文档解析为Markdown文档的代码实现》在现代文档处理中,Markdown(MD)因其简洁的语法和良好的可读性,逐渐成为开发者、技术写作者和内容创作者的首选格式,然而,许多文... 目录引言1. 工具和库介绍2. 安装依赖库3. 使用Apache POI解析DOCX文档4. 将解析

C++使用printf语句实现进制转换的示例代码

《C++使用printf语句实现进制转换的示例代码》在C语言中,printf函数可以直接实现部分进制转换功能,通过格式说明符(formatspecifier)快速输出不同进制的数值,下面给大家分享C+... 目录一、printf 原生支持的进制转换1. 十进制、八进制、十六进制转换2. 显示进制前缀3. 指

python logging模块详解及其日志定时清理方式

《pythonlogging模块详解及其日志定时清理方式》:本文主要介绍pythonlogging模块详解及其日志定时清理方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地... 目录python logging模块及日志定时清理1.创建logger对象2.logging.basicCo

使用Python实现全能手机虚拟键盘的示例代码

《使用Python实现全能手机虚拟键盘的示例代码》在数字化办公时代,你是否遇到过这样的场景:会议室投影电脑突然键盘失灵、躺在沙发上想远程控制书房电脑、或者需要给长辈远程协助操作?今天我要分享的Pyth... 目录一、项目概述:不止于键盘的远程控制方案1.1 创新价值1.2 技术栈全景二、需求实现步骤一、需求