实现卷积神经网络:吴恩达Course 4-卷积神经网络-week1作业 pytorch版

2024-06-19 13:48

本文主要是介绍实现卷积神经网络:吴恩达Course 4-卷积神经网络-week1作业 pytorch版,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

注意事项

和老师用tensorflow写的结果不同,不过测试集准度更高了,以下几点原因:
1.没用Xaiver初始化,使用了pytorch默认的初始化方式
2.pytorch和tensorflow的padding机制不同,没有特意去还原tensorflow的方式,pytorch的padding设置值不可以比卷积核的宽度一半大,所以当步长大,用默认方式“SAME”不了
3.全连接层的线性函数输出神经元老师用的是6个,这里用了20个(因为第2点,加上ReLU,用6个神经元会梯度消失,100步以内不收敛)

吐槽一句pytorch的padding方式不太友好,要自己算,tensorflow直接padding="SAME"就行了


资料下载

相关文件可在【tensorflow版大佬】下载


备注

week1作业有两个:
第一部分:用numpy还原卷积神经网络的实现过程
第二部分:用框架实现卷积神经网络

这里只包含第二部分的内容


载入库

import torch
from torch.utils.data import DataLoader, TensorDataset
from torch import nn
import numpy as np
from matplotlib import pyplot as plt
from cnn_utils import load_dataset

数据预处理

# 设置随机种子
torch.manual_seed(1)# 载入数据
X_train_orig, Y_train_orig, X_test_orig, Y_test_orig, classes = load_dataset()# 可视化一个样本
index = 6
plt.imshow(X_train_orig[index])
print('y=' + str(np.squeeze(Y_train_orig[:, index])))
plt.show()# 归一化数据集
X_train = np.transpose(X_train_orig, (0, 3, 1, 2))/255          # 将维度转为(1080, 3, 64, 64)
X_test = np.transpose(X_test_orig, (0, 3, 1, 2))/255            # 将维度转为(120, 3, 64, 64)
# 转置y
Y_train = Y_train_orig.T                    # (1080, 1)
Y_test = Y_test_orig.T                      # (120, 1)print('number of training examples = ' + str(X_train.shape[0]))
print('number of test examples = ' + str(X_test.shape[0]))
print('X_train shape: ' + str(X_train.shape))
print('Y_train shape: ' + str(Y_train.shape))
print('X_test shape: ' + str(X_test.shape))
print('Y_test shape: ' + str(Y_test.shape))

可视化一个样本:
在这里插入图片描述
打印维度:

number of training examples = 1080
number of test examples = 120
X_train shape: (1080, 3, 64, 64)
Y_train shape: (1080, 1)
X_test shape: (120, 3, 64, 64)
Y_test shape: (120, 1)

建模部分

# 创建数据接口
def data_loader(X_train, Y_train, batch_size=64):train_db = TensorDataset(torch.from_numpy(X_train).float(), torch.squeeze(torch.from_numpy(Y_train)))train_loader = DataLoader(train_db, batch_size=batch_size, shuffle=True)return train_loader# 构建模型
class CNN(nn.Module):def __init__(self):# 继承模块super(CNN, self).__init__()self.conv1 = nn.Sequential(nn.Conv2d(                              # input shape (3, 64, 64)in_channels=3,                      # input通道数out_channels=8,                     # output通道数kernel_size=4,                      # 卷积核的边长fstride=1,                           # 步长padding=1                           # padding模式为SAME,=[(s-1)n-s+f]/2,这里算出来不是整数,向下取整了),nn.ReLU(),nn.MaxPool2d(kernel_size=8, stride=8, padding=4))self.conv2 = nn.Sequential(                 # input shape (8, 64, 64)nn.Conv2d(8, 16, 2, 1, 1),nn.ReLU(),nn.MaxPool2d(kernel_size=4, stride=4, padding=2))self.fullconnect = nn.Sequential(nn.Linear(16 * 3 * 3, 20),nn.ReLU())self.classifier = nn.LogSoftmax(dim=1)def forward(self, x):x = self.conv1(x)x = self.conv2(x)# 展平x = x.view(x.size(0), -1)x = self.fullconnect(x)output = self.classifier(x)return outputdef weigth_init(m):if isinstance(m, nn.Conv2d):nn.init.xavier_uniform_(m.weight.data)nn.init.constant_(m.bias.data, 0)elif isinstance(m, nn.Linear):nn.init.xavier_uniform_(m.weight.data)nn.init.constant_(m.bias.data, 0)def model(X_train, Y_train, X_test, Y_test, learning_rate=0.009, num_epochs=100, minibatch_size=64, print_cost=True,is_plot=True):train_loader = data_loader(X_train, Y_train, minibatch_size)cnn = CNN()# cnn.apply(weigth_init)cost_func = nn.NLLLoss()optimizer = torch.optim.Adam(cnn.parameters(), lr=learning_rate, betas=(0.9, 0.999))# 保存每次迭代的cost的列表costs = []# 批次数量m = X_train.shape[0]num_batch = m / minibatch_sizefor epoch in range(num_epochs):epoch_cost = 0for step, (batch_x, batch_y) in enumerate(train_loader):# 前向传播output = cnn(batch_x)# 计算成本cost = cost_func(output, batch_y)epoch_cost += cost.data.numpy() / num_batch# 梯度归零optimizer.zero_grad()# 反向传播cost.backward()# 更新参数optimizer.step()if print_cost and epoch % 5 == 0:costs.append(epoch_cost)print('Cost after epoch %i : %f' % (epoch, epoch_cost))# 画学习曲线if is_plot:plt.plot(costs)plt.xlabel('iterations per 5')plt.ylabel('cost')plt.show()# 保存学习后的参数torch.save(cnn.state_dict(), 'net_params.pkl')print('参数已保存到本地pkl文件。')# 预测训练集cnn.load_state_dict(torch.load('net_params.pkl'))output_train = cnn(torch.from_numpy(X_train).float())pred_Y_train = torch.max(output_train, dim=1)[1].data.numpy()# 预测测试集output_test = cnn(torch.from_numpy(X_test).float())pred_Y_test= torch.max(output_test, dim=1)[1].data.numpy()# 训练集准确率print('Train Accuracy: %.2f %%' % float(np.sum(np.squeeze(Y_train) == pred_Y_train)/m*100))# 测试集准确率print('Test Accuracy: %.2f %%' % float(np.sum(np.squeeze(Y_test) == pred_Y_test)/X_test.shape[0]*100))return cnnmodel(X_train, Y_train, X_test, Y_test)

迭代过程:

Cost after epoch 0 : 2.401703
Cost after epoch 5 : 1.341189
Cost after epoch 10 : 0.801924
Cost after epoch 15 : 0.567850
Cost after epoch 20 : 0.446336
Cost after epoch 25 : 0.342109
Cost after epoch 30 : 0.278837
Cost after epoch 35 : 0.182508
Cost after epoch 40 : 0.152718
Cost after epoch 45 : 0.124633
Cost after epoch 50 : 0.103368
Cost after epoch 55 : 0.099265
Cost after epoch 60 : 0.092497
Cost after epoch 65 : 0.067059
Cost after epoch 70 : 0.080446
Cost after epoch 75 : 0.101512
Cost after epoch 80 : 0.051409
Cost after epoch 85 : 0.021475
Cost after epoch 90 : 0.017657
Cost after epoch 95 : 0.010164

学习曲线:
在这里插入图片描述

训练准确率与测试准确率:

Train Accuracy: 100.00 %
Test Accuracy: 90.83 %

到这就完成啦~

这篇关于实现卷积神经网络:吴恩达Course 4-卷积神经网络-week1作业 pytorch版的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!


原文地址:
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.chinasem.cn/article/1075203

相关文章

基于Python实现温度单位转换器(新手版)

《基于Python实现温度单位转换器(新手版)》这篇文章主要为大家详细介绍了如何基于Python实现温度单位转换器,主要是将摄氏温度(C)和华氏温度(F)相互转换,下面小编就来和大家简单介绍一下吧... 目录为什么选择温度转换器作为第一个项目项目概述所需基础知识实现步骤详解1. 温度转换公式2. 用户输入处

MySQL实现多源复制的示例代码

《MySQL实现多源复制的示例代码》MySQL的多源复制允许一个从服务器从多个主服务器复制数据,这在需要将多个数据源汇聚到一个数据库实例时非常有用,下面就来详细的介绍一下,感兴趣的可以了解一下... 目录一、多源复制原理二、多源复制配置步骤2.1 主服务器配置Master1配置Master2配置2.2 从服

Java实现TXT文件导入功能的详细步骤

《Java实现TXT文件导入功能的详细步骤》在实际开发中,很多应用场景需要将用户上传的TXT文件进行解析,并将文件中的数据导入到数据库或其他存储系统中,本文将演示如何用Java实现一个基本的TXT文件... 目录前言1. 项目需求分析2. 示例文件格式3. 实现步骤3.1. 准备数据库(假设使用 mysql

C#控制台程序同步调用WebApi实现方式

《C#控制台程序同步调用WebApi实现方式》控制台程序作为Job时,需同步调用WebApi以确保获取返回结果后执行后续操作,否则会引发TaskCanceledException异常,同步处理可避免异... 目录同步调用WebApi方法Cls001类里面的写法总结控制台程序一般当作Job使用,有时候需要控制

SpringBoot集成P6Spy的实现示例

《SpringBoot集成P6Spy的实现示例》本文主要介绍了SpringBoot集成P6Spy的实现示例,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面... 目录本节目标P6Spy简介抛出问题集成P6Spy1. SpringBoot三板斧之加入依赖2. 修改

Python实现数据可视化图表生成(适合新手入门)

《Python实现数据可视化图表生成(适合新手入门)》在数据科学和数据分析的新时代,高效、直观的数据可视化工具显得尤为重要,下面:本文主要介绍Python实现数据可视化图表生成的相关资料,文中通过... 目录前言为什么需要数据可视化准备工作基本图表绘制折线图柱状图散点图使用Seaborn创建高级图表箱线图热

Redis分布式锁中Redission底层实现方式

《Redis分布式锁中Redission底层实现方式》Redission基于Redis原子操作和Lua脚本实现分布式锁,通过SETNX命令、看门狗续期、可重入机制及异常处理,确保锁的可靠性和一致性,是... 目录Redis分布式锁中Redission底层实现一、Redission分布式锁的基本使用二、Red

基于Python实现数字限制在指定范围内的五种方式

《基于Python实现数字限制在指定范围内的五种方式》在编程中,数字范围限制是常见需求,无论是游戏开发中的角色属性值、金融计算中的利率调整,还是传感器数据处理中的异常值过滤,都需要将数字控制在合理范围... 目录引言一、基础条件判断法二、数学运算巧解法三、装饰器模式法四、自定义类封装法五、NumPy数组处理

Python中经纬度距离计算的实现方式

《Python中经纬度距离计算的实现方式》文章介绍Python中计算经纬度距离的方法及中国加密坐标系转换工具,主要方法包括geopy(Vincenty/Karney)、Haversine、pyproj... 目录一、基本方法1. 使用geopy库(推荐)2. 手动实现 Haversine 公式3. 使用py

MySQL进行分片合并的实现步骤

《MySQL进行分片合并的实现步骤》分片合并是指在分布式数据库系统中,将不同分片上的查询结果进行整合,以获得完整的查询结果,下面就来具体介绍一下,感兴趣的可以了解一下... 目录环境准备项目依赖数据源配置分片上下文分片查询和合并代码实现1. 查询单条记录2. 跨分片查询和合并测试结论分片合并(Shardin