从零开始学习深度学习库-6:集成新的自动微分模块和MNIST数字分类器

本文主要是介绍从零开始学习深度学习库-6:集成新的自动微分模块和MNIST数字分类器,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

在上一篇文章中,我们完成了自动微分模块的代码。深度学习库依赖于自动微分模块来处理模型训练期间的反向传播过程。然而,我们的库目前还是“手工”计算权重导数。现在我们拥有了自己的自动微分模块,接下来让我们的库使用它来执行反向传播吧!

此外,我们还将构建一个数字分类器来测试一切是否正常工作。

使用自动微分模块并非必要,不使用这个模块也没事,用原本的方法也能很好地工作。

然而,当我们开始在库中实现更复杂的层和激活函数时,硬编码导数计算可能会变得难以理解。

自动微分模块为我们提供了一个抽象层,帮助我们计算导数,这样我们就无需手动完成这一过程了。

让我们开始创建名为 nn.py 的文件。这个文件将作为您需要的所有神经网络组件的中心存储库,包括不同类型的层、激活函数以及构建和操作神经网络所需的潜在其他实用程序。

import autodiff as ad
import numpy as np
import loss 
import optimnp.random.seed(345)class Layer:def __init__(self):passclass Linear(Layer):def __init__(self, units):self.units = unitsself.w = Noneself.b = Nonedef __call__(self, x):if self.w is None:self.w = ad.Tensor(np.random.uniform(size=(x.shape[-1], self.units), low=-1/np.sqrt(x.shape[-1]), high=1/np.sqrt(x.shape[-1])))self.b = ad.Tensor(np.zeros((1, self.units)))return x @ self.w + self.b

到目前为止,一切都很简单。当这个类的实例以函数形式调用时,__call__ 方法只执行前向传播。如果是首次调用,它还将初始化层的参数。

权重和偏置现在是 Tensor类的实例,这意味着它们将在操作开始时成为计算图的一部分。这也意味着我们的自动微分模块能够计算它们的导数。

请注意,我们不再需要像以前那样的backward方法。自动微分模块将为我们计算导数!
激活函数

class Sigmoid:def __call__(self, x):return 1 / (1 + np.e ** (-1 * x))class Softmax:def __call__(self, x):e_x = np.e ** (x - np.max(x.value))s_x = (e_x) / ad.reduce_sum(e_x, axis=1, keepdims=True)return s_xclass Tanh:def __call__(self, x):return (2 / (1 + np.e ** (-2 * x))) - 1

Model class

class Model:def __init__(self, layers):self.layers = layersdef __call__(self, x):output = xfor layer in self.layers:output = layer(output)return outputdef train(self, x, y, epochs=10, loss_fn = loss.MSE, optimizer=optim.SGD(lr=0.1), batch_size=32):for epoch in range(epochs):_loss = 0print (f"EPOCH", epoch + 1)for batch in tqdm(range(0, len(x), batch_size)):output = self(x[batch:batch+batch_size])l = loss_fn(output, y[batch:batch+batch_size])optimizer(self, l)_loss += lprint ("LOSS", _loss.value)

模型类的结构与之前相似,但现在可以对数据集进行批量训练。

与一次性使用整个数据集相比,批量训练使模型能更好地理解其处理的数据。
loss.py
loss.py 文件将包含我们在库中实现的各种损失函数。

import autodiff as addef MSE(pred, real):loss = ad.reduce_mean((pred - real)**2)return lossdef CategoricalCrossentropy(pred, real):loss = -1 * ad.reduce_mean(real * ad.log(pred))return loss

同样,与之前一样,只是没有了 backward 方法。

关于新的自动微分功能:在我们继续讨论优化器之前,您可能已经注意到代码现在使用了自动微分模块中的一些新功能,

以下是这些新功能:

def reduce_sum(tensor, axis = None, keepdims=False):var = Tensor(np.sum(tensor.value, axis = axis, keepdims=keepdims))var.dependencies.append(tensor)var.grads.append(np.ones(tensor.value.shape))return vardef reduce_mean(tensor, axis = None, keepdims=False):return reduce_sum(tensor, axis, keepdims) / tensor.value.sizedef log(tensor):var = Tensor(np.log(tensor.value))var.dependencies.append(tensor)var.grads.append(1 / tensor.value)return var

optim.py
文件将包含我们在这个库中实现的不同优化器。
SGD

from nn import Layerclass SGD:def __init__(self, lr):self.lr = lrdef delta(self, param):return param.gradient * self.lrdef __call__(self, model, loss):loss.get_gradients()for layer in model.layers:if isinstance(layer, Layer):layer.update(self)

Momentum

class Momentum:def __init__(self, lr = 0.01, beta=0.9):self.lr = lrself.beta = betaself.averages = {}def momentum_average(self, prev, grad):return (self.beta * prev) + (self.lr * grad)def delta(self, param):param_id = param.idif param_id not in self.averages:self.averages[param_id] = 0self.averages[param_id] = self.momentum_average(self.averages[param_id], param.gradient)return self.averages[param_id]def __call__(self, model, loss):loss.get_gradients()for layer in model.layers:if isinstance(layer, Layer):layer.update(self)

RMSProp

class RMSProp:def __init__(self, lr = 0.01, beta=0.9, epsilon=10**-10):self.lr = lrself.beta = betaself.epsilon = epsilonself.averages = {}def rms_average(self, prev, grad):return self.beta * prev + (1 - self.beta) * (grad ** 2)def delta(self, param):param_id = param.idif param_id not in self.averages:self.averages[param_id] = 0self.averages[param_id] = self.rms_average(self.averages[param_id], param.gradient)return (self.lr / (self.averages[param_id] + self.epsilon) ** 0.5) * param.gradientdef __call__(self, model, loss):loss.get_gradients()for layer in model.layers:if isinstance(layer, Layer):layer.update(self)

Adam

class Adam:def __init__(self, lr = 0.01, beta1=0.9, beta2=0.999, epsilon=10**-8):self.lr = lrself.beta1 = beta1self.beta2 = beta2self.epsilon = epsilonself.averages = {}self.averages2 = {}def rms_average(self, prev, grad):return (self.beta2 * prev) + (1 - self.beta2) * (grad ** 2)def momentum_average(self, prev, grad):return (self.beta1 * prev) + ((1 - self.beta1) * grad)def delta(self, param):param_id = param.idif param_id not in self.averages:self.averages[param_id] = 0self.averages2[param_id] = 0self.averages[param_id] = self.momentum_average(self.averages[param_id], param.gradient)self.averages2[param_id] = self.rms_average(self.averages2[param_id], param.gradient)adjust1 = self.averages[param_id] / (1 - self.beta1)adjust2 = self.averages2[param_id] / (1 - self.beta2)return self.lr * (adjust1 / (adjust2 ** 0.5 + self.epsilon))def __call__(self, model, loss):loss.get_gradients()for layer in model.layers:            if isinstance(layer, Layer):layer.update(self)

call

def __call__(self, model, loss):loss.get_gradients()for layer in model.layers:            if isinstance(layer, Layer):layer.update(self)

当一个优化器类的实例被调用时,它会接受它的训练模型和损失值。
loss.get_gradients()

在这里,我们利用了我们的自动微分模块,

如果您还记得,get_gradients 方法是 Tensor 类的一部分,它计算涉及这个张量计算的所有变量的导数。

这意味着网络中的所有权重和偏置现在都已计算出其导数,这些导数都存储在它们的梯度属性中。

for layer in model.layers:            if isinstance(layer, Layer):layer.update(self)

现在导数已经计算完毕,优化器将遍历网络的每一层,并通过调用层的更新方法来更新其参数,将自身作为参数传递给它。

我们线性层类中的更新方法如下:

#nn.py
class Linear(Layer):...def update(self, optim):self.w.value -= optim.delta(self.w)self.b.value -= optim.delta(self.b)self.w.grads = []self.w.dependencies = []self.b.grads = []self.b.dependencies = []

这个方法接收一个优化器的实例,并根据优化器计算出的delta值更新层的参数。

self.w.value -= optim.delta(self.w)
self.b.value -= optim.delta(self.b)

delta 方法是优化器类中的一个函数。它接收一个张量,并利用其导数来确定这个张量应该调整的量。

delta 方法的具体实现可能会根据使用的优化器而有所不同。

让我们来看一下其中一个 delta 方法的实现。

class RMSProp:...def rms_average(self, prev, grad):return self.beta * prev + (1 - self.beta) * (grad ** 2)def delta(self, param):param_id = param.idif param_id not in self.averages:self.averages[param_id] = 0self.averages[param_id] = self.rms_average(self.averages[param_id], param.gradient)return (self.lr / (self.averages[param_id] + self.epsilon) ** 0.5) * param.gradient...
param_id = param.idif param_id not in self.averages:self.averages[param_id] = 0

请记住,大多数优化器会跟踪每个参数梯度的某种平均值,以帮助定位全局最小值。

这就是为什么我们为每个张量分配了一个ID,以便优化器能够跟踪它们的梯度平均值。

self.averages[param_id] = self.rms_average(self.averages[param_id], param.gradient)return (self.lr / (self.averages[param_id] + self.epsilon) ** 0.5) * param.gradient

如有必要,会重新计算参数的梯度平均值(请注意,SGD 不维持平均值)。

然后,该方法计算参数应调整的幅度,并返回此值。

探索其他优化器,以帮助您了解它们的工作原理。

MNIST 数字分类器

为了验证我们所有新更改的功能是否符合预期,让我们构建一个神经网络来分类手写数字图像。

from sklearn.datasets import load_digits
import numpy as np
import nn
import optim
import loss
from autodiff import *
from matplotlib import pyplot as plt

数据集准备:

def one_hot(n, max):arr = [0] * maxarr[n] = 1return arrmnist = load_digits()
images = np.array([image.flatten() for image in mnist.images])
targets = np.array([one_hot(n, 10) for n in mnist.target])

MNIST 数据集包含作为 2D 数组表示的图像。然而,由于我们的库目前不支持接受 2D 输入的层,我们需要将这些数组展平成 1D 向量。

one_hot 函数接收一个数字,并为其返回一个长度由数据集中的最大值确定的 one-hot 编码数组。

one_hot(3, 10) => [0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0]

建立模型:

model = nn.Model([nn.Linear(64),nn.Tanh(),nn.Linear(32),nn.Sigmoid(),nn.Linear(10),nn.Softmax()
])

这是一个简单的前馈网络,使用 softmax 函数来输出概率分布。

这个分布指定了在给定输入(本例中为图像)的情况下,每个类别(本例中为每个数字)为真的概率。

训练模型:

model.train(images[:1000], targets[:1000], epochs=50, loss_fn=loss.CategoricalCrossentropy, optimizer=optim.RMSProp(0.001), batch_size=128)

我们只需要这一行代码就可以训练我们的模型。

我决定使用数据集中的前1000张图像来训练模型(总共约有1700张图像)。

随意尝试不同的训练配置,看看模型的反应如何。您可以尝试更改优化器、损失函数或学习率,看看这些更改如何影响训练。

测试模型:

images = images[1000:]
np.random.shuffle(images)for image in images:plt.imshow(image.reshape((8, 8)), cmap='gray')plt.show()pred = np.argmax(model(np.array([image])).value, axis=1)print (pred)

在这里,我们将模型未训练的图像随机打乱顺序。

然后我们逐一查看每张图像,显示它,并让我们的模型预测每张图像所表示的数字。
在这里插入图片描述

这篇关于从零开始学习深度学习库-6:集成新的自动微分模块和MNIST数字分类器的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1101244

相关文章

一文深入详解Python的secrets模块

《一文深入详解Python的secrets模块》在构建涉及用户身份认证、权限管理、加密通信等系统时,开发者最不能忽视的一个问题就是“安全性”,Python在3.6版本中引入了专门面向安全用途的secr... 目录引言一、背景与动机:为什么需要 secrets 模块?二、secrets 模块的核心功能1. 基

一文详解MySQL如何设置自动备份任务

《一文详解MySQL如何设置自动备份任务》设置自动备份任务可以确保你的数据库定期备份,防止数据丢失,下面我们就来详细介绍一下如何使用Bash脚本和Cron任务在Linux系统上设置MySQL数据库的自... 目录1. 编写备份脚本1.1 创建并编辑备份脚本1.2 给予脚本执行权限2. 设置 Cron 任务2

SpringBoot集成LiteFlow实现轻量级工作流引擎的详细过程

《SpringBoot集成LiteFlow实现轻量级工作流引擎的详细过程》LiteFlow是一款专注于逻辑驱动流程编排的轻量级框架,它以组件化方式快速构建和执行业务流程,有效解耦复杂业务逻辑,下面给大... 目录一、基础概念1.1 组件(Component)1.2 规则(Rule)1.3 上下文(Conte

MyBatis Plus 中 update_time 字段自动填充失效的原因分析及解决方案(最新整理)

《MyBatisPlus中update_time字段自动填充失效的原因分析及解决方案(最新整理)》在使用MyBatisPlus时,通常我们会在数据库表中设置create_time和update... 目录前言一、问题现象二、原因分析三、总结:常见原因与解决方法对照表四、推荐写法前言在使用 MyBATis

Go学习记录之runtime包深入解析

《Go学习记录之runtime包深入解析》Go语言runtime包管理运行时环境,涵盖goroutine调度、内存分配、垃圾回收、类型信息等核心功能,:本文主要介绍Go学习记录之runtime包的... 目录前言:一、runtime包内容学习1、作用:① Goroutine和并发控制:② 垃圾回收:③ 栈和

Python使用smtplib库开发一个邮件自动发送工具

《Python使用smtplib库开发一个邮件自动发送工具》在现代软件开发中,自动化邮件发送是一个非常实用的功能,无论是系统通知、营销邮件、还是日常工作报告,Python的smtplib库都能帮助我们... 目录代码实现与知识点解析1. 导入必要的库2. 配置邮件服务器参数3. 创建邮件发送类4. 实现邮件

Python中文件读取操作漏洞深度解析与防护指南

《Python中文件读取操作漏洞深度解析与防护指南》在Web应用开发中,文件操作是最基础也最危险的功能之一,这篇文章将全面剖析Python环境中常见的文件读取漏洞类型,成因及防护方案,感兴趣的小伙伴可... 目录引言一、静态资源处理中的路径穿越漏洞1.1 典型漏洞场景1.2 os.path.join()的陷

Android学习总结之Java和kotlin区别超详细分析

《Android学习总结之Java和kotlin区别超详细分析》Java和Kotlin都是用于Android开发的编程语言,它们各自具有独特的特点和优势,:本文主要介绍Android学习总结之Ja... 目录一、空安全机制真题 1:Kotlin 如何解决 Java 的 NullPointerExceptio

使用vscode搭建pywebview集成vue项目实践

《使用vscode搭建pywebview集成vue项目实践》:本文主要介绍使用vscode搭建pywebview集成vue项目实践,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地... 目录环境准备项目源码下载项目说明调试与生成可执行文件核心代码说明总结本节我们使用pythonpywebv

详解如何使用Python从零开始构建文本统计模型

《详解如何使用Python从零开始构建文本统计模型》在自然语言处理领域,词汇表构建是文本预处理的关键环节,本文通过Python代码实践,演示如何从原始文本中提取多尺度特征,并通过动态调整机制构建更精确... 目录一、项目背景与核心思想二、核心代码解析1. 数据加载与预处理2. 多尺度字符统计3. 统计结果可