【TensorFlow深度学习】前向传播实战:从理论到代码实现

2024-04-27 11:04

本文主要是介绍【TensorFlow深度学习】前向传播实战:从理论到代码实现,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

前向传播实战:从理论到代码实现

    • 1. 前向传播理论基础
      • 1.1 激活函数
      • 1.2 损失函数
    • 2. 构建神经网络
      • 2.1 导入TensorFlow
      • 2.2 定义网络参数
      • 2.3 初始化权重和偏置
      • 2.4 实现前向传播
    • 3. 损失函数和梯度计算
      • 3.1 定义损失函数
      • 3.2 计算梯度
    • 4. 参数更新和训练过程
      • 4.1 选择优化器
      • 4.2 更新参数
      • 4.3 训练循环
    • 5. 结果评估
      • 5.1 模型预测
      • 5.2 计算准确率
    • 6. 总结

在深度学习中,前向传播是神经网络核心算法之一,它涉及从输入层到输出层的数据传递和计算过程。本文将深入探讨前向传播的理论基础,并展示如何在TensorFlow框架中实现这一过程。我们将通过构建一个简单的三层神经网络,来理解前向传播的每个步骤。

1. 前向传播理论基础

前向传播是神经网络中信号从输入层通过隐藏层传递到输出层的过程。在数学上,一个神经网络层的输出可以通过以下公式计算:
[ \text{Output} = \text{Activation}(\text{Weights} \times \text{Input} + \text{Bias}) ]
其中,Activation是激活函数,Weights是权重矩阵,Input是输入数据,Bias是偏置项。

1.1 激活函数

激活函数在神经网络中起到非线性变换的作用,常见的激活函数包括ReLU、Sigmoid和Tanh等。

1.2 损失函数

损失函数用于评估神经网络的输出与真实值之间的差异,常见的损失函数包括均方误差(MSE)和交叉熵(Cross-Entropy)等。

2. 构建神经网络

在TensorFlow中,我们可以通过以下步骤构建一个简单的三层神经网络:

2.1 导入TensorFlow

import tensorflow as tf

2.2 定义网络参数

input_size = 784  # 输入特征长度
hidden_size_1 = 256  # 第一个隐藏层节点数
hidden_size_2 = 128  # 第二个隐藏层节点数
output_size = 10  # 输出层节点数(例如MNIST手写数字识别)

2.3 初始化权重和偏置

# 权重和偏置初始化为正态分布
weights_1 = tf.Variable(tf.random.normal([input_size, hidden_size_1]))
biases_1 = tf.Variable(tf.random.normal([hidden_size_1]))
weights_2 = tf.Variable(tf.random.normal([hidden_size_1, hidden_size_2]))
biases_2 = tf.Variable(tf.random.normal([hidden_size_2]))
weights_out = tf.Variable(tf.random.normal([hidden_size_2, output_size]))
biases_out = tf.Variable(tf.random.normal([output_size]))

2.4 实现前向传播

def forward_propagation(inputs):with tf.GradientTape() as tape:# 第一个隐藏层的激活值hidden_1 = tf.nn.relu(tf.matmul(inputs, weights_1) + biases_1)# 第二个隐藏层的激活值hidden_2 = tf.nn.relu(tf.matmul(hidden_1, weights_2) + biases_2)# 输出层的原始分数(未应用激活函数)outputs = tf.matmul(hidden_2, weights_out) + biases_outreturn outputs

3. 损失函数和梯度计算

在前向传播的基础上,我们定义损失函数并计算梯度,以便进行参数更新。

3.1 定义损失函数

def compute_loss(outputs, labels):return tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels=labels, logits=outputs))

3.2 计算梯度

with tf.GradientTape() as tape:logits = forward_propagation(inputs)loss = compute_loss(logits, labels)
grads = tape.gradient(loss, [weights_1, biases_1, weights_2, biases_2, weights_out, biases_out])

4. 参数更新和训练过程

使用优化器根据计算出的梯度更新网络参数。

4.1 选择优化器

optimizer = tf.optimizers.Adam()

4.2 更新参数

optimizer.apply_gradients(zip(grads, [weights_1, biases_1, weights_2, biases_2, weights_out, biases_out]))

4.3 训练循环

for epoch in range(num_epochs):for step, (x_batch, y_batch) in enumerate(train_dataset):with tf.GradientTape() as tape:logits = forward_propagation(x_batch)loss = compute_loss(logits, y_batch)grads = tape.gradient(loss, tf.trainable_variables())optimizer.apply_gradients(zip(grads, tf.trainable_variables()))if step % 100 == 0:print(f"Epoch {epoch}, Step {step}, Loss: {loss.numpy()}")

5. 结果评估

在训练完成后,我们通常需要评估模型的性能。

5.1 模型预测

predictions = forward_propagation(test_inputs)

5.2 计算准确率

accuracy = tf.reduce_mean(tf.cast(tf.equal(tf.argmax(predictions, 1), tf.argmax(test_labels, 1)), tf.float32))
print(f"Accuracy: {accuracy.numpy()}")

6. 总结

本文详细介绍了前向传播的理论基础和在TensorFlow中的实现方法。通过构建一个简单的神经网络模型,我们展示了从初始化参数到前向传播,再到损失计算和参数更新的完整流程。这为进一步探索深度学习模型提供了坚实的基础。

这篇关于【TensorFlow深度学习】前向传播实战:从理论到代码实现的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!


原文地址:
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.chinasem.cn/article/940331

相关文章

Python实例题之pygame开发打飞机游戏实例代码

《Python实例题之pygame开发打飞机游戏实例代码》对于python的学习者,能够写出一个飞机大战的程序代码,是不是感觉到非常的开心,:本文主要介绍Python实例题之pygame开发打飞机... 目录题目pygame-aircraft-game使用 Pygame 开发的打飞机游戏脚本代码解释初始化部

Python实现精准提取 PDF中的文本,表格与图片

《Python实现精准提取PDF中的文本,表格与图片》在实际的系统开发中,处理PDF文件不仅限于读取整页文本,还有提取文档中的表格数据,图片或特定区域的内容,下面我们来看看如何使用Python实... 目录安装 python 库提取 PDF 文本内容:获取整页文本与指定区域内容获取页面上的所有文本内容获取

基于Python实现一个Windows Tree命令工具

《基于Python实现一个WindowsTree命令工具》今天想要在Windows平台的CMD命令终端窗口中使用像Linux下的tree命令,打印一下目录结构层级树,然而还真有tree命令,但是发现... 目录引言实现代码使用说明可用选项示例用法功能特点添加到环境变量方法一:创建批处理文件并添加到PATH1

Java使用HttpClient实现图片下载与本地保存功能

《Java使用HttpClient实现图片下载与本地保存功能》在当今数字化时代,网络资源的获取与处理已成为软件开发中的常见需求,其中,图片作为网络上最常见的资源之一,其下载与保存功能在许多应用场景中都... 目录引言一、Apache HttpClient简介二、技术栈与环境准备三、实现图片下载与保存功能1.

canal实现mysql数据同步的详细过程

《canal实现mysql数据同步的详细过程》:本文主要介绍canal实现mysql数据同步的详细过程,本文通过实例图文相结合给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的... 目录1、canal下载2、mysql同步用户创建和授权3、canal admin安装和启动4、canal

Nexus安装和启动的实现教程

《Nexus安装和启动的实现教程》:本文主要介绍Nexus安装和启动的实现教程,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、Nexus下载二、Nexus安装和启动三、关闭Nexus总结一、Nexus下载官方下载链接:DownloadWindows系统根

SpringBoot集成LiteFlow实现轻量级工作流引擎的详细过程

《SpringBoot集成LiteFlow实现轻量级工作流引擎的详细过程》LiteFlow是一款专注于逻辑驱动流程编排的轻量级框架,它以组件化方式快速构建和执行业务流程,有效解耦复杂业务逻辑,下面给大... 目录一、基础概念1.1 组件(Component)1.2 规则(Rule)1.3 上下文(Conte

Java中Map.Entry()含义及方法使用代码

《Java中Map.Entry()含义及方法使用代码》:本文主要介绍Java中Map.Entry()含义及方法使用的相关资料,Map.Entry是Java中Map的静态内部接口,用于表示键值对,其... 目录前言 Map.Entry作用核心方法常见使用场景1. 遍历 Map 的所有键值对2. 直接修改 Ma

MySQL 横向衍生表(Lateral Derived Tables)的实现

《MySQL横向衍生表(LateralDerivedTables)的实现》横向衍生表适用于在需要通过子查询获取中间结果集的场景,相对于普通衍生表,横向衍生表可以引用在其之前出现过的表名,本文就来... 目录一、横向衍生表用法示例1.1 用法示例1.2 使用建议前面我们介绍过mysql中的衍生表(From子句

Mybatis的分页实现方式

《Mybatis的分页实现方式》MyBatis的分页实现方式主要有以下几种,每种方式适用于不同的场景,且在性能、灵活性和代码侵入性上有所差异,对Mybatis的分页实现方式感兴趣的朋友一起看看吧... 目录​1. 原生 SQL 分页(物理分页)​​2. RowBounds 分页(逻辑分页)​​3. Page