小白也能看懂的self-attention教程

2024-04-10 23:44

本文主要是介绍小白也能看懂的self-attention教程,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1. 引言

自从2017年论文《Attention Is All You Need》问世以来,基于AttentionTransformer网络在NLP领域和计算视觉CV领域都得到了广泛的应用。

本文旨在用简单易懂的语句来告诉大家self-attention的数学原理,并配以尽可能直观的图片来进行讲解说明,希望大家可以实现自己的自注意力模块!

闲话少说,我们直接开始吧!

2. 定义

在原始Transformer论文中,self-attention主要用于为单词生成新的向量表示,这些向量表示可以帮助机器理解句子中不同单词之间的中重要程度。它的输入为用单词嵌入向量(token embeddings)用来代替文本语句,token embedding实质上就是单词的多维的数字表示。而经过self-attention处理后,将这个输入序列转换成一个新的表示,同时可以保留原始单词输入语序,使其成为Transformer等强大人工智能模型的重要组成部分。

在心理学中,注意力是有选择地专注于一件或几件事情而忽略其他不太重要的事情的认知过程。神经网络被认为是以简化方式来模仿人脑的动作。注意力机制也是类似,通过它可以让神经网络有选择地专注于一些重要的输入,而忽略不太重要的输入。

我们来打个比方,假设我们正在查看一张幼儿园毕业照的合影。通常,会有好几排老师学生组成的队列,而老师一般坐在多个孩子的中间。现在,如果有人问问题,“一共有多少人?”,你会如何回答?

只需数人头,对吧?大家无需考虑照片中的任何其他内容。现在,如果有人问一个不同的问题,“照片中的老师是谁?”,你的大脑确切地知道该怎么做。它只会开始寻找照片中中间位置具有成年人特征的人,其余的孩子将被忽略。这就是我们的大脑非常擅长实现的“注意力”。

3. 准备输入

接着,我们通过一个具体的示例,来对自注意力机制进行讲解。假设我们有三个四维的token embedding作为self-attention的输入,换句话说就是我们有三个words作为输入,我们将每个word用一个四维的向量进行代替,如下所示:

Input 1: [1, 0, 1, 0] 
Input 2: [0, 2, 0, 2]
Input 3: [1, 1, 1, 1]

图示如下:
在这里插入图片描述

4. 初始化权重

接着,我们需要将每个input和三个权重矩阵分别相乘,进而得到我们的key(橙色),query(红色),value(紫色)。如下:
在这里插入图片描述

由于我们的inputshape为1×4,假设keyqueryvalue的shape为1×3,因此可以推出与input相乘的三个权重矩阵的shape均为4×3。观察上图,每个输入(绿色)都乘以一组keys的权重、一组querys的权重和一组values的权重,然后得到对应的key(橙色),query(红色),value(紫色)。

在我们的例子中,我们将三组权重初始化如下:

# init weight for key
w_key=[[0, 0, 1],[1, 1, 0],[0, 1, 0],[1, 1, 0]]# init weight for queryw_query=[[1, 0, 1],[1, 0, 0],[0, 0, 1],[0, 1, 1]]# init weight for valuew_value=[[0, 2, 0],[0, 3, 0],[1, 0, 3],[1, 1, 0]]

在神经网络初始化权重设置中,这些权重通常是很小的浮点数,一般使用随机分布(如Gaussian、Xavier)来随机初始化。权重初始化放在训练之前。

5. 计算key

经过以上准备工作,现在我们有了三组权重,让我们获得每个输入下的keyqueryvalue的向量表示。

首先来针对input1计算key:

               [0, 0, 1]
[1, 0, 1, 0] x [1, 1, 0] = [0, 1, 1][0, 1, 0][1, 1, 0]

接着使用同样的weight来为输入input2计算对应的key:

               [0, 0, 1]
[0, 2, 0, 2] x [1, 1, 0] = [4, 4, 0][0, 1, 0][1, 1, 0] 

接着使用同样的weight来为输入input3计算对应的key:

               [0, 0, 1]
[1, 1, 1, 1] x [1, 1, 0] = [2, 3, 1][0, 1, 0][1, 1, 0]

更快的方法是对合并上述操作进行矩阵运算:

               [0, 0, 1]
[1, 0, 1, 0]   [1, 1, 0]   [0, 1, 1]
[0, 2, 0, 2] x [0, 1, 0] = [4, 4, 0]
[1, 1, 1, 1]   [1, 1, 0]   [2, 3, 1]

图示如下:
在这里插入图片描述

6. 计算value和query

我们使用同样的方法来获取每个输入对应的value,如下:

               [0, 2, 0]
[1, 0, 1, 0]   [0, 3, 0]   [1, 2, 3] 
[0, 2, 0, 2] x [1, 0, 3] = [2, 8, 0]
[1, 1, 1, 1]   [1, 1, 0]   [2, 6, 3]

图示如下:
在这里插入图片描述

对于query,也进行类似操作,如下:

               [1, 0, 1]
[1, 0, 1, 0]   [1, 0, 0]   [1, 0, 2]
[0, 2, 0, 2] x [0, 0, 1] = [2, 2, 2]
[1, 1, 1, 1]   [0, 1, 1]   [2, 1, 3]

图示如下:
在这里插入图片描述

7. 计算attention scores

为了获得注意力得分(attention scores),我们用input1query(红色)和input1,input2,input3key(橙色)的转置分别计算点积。因此针对input1我们获得了3个注意力得分(蓝色),分别表示input1input1,intpu2,intpu3的注意力得分。

            [0, 4, 2]
[1, 0, 2] x [1, 4, 3] = [2, 4, 4][1, 0, 1]

图示如下:
在这里插入图片描述

请注意,我们只使用input1中的query。我们针对其他输入inputquery可以重复同样的步骤,不在累述。

8. 计算softmax

我们在得到了针对input1queryattention scores后,我们可以使用softmax函数来执行归一化操作,使得各项相加后和为1,如下:

softmax([2, 4, 4]) = [0.0, 0.5, 0.5]

图示如下:
在这里插入图片描述

请注意,为了便于阅读,我们针对softmax输出进行四舍五入到小数点后1位。

9. 与values相乘

接着将每个输入的softmax之后的注意力得分(蓝色)乘以其相应的值(紫色)。这将产生3个alignment vectors(黄色)。在本文中,我们将把它们称为weighted values。如下:

1: 0.0 * [1, 2, 3] = [0.0, 0.0, 0.0]
2: 0.5 * [2, 8, 0] = [1.0, 4.0, 0.0]
3: 0.5 * [2, 6, 3] = [1.0, 3.0, 1.5]

图示如下:
在这里插入图片描述

10. 对weighted values求和得到output

在上一步骤中,我们针对input1query(红色)产生了三个weighted values(黄色),我们将这三个weighted values 按元素相加,得到我们的输出output1(深绿色),表示针对input1中的query与所有输入的key(包含input1)之间的atten score作为对value求和时的权重。

  [0.0, 0.0, 0.0]
+ [1.0, 4.0, 0.0]
+ [1.0, 3.0, 1.5]
-----------------
= [2.0, 7.0, 1.5]

图示如下:
在这里插入图片描述

11. 针对其他输入重复即可

现在我们已经完成了针对output1的计算可视化过程,那么对于output2output3我们只需要重复上述步骤4到7即可。我相信大家可以自己动身计算咯!
在这里插入图片描述

注意:由于计算atten score时使用的时点积操作,所以queryvalue的维度必须始终相同。但是,value的维度可能与queryvalue不同。由此产生的输出将和value的维度保持一致。

12. 总结

本文重点介绍了自注意力机制的相关原理,transformer正是利用注意力机制的力量在自然语言处理行业取得前所未有的成果。希望大家可以通过本文,对自注意力机制有直观的理解!

您学废了嘛?

13. 参考

本文参考链接如下:

链接1:戳我
链接2:戳我

这篇关于小白也能看懂的self-attention教程的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/892491

相关文章

基于C#实现PDF转图片的详细教程

《基于C#实现PDF转图片的详细教程》在数字化办公场景中,PDF文件的可视化处理需求日益增长,本文将围绕Spire.PDFfor.NET这一工具,详解如何通过C#将PDF转换为JPG、PNG等主流图片... 目录引言一、组件部署二、快速入门:PDF 转图片的核心 C# 代码三、分辨率设置 - 清晰度的决定因

Java Scanner类解析与实战教程

《JavaScanner类解析与实战教程》JavaScanner类(java.util包)是文本输入解析工具,支持基本类型和字符串读取,基于Readable接口与正则分隔符实现,适用于控制台、文件输... 目录一、核心设计与工作原理1.底层依赖2.解析机制A.核心逻辑基于分隔符(delimiter)和模式匹

spring AMQP代码生成rabbitmq的exchange and queue教程

《springAMQP代码生成rabbitmq的exchangeandqueue教程》使用SpringAMQP代码直接创建RabbitMQexchange和queue,并确保绑定关系自动成立,简... 目录spring AMQP代码生成rabbitmq的exchange and 编程queue执行结果总结s

python使用Akshare与Streamlit实现股票估值分析教程(图文代码)

《python使用Akshare与Streamlit实现股票估值分析教程(图文代码)》入职测试中的一道题,要求:从Akshare下载某一个股票近十年的财务报表包括,资产负债表,利润表,现金流量表,保存... 目录一、前言二、核心知识点梳理1、Akshare数据获取2、Pandas数据处理3、Matplotl

Python pandas库自学超详细教程

《Pythonpandas库自学超详细教程》文章介绍了Pandas库的基本功能、安装方法及核心操作,涵盖数据导入(CSV/Excel等)、数据结构(Series、DataFrame)、数据清洗、转换... 目录一、什么是Pandas库(1)、Pandas 应用(2)、Pandas 功能(3)、数据结构二、安

2025版mysql8.0.41 winx64 手动安装详细教程

《2025版mysql8.0.41winx64手动安装详细教程》本文指导Windows系统下MySQL安装配置,包含解压、设置环境变量、my.ini配置、初始化密码获取、服务安装与手动启动等步骤,... 目录一、下载安装包二、配置环境变量三、安装配置四、启动 mysql 服务,修改密码一、下载安装包安装地

电脑提示d3dx11_43.dll缺失怎么办? DLL文件丢失的多种修复教程

《电脑提示d3dx11_43.dll缺失怎么办?DLL文件丢失的多种修复教程》在使用电脑玩游戏或运行某些图形处理软件时,有时会遇到系统提示“d3dx11_43.dll缺失”的错误,下面我们就来分享超... 在计算机使用过程中,我们可能会遇到一些错误提示,其中之一就是缺失某个dll文件。其中,d3dx11_4

Linux下在线安装启动VNC教程

《Linux下在线安装启动VNC教程》本文指导在CentOS7上在线安装VNC,包含安装、配置密码、启动/停止、清理重启步骤及注意事项,强调需安装VNC桌面以避免黑屏,并解决端口冲突和目录权限问题... 目录描述安装VNC安装 VNC 桌面可能遇到的问题总结描js述linux中的VNC就类似于Window

Go语言编译环境设置教程

《Go语言编译环境设置教程》Go语言支持高并发(goroutine)、自动垃圾回收,编译为跨平台二进制文件,云原生兼容且社区活跃,开发便捷,内置测试与vet工具辅助检测错误,依赖模块化管理,提升开发效... 目录Go语言优势下载 Go  配置编译环境配置 GOPROXYIDE 设置(VS Code)一些基本

小白也能轻松上手! 路由器设置优化指南

《小白也能轻松上手!路由器设置优化指南》在日常生活中,我们常常会遇到WiFi网速慢的问题,这主要受到三个方面的影响,首要原因是WiFi产品的配置优化不合理,其次是硬件性能的不足,以及宽带线路本身的质... 在数字化时代,网络已成为生活必需品,追剧、游戏、办公、学习都离不开稳定高速的网络。但很多人面对新路由器