从头理解transformer,注意力机制(上)

2024-05-11 15:20

本文主要是介绍从头理解transformer,注意力机制(上),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

深入理解注意力机制和Transformer架构,及其在NLP和其他领域的突破。

要想理解transformer,先从编码器解码器结构开始理解

基于transformer发展起来的llm

image-20240510145656186

右边:只有解码器,强项是生成内容

左边:只有编码器,强项是学习和理解语言的内容

编码和解码的码究竟是什么码

图像领域 CNN

文字领域 RNN

image-20240510150013113

从数学角度看,transformer和RNN是一致的,和CNN也是一致的

transformer和RNN从结构上都保留了编码和解码结构

码就是把语言中符号发音等形式不同剥离后的语义关系

编码的两个标准

1.可以数字化

2.数字化的数值可以体现语义之间的相对关系

tokenizer标记器(分词器)和one hot 独热编码

作用都是对最基础的语义单元token进行数字化

image-20240510150714717

标记器和独热编码都能很好达到第一个标准,但第二个标准会出现问题

  1. 标记器信息密度过高 一维

  2. 独热编码密度过低 高维

潜空间

所以找一个维度高,但是又没那么高的空间,协助完成编码和解码的工作。他就是一个纯粹的语义空间

有两个方向

  1. 基于分词后的ID去升维
  2. 基于独热编码降维、

显然降维是更易操作的。这里会用到向量和矩阵相乘的相关知识 https://blog.csdn.net/qq_36372352/article/details/138669909?csdn_share_tail=%7B%22type%22%3A%22blog%22%2C%22rType%22%3A%22article%22%2C%22rId%22%3A%22138669909%22%2C%22source%22%3A%22qq_36372352%22%7D以及神经网络与空间变换的关系https://blog.csdn.net/qq_36372352/article/details/138671246?csdn_share_tail=%7B%22type%22%3A%22blog%22%2C%22rType%22%3A%22article%22%2C%22rId%22%3A%22138671246%22%2C%22source%22%3A%22qq_36372352%22%7D

词嵌入embedding

编码就是先把一个文本里的token都先编成独热码,然后进行降维,相当于是把输入额一句话根据语义投射到一个潜空间中,把高维空间对象投射到低维空间

使用矩阵乘法实现embedding,所以把token投入到潜空间的矩阵叫做嵌入矩阵。

一个token被嵌入以后,就变成了多维的向量,每一个维度都代表一个独立的基础语义

image-20240510163057956

这个token具体的语义是什么要看各个维度分配的值是多少

Word2Vec

像是编词典,里面不需要激活函数,因为只涉及向量求和与向量分解,计算起来更简单。生成的潜空间就是用其他词向量合成目标词向量。只是提供了一个对语义的最初理解,体现了单个token之间的联系。这个潜空间里面词向量对应的词意不依赖作者主观意图。

不同词和不同顺序体现了主观性,这就需要注意力机制了

编码和解码原理:

token经过矩阵编码位词向量,词向量可以解码回token

image-20240510164009590

但采取这种形式是不能训练的

训练有两种方式

CBOW

image-20240510201917029

准备奇数个token,拿掉一个,剩下的分别给同一个嵌入矩阵相乘,把他们变成词向量之后,再把四个向量加在一起合成一个向量.再对和向量进行解码,损失函数会定量去看,和向量解码后得到的token和挖掉的中间token是不是一样的。如果不一样需要修改参数.

目的是训练出体现语义的嵌入矩阵

skip-gram

image-20240510203938034

与CBOW反过来,已知一个token根据他的词向量求出上下文对应的token分量 ,看是不是和训练数据一致

这两种方法可以自监督学习,不需要人为打标签,只要给文本就可以用文本自己挖掉一些空自己训练

image-20240510204204846

注意力

transformer架构

image-20240510204501723

现在的各大模型都是为了适应各种需求对他进行了各种变化和优化

把词和词组合后的语义进行理解,靠的就是注意力机制,图中的multi-head attention

image-20240510204817003

一组词向量经过三个矩阵相乘以后,分别得到Q,K, V三个矩阵,再进行运算最后还是会输出一组词向量。词嵌入已经解决了单个词的语义问题,

输入一组词向量,词向量组成了数据矩阵,输入的是t行的矩阵, 输出也是t行矩阵,输出的列数是一个词向量上它的维度的个数。

Wq,Wk,Wv这三个矩阵按照注意力机制的要求,输入的词向量矩阵都需要先和这三个矩阵相乘之后,才会得到QKV 。

Dout决定了输出的词向量是多少列,也就是多少维度。

注意力机制最值得关注的是得到QKV之后的操作

image-20240510210007692

  1. 先把K进行转置,然后让Q和K的转置相乘,也可以是Q转置和K相乘,会得到一个T行T列的矩阵A,A被称作注意力得分

image-20240510213509986

向量内积a12的大小某种程度能体现出q1和k2两个向量的关系,也就是说Q和K的转置相乘存在A里的数值代表这两组向量他们互相之间的关系是大还是小

每一个词向量都要和包括自己在内的所有其他词向量进行内积运算,如果是垂直他们之间无关。

  1. 对A的每一项进行缩放,除以根号下Dout,让这些数值尽量分散一点,而不是集中在0和1的饱和区。为什么要除是从概率分布考虑的

image-20240510210758657

每一项都除以根号Dout,方差就又变成1,A里面每一项又变成标准正态分布了

  1. 按行计算softmax,得到按行归一的注意力得分A’,再和V进行矩阵相乘。V其实就是表示从词典里查出的token的客观语义,A‘相当于是因为上下文关联而产生的修改系数

    image-20240510214343490

    能对v22’产生影响的 是所有词向量的一个维度。

总结:

Q和K是得到了这一组词向量自己和自己之间的相互关系,再用这个相互关系来修正词向量,让词向量的每一个维度都能得到修正,和V相比,这里修正之后得到的词向量,都会根据上下文进行修正,这些词向量,除了词典里那个客观的语义外,还会根据上下文对语义本身进行一些校准

而以上也就为一句话一段话多个词向量叠在一起这些内容增加了主观性,让你说的话和我说的话可以表达不同意思

这些计算的意义

在没有使用注意力机制之前,词向量虽然具备了词意,词意是字典里的词意,客观词意

当按自己想法将客观词意按不同顺序组合到一起以后,就变成了表达不同语义的文章了,这个时候具备了主观性

注意力需要识别出那些因为上下文关联,而对词典中客观的语义进行调整和改变的幅度。

这篇关于从头理解transformer,注意力机制(上)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/979908

相关文章

基于Redis自动过期的流处理暂停机制

《基于Redis自动过期的流处理暂停机制》基于Redis自动过期的流处理暂停机制是一种高效、可靠且易于实现的解决方案,防止延时过大的数据影响实时处理自动恢复处理,以避免积压的数据影响实时性,下面就来详... 目录核心思路代码实现1. 初始化Redis连接和键前缀2. 接收数据时检查暂停状态3. 检测到延时过

Redis中哨兵机制和集群的区别及说明

《Redis中哨兵机制和集群的区别及说明》Redis哨兵通过主从复制实现高可用,适用于中小规模数据;集群采用分布式分片,支持动态扩展,适合大规模数据,哨兵管理简单但扩展性弱,集群性能更强但架构复杂,根... 目录一、架构设计与节点角色1. 哨兵机制(Sentinel)2. 集群(Cluster)二、数据分片

深入理解go中interface机制

《深入理解go中interface机制》本文主要介绍了深入理解go中interface机制,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学... 目录前言interface使用类型判断总结前言go的interface是一组method的集合,不

C# async await 异步编程实现机制详解

《C#asyncawait异步编程实现机制详解》async/await是C#5.0引入的语法糖,它基于**状态机(StateMachine)**模式实现,将异步方法转换为编译器生成的状态机类,本... 目录一、async/await 异步编程实现机制1.1 核心概念1.2 编译器转换过程1.3 关键组件解析

Redis客户端连接机制的实现方案

《Redis客户端连接机制的实现方案》本文主要介绍了Redis客户端连接机制的实现方案,包括事件驱动模型、非阻塞I/O处理、连接池应用及配置优化,具有一定的参考价值,感兴趣的可以了解一下... 目录1. Redis连接模型概述2. 连接建立过程详解2.1 连php接初始化流程2.2 关键配置参数3. 最大连

Spring Security 单点登录与自动登录机制的实现原理

《SpringSecurity单点登录与自动登录机制的实现原理》本文探讨SpringSecurity实现单点登录(SSO)与自动登录机制,涵盖JWT跨系统认证、RememberMe持久化Token... 目录一、核心概念解析1.1 单点登录(SSO)1.2 自动登录(Remember Me)二、代码分析三、

Go语言并发之通知退出机制的实现

《Go语言并发之通知退出机制的实现》本文主要介绍了Go语言并发之通知退出机制的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧... 目录1、通知退出机制1.1 进程/main函数退出1.2 通过channel退出1.3 通过cont

Spring Boot 中的默认异常处理机制及执行流程

《SpringBoot中的默认异常处理机制及执行流程》SpringBoot内置BasicErrorController,自动处理异常并生成HTML/JSON响应,支持自定义错误路径、配置及扩展,如... 目录Spring Boot 异常处理机制详解默认错误页面功能自动异常转换机制错误属性配置选项默认错误处理

Java Spring的依赖注入理解及@Autowired用法示例详解

《JavaSpring的依赖注入理解及@Autowired用法示例详解》文章介绍了Spring依赖注入(DI)的概念、三种实现方式(构造器、Setter、字段注入),区分了@Autowired(注入... 目录一、什么是依赖注入(DI)?1. 定义2. 举个例子二、依赖注入的几种方式1. 构造器注入(Con

Java中的xxl-job调度器线程池工作机制

《Java中的xxl-job调度器线程池工作机制》xxl-job通过快慢线程池分离短时与长时任务,动态降级超时任务至慢池,结合异步触发和资源隔离机制,提升高频调度的性能与稳定性,支撑高并发场景下的可靠... 目录⚙️ 一、调度器线程池的核心设计 二、线程池的工作流程 三、线程池配置参数与优化 四、总结:线程