解惑深度学习中的困惑度Perplexity

2024-04-20 16:04

本文主要是介绍解惑深度学习中的困惑度Perplexity,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

困惑度的定义

困惑度(Perplexity)是衡量语言模型好坏的一个常用指标。语言模型(language model)可以预测序列(比如一个句子)中每个时间步词元(比如一个句子中的逐个单词)的概率分布,继而计算一个序列的概率。

一个好的语言模型应该有更高的概率生成一个好的序列,即生成的序列不应该让人感到很困惑,困惑度的核心思想是:序列生成的概率越大,其困惑度越小,因此可以使用困惑度这个指标来评估语言模型的好坏。

深度学习中,困惑度的公式为:

e x p [ − 1 n ∑ t = 1 n l o g P ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) ] exp[-{1 \over{n}}\sum_{t=1}^{n} log P(x_t|x_{t-1},x_{t-2},...,x_1)] exp[n1t=1nlogP(xtxt1,xt2,...,x1)]

困惑度公式来源

我们看下困惑度的公式是怎么得到的。

序列(比如句子)通常由词元(比如单词或字符)组成:

S = ( x 1 , x 2 , . . . , x n ) S=(x_1,x_2,...,x_n) S=(x1,x2,...,xn)

其中 n n n 是序列的长度。生成此序列的概率为:

P ( S ) = P ( x 1 , x 2 , . . . , x n ) ( 1 ) P(S)=P(x_1,x_2,...,x_n) \ \ \ \ \ (1) P(S)=P(x1,x2,...,xn)     (1)

一个序列中每个时间步的词元的生成概率不是完全独立的,而是会受到前面一些词元的影响,因此
P ( x 1 , x 2 , . . . , x n ) = P ( x 1 ) ⋅ P ( x 2 ∣ x 1 ) ⋅ P ( x 3 ∣ x 2 , x 1 ) ⋅ . . . ⋅ P ( x n ∣ x n − 1 , x n − 2 , . . . , w 1 ) = ∏ t = 1 n P ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) ( 2 ) \begin{align} P(x_1,x_2,...,x_n) & = P(x_1)·P(x_2|x_1)·P(x_3|x_2,x_1)·...·P(x_n|x_{n-1},x_{n-2},...,w_1) \\ & = \prod_{t=1}^{n}P(x_t|x_{t-1},x_{t-2},...,x_1) \ \ \ \ \ (2) \\ \end{align} P(x1,x2,...,xn)=P(x1)P(x2x1)P(x3x2,x1)...P(xnxn1,xn2,...,w1)=t=1nP(xtxt1,xt2,...,x1)     (2)
P ( S ) P(S) P(S)越大,则说明语言模型的拟合效果越好,求 P ( S ) P(S) P(S)的最大值相当于求 − l o g P ( W ) -logP(W) logP(W)的最小值,再对词元数 n n n 取个平均得:
− 1 n l o g P ( S ) = − 1 n l o g ∏ t = 1 n P ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) ) = − 1 n ∑ t = 1 n l o g P ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) ( 3 ) \begin{align} -{1 \over{n}}logP(S) & = -{1 \over{n}}log\prod_{t=1}^{n}P(x_t|x_{t-1},x_{t-2},...,x_1)) \\ & = -{1 \over{n}}\sum_{t=1}^{n} log P(x_t|x_{t-1},x_{t-2},...,x_1) \ \ \ \ \ (3) \\ \end{align} n1logP(S)=n1logt=1nP(xtxt1,xt2,...,x1))=n1t=1nlogP(xtxt1,xt2,...,x1)     (3)
( 3 ) (3) (3) 相当于这个序列中 n n n 个词元交叉熵损失的平均值。

困惑度与交叉熵

语言模型本质上也是个分类问题,对于一个包含 n n n 个词元的序列(句子),里面的每个词元都会做一次预测,然后计算预测结果与实际值的交叉熵损失。因为这个序列包含 n n n 个词元,所以要做 n n n 次预测和交叉熵损失的计算才能得到整个序列的平均交叉熵。

交叉熵的理解可参考 交叉熵 这篇文章

假设共有 J J J 个不同的词元

J = ( w 1 , w 2 , . . . , w J ) J=(w_1,w_2,...,w_J) J=(w1,w2,...,wJ)

对于序列 S S S 在第 t t t 个位置上的词元 x t x_t xt ,它属于 J J J 个词元的预测概率分布与真实概率分布分别为 P ( W ) 、 Q ( W ) P(W)、Q(W) P(W)Q(W),其中

p j = P ( W = w j ) = P w j ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) , j = 1 , 2 , 3 , . . . , J p_j=P(W=w_j)=P_{w_j}(x_t|x_{t-1},x_{t-2},...,x_1), \ \ j=1,2,3,...,J pj=P(W=wj)=Pwj(xtxt1,xt2,...,x1),  j=1,2,3,...,J

q j = Q ( W = w j ) = Q w j ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) , j = 1 , 2 , 3 , . . . , J q_j=Q(W=w_j)=Q_{w_j}(x_t|x_{t-1},x_{t-2},...,x_1), \ \ j=1,2,3,...,J qj=Q(W=wj)=Qwj(xtxt1,xt2,...,x1),  j=1,2,3,...,J

则两个概率分布的交叉熵损失可表示为:

H ( Q , P ) = − ∑ j = 1 J q j l o g p j = − ∑ j = 1 J Q w j ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) l o g P w j ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) H(Q,P)=-\sum_{j=1}^Jq_j log p_j=-\sum_{j=1}^J Q_{w_j}(x_t|x_{t-1},x_{t-2},...,x_1) log P_{w_j}(x_t|x_{t-1},x_{t-2},...,x_1) H(Q,P)=j=1Jqjlogpj=j=1JQwj(xtxt1,xt2,...,x1)logPwj(xtxt1,xt2,...,x1)

假设 w w w 是序列 S S S 在第 t t t 个位置上真实的词元,即 x t = w x_t=w xt=w ,则真实分布 Q ( W ) Q(W) Q(W) 可表示为:
Q w j ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) = { 1 , w j = w 0 , w j ≠ w Q_{w_j}(x_t|x_{t-1},x_{t-2},...,x_1)= \left\{\begin{matrix} 1,w_j=w \\ 0,w_j≠w \end{matrix}\right. Qwj(xtxt1,xt2,...,x1)={1,wj=w0,wj=w
这个式子可对应深度学习中分类模型标签向量的表示:一般真实值位置为1,其他位置都为0,故:
H ( Q , P ) = − ∑ j = 1 J Q w j ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) l o g P w j ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) = − [ Q w ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) l o g P w ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) + ∑ w j ≠ w Q w j ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) l o g P w j ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) ] = − [ 1 ⋅ l o g P w ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) + ∑ w j ≠ w 0 ⋅ l o g P w j ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) ] = − l o g P w ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) \begin{align} H(Q,P) & = -\sum_{j=1}^J Q_{w_j}(x_t|x_{t-1},x_{t-2},...,x_1) log P_{w_j}(x_t|x_{t-1},x_{t-2},...,x_1) \\ & = -[Q_{w}(x_t|x_{t-1},x_{t-2},...,x_1) log P_{w}(x_t|x_{t-1},x_{t-2},...,x_1)+\sum_{w_j≠w} Q_{w_j}(x_t|x_{t-1},x_{t-2},...,x_1) log P_{w_j}(x_t|x_{t-1},x_{t-2},...,x_1)] \\ & = -[1·log P_{w}(x_t|x_{t-1},x_{t-2},...,x_1)+\sum_{w_j≠w} 0·log P_{w_j}(x_t|x_{t-1},x_{t-2},...,x_1)] \\ & = -log P_{w}(x_t|x_{t-1},x_{t-2},...,x_1) \\ \end{align} H(Q,P)=j=1JQwj(xtxt1,xt2,...,x1)logPwj(xtxt1,xt2,...,x1)=[Qw(xtxt1,xt2,...,x1)logPw(xtxt1,xt2,...,x1)+wj=wQwj(xtxt1,xt2,...,x1)logPwj(xtxt1,xt2,...,x1)]=[1logPw(xtxt1,xt2,...,x1)+wj=w0logPwj(xtxt1,xt2,...,x1)]=logPw(xtxt1,xt2,...,x1)
序列 S S S 其他位置上词元的交叉熵损失的计算以此类推,所以对于包含 n n n 个词元的整个序列 S S S 的平均交叉熵损失为:

1 n ∑ t = 1 n − l o g P ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) {1 \over{n}}\sum_{t=1}^{n} -log P(x_t|x_{t-1},x_{t-2},...,x_1) n1t=1nlogP(xtxt1,xt2,...,x1)

困惑度只不过是在平均交叉熵外套了一个壳

e x p [ − 1 n ∑ t = 1 n l o g P ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) ] exp[-{1 \over{n}}\sum_{t=1}^{n} log P(x_t|x_{t-1},x_{t-2},...,x_1)] exp[n1t=1nlogP(xtxt1,xt2,...,x1)]

困惑度公式的理解:

  • 在最好的情况下,模型总是完美地估计标签词元的概率为1。在这种情况下,模型的困惑度为1;

  • 在最坏的情况下,模型总是预测标签词元的概率为0。在这种情况下,困惑度是正无穷大。

这篇关于解惑深度学习中的困惑度Perplexity的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/920699

相关文章

深度解析Java DTO(最新推荐)

《深度解析JavaDTO(最新推荐)》DTO(DataTransferObject)是一种用于在不同层(如Controller层、Service层)之间传输数据的对象设计模式,其核心目的是封装数据,... 目录一、什么是DTO?DTO的核心特点:二、为什么需要DTO?(对比Entity)三、实际应用场景解析

深度解析Java项目中包和包之间的联系

《深度解析Java项目中包和包之间的联系》文章浏览阅读850次,点赞13次,收藏8次。本文详细介绍了Java分层架构中的几个关键包:DTO、Controller、Service和Mapper。_jav... 目录前言一、各大包1.DTO1.1、DTO的核心用途1.2. DTO与实体类(Entity)的区别1

深度解析Python装饰器常见用法与进阶技巧

《深度解析Python装饰器常见用法与进阶技巧》Python装饰器(Decorator)是提升代码可读性与复用性的强大工具,本文将深入解析Python装饰器的原理,常见用法,进阶技巧与最佳实践,希望可... 目录装饰器的基本原理函数装饰器的常见用法带参数的装饰器类装饰器与方法装饰器装饰器的嵌套与组合进阶技巧

深度解析Spring Boot拦截器Interceptor与过滤器Filter的区别与实战指南

《深度解析SpringBoot拦截器Interceptor与过滤器Filter的区别与实战指南》本文深度解析SpringBoot中拦截器与过滤器的区别,涵盖执行顺序、依赖关系、异常处理等核心差异,并... 目录Spring Boot拦截器(Interceptor)与过滤器(Filter)深度解析:区别、实现

深度解析Spring AOP @Aspect 原理、实战与最佳实践教程

《深度解析SpringAOP@Aspect原理、实战与最佳实践教程》文章系统讲解了SpringAOP核心概念、实现方式及原理,涵盖横切关注点分离、代理机制(JDK/CGLIB)、切入点类型、性能... 目录1. @ASPect 核心概念1.1 AOP 编程范式1.2 @Aspect 关键特性2. 完整代码实

SpringBoot开发中十大常见陷阱深度解析与避坑指南

《SpringBoot开发中十大常见陷阱深度解析与避坑指南》在SpringBoot的开发过程中,即使是经验丰富的开发者也难免会遇到各种棘手的问题,本文将针对SpringBoot开发中十大常见的“坑... 目录引言一、配置总出错?是不是同时用了.properties和.yml?二、换个位置配置就失效?搞清楚加

Go学习记录之runtime包深入解析

《Go学习记录之runtime包深入解析》Go语言runtime包管理运行时环境,涵盖goroutine调度、内存分配、垃圾回收、类型信息等核心功能,:本文主要介绍Go学习记录之runtime包的... 目录前言:一、runtime包内容学习1、作用:① Goroutine和并发控制:② 垃圾回收:③ 栈和

Python中文件读取操作漏洞深度解析与防护指南

《Python中文件读取操作漏洞深度解析与防护指南》在Web应用开发中,文件操作是最基础也最危险的功能之一,这篇文章将全面剖析Python环境中常见的文件读取漏洞类型,成因及防护方案,感兴趣的小伙伴可... 目录引言一、静态资源处理中的路径穿越漏洞1.1 典型漏洞场景1.2 os.path.join()的陷

Android学习总结之Java和kotlin区别超详细分析

《Android学习总结之Java和kotlin区别超详细分析》Java和Kotlin都是用于Android开发的编程语言,它们各自具有独特的特点和优势,:本文主要介绍Android学习总结之Ja... 目录一、空安全机制真题 1:Kotlin 如何解决 Java 的 NullPointerExceptio

Spring Boot拦截器Interceptor与过滤器Filter深度解析(区别、实现与实战指南)

《SpringBoot拦截器Interceptor与过滤器Filter深度解析(区别、实现与实战指南)》:本文主要介绍SpringBoot拦截器Interceptor与过滤器Filter深度解析... 目录Spring Boot拦截器(Interceptor)与过滤器(Filter)深度解析:区别、实现与实