李宏毅学习笔记14.ELMO、BERT、GPT

2024-03-14 11:50

本文主要是介绍李宏毅学习笔记14.ELMO、BERT、GPT,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • 前言
  • 之前的做法
    • 独热编码
    • Word Class
    • Word Embedding
    • 缺点
      • 一词多义
  • Embeddings from Language Model(ELMO)
  • Bidirectional Encoder Representations from Transformers
    • Training of BERT
      • Approach 1:MaskedLM
      • Approach 2:Next Sentence Prediction
    • How to use BERT
      • Case 1
      • Case 2
      • Case 3
      • Case 4
    • Enhanced Representation through Knowledge Integration(ERNIE)
    • BERT 结果分析
  • Generative Pre-Training(GPT)

前言

这块内容也是2020版新加的内容,比较新。
Putting Words into Computers
Introduction of ELMO,BERT,GPT
本节内容是如何在电脑上表示(或是说让电脑理解)人类的文字。

之前的做法

独热编码

缺点:词汇之前没有关联。
在这里插入图片描述

Word Class

缺点:太粗糙,同样无法表达猫狗走兽和飞鸟的区别。
在这里插入图片描述

Word Embedding

在这里插入图片描述
这样的表示可以用于很多方面:
在这里插入图片描述

缺点

一词多义

A word can have multiple senses.
Have you paid that money to the bank yet?
It is safest to deposit your money in the bank.
The victim was found lying dead on the river bank.
They stood on the river bank to fish.
The four word tokens have the same word type.
In typical word embedding,each word type has an embedding.
第一句和第二句都是银行,第三句和第四句一样
但是语义是非常丰富的,例如:
The hospital has its own blood bank.
这里还是不是银行的意思?
在这里插入图片描述
应该用上下文词向量来解决这个问题:
Contextualized Word Embedding
· Each word token has its ownembedding(even though it has the same word type)
· The embeddings of word tokens also depend on its context.
在这里插入图片描述
在这里插入图片描述
尽管下面两个bank的意思会不一样,但是在向量表示上应该比较相近。解决这个问题就是ELMO了:

Embeddings from Language Model(ELMO)

ELMO是芝麻街动画片的人物名
在这里插入图片描述
https://arxiv.org/abs/1802.05365
RNN-based language models (trained from lots of sentences)不需要标签就可以训练,只要有句子就可以:
在这里插入图片描述
在这里插入图片描述
红色框部分就是上下文相关的词向量表示。当上下文不一样,这里的结果也会不一样:
在这里插入图片描述
在这里插入图片描述
上面的例子只学习了上文,要看下文就要训练一个反向的RNN
在这里插入图片描述
然后把前向和后向的结果concat起来即可
在这里插入图片描述
除了前向和后向之外,还可做deep
在这里插入图片描述
每层都有输出向量表示,ELMO是所有的隐藏层表示都要。这里不是简单的concat,而是做加权
在这里插入图片描述
在这里插入图片描述
这里的 α 1 , α 2 \alpha_1,\alpha_2 α1,α2是参数,是结合具体的下游任务学出来的(不同任务参数还不一样)。
在这里插入图片描述
上面是ELMO的结果,可以看到Token是没有加上下文的表示,LSTM 1表示通过第一层得到向量表示,LSTM 2是表示通过第二层得到的向量表示,下面是不同下游任务。可以看到不同任务权重不太一样。

Bidirectional Encoder Representations from Transformers

BERT是芝麻街动画片的人物名
在这里插入图片描述
·BERT=Encoder of Transformer
Learned from a large amount of text without annotation(和ELMO一样)
在这里插入图片描述
中文的话,用字比用词效果要好。

Training of BERT

Approach 1:MaskedLM

把15%的词替换为特殊的token(挖洞),然后让BERT把坑填回来。Predicting the
masked word。
在这里插入图片描述
如果两个词填在同一个地方没有违和感那它就有类似的embedding

Approach 2:Next Sentence Prediction

[SEP]:the boundary of two sentences
[CLS]:the position that outputs classification results
在这里插入图片描述
Approaches 1 and 2 are used at the same time.

How to use BERT

训练BERT后不但可以获得词向量表示,由于训练BERT一般和下游任务模型一起训练,所以还会获得别的信息,下面看四种使用BERT的方法。

Case 1

Input:single sentence.
output:class
Example: Sentiment analysis, Document Classification
在这里,Linear Classifier的参数是重头学习,BERT是微调。
在这里插入图片描述

Case 2

在这里插入图片描述
Input:single sentence
output:class of each word
在这里插入图片描述

Case 3

Input:two sentences
output:class
Example:Natural Language Inference
Given a"premise", determining whether a"hypothesis"is T/F/unknown.
在这里插入图片描述

Case 4

阅读理解
Extraction-based Question Answering(QA)(E.g. SQuAD)
在这里插入图片描述
这里的Answer中的 d s , d e d_s,d_e ds,de代表回答的起始词和结束词。
在这里插入图片描述
模型具体如下图:
红色向量和蓝色向量分别代表起始词和结束词,两个向量的维度和下面BERT输出的词向量维度一样。
先确定起始词
在这里插入图片描述
可以看到s=2
再确定结束词:
在这里插入图片描述
可以看到e=3,所以答案是: d 2 d 3 d_2d_3 d2d3

Enhanced Representation through Knowledge Integration(ERNIE)

ERNIE也来自芝麻街。。。而且还和BERT还是好朋友
整个模型专门用于中文。
在这里插入图片描述
因为用BERT来做的时候,只猜单个字太简单,于是有了ERNIE来猜整个词的。
在这里插入图片描述

BERT 结果分析

这里竖向是一个个NLP任务,然后横着的是通过BERT和对应任务进行联动训练以后,把BERT的24层每个单独抽取出来,进行加权相加(和ELMO一样的操作)得到的结果,可以看到各个NLP任务对应的BERT层有哪些最敏感,例如最上面的POS(词性分析)第11到13层的向量贡献最大。
在这里插入图片描述
BERT还有一个很牛的地方,在英文上训练,可以在中文上做应用。(Multilingual BERT)
在这里插入图片描述

Generative Pre-Training(GPT)

GPT是一个非常非常非常大的一个语言模型,看下参数量体会:
在这里插入图片描述
GPT是一个独角兽。
BERT是transformer的encoder,GPT是transformer的decoder部分。
下面看大概的运行过程。里面涉及到self-attention操作。
在这里插入图片描述
在这里插入图片描述
不断往下循环。
GPT很大,很神奇:
Zero-shot Learning:在没有训练的情况下GPT就可以做Reading Comprehension,Summarization,Translation
从可视化上面看,GPT貌似默认就会attention到第一个词。

这篇关于李宏毅学习笔记14.ELMO、BERT、GPT的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!


原文地址:https://blog.csdn.net/oldmao_2001/article/details/105472769
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.chinasem.cn/article/808339

相关文章

Go学习记录之runtime包深入解析

《Go学习记录之runtime包深入解析》Go语言runtime包管理运行时环境,涵盖goroutine调度、内存分配、垃圾回收、类型信息等核心功能,:本文主要介绍Go学习记录之runtime包的... 目录前言:一、runtime包内容学习1、作用:① Goroutine和并发控制:② 垃圾回收:③ 栈和

Android学习总结之Java和kotlin区别超详细分析

《Android学习总结之Java和kotlin区别超详细分析》Java和Kotlin都是用于Android开发的编程语言,它们各自具有独特的特点和优势,:本文主要介绍Android学习总结之Ja... 目录一、空安全机制真题 1:Kotlin 如何解决 Java 的 NullPointerExceptio

重新对Java的类加载器的学习方式

《重新对Java的类加载器的学习方式》:本文主要介绍重新对Java的类加载器的学习方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录1、介绍1.1、简介1.2、符号引用和直接引用1、符号引用2、直接引用3、符号转直接的过程2、加载流程3、类加载的分类3.1、显示

Java学习手册之Filter和Listener使用方法

《Java学习手册之Filter和Listener使用方法》:本文主要介绍Java学习手册之Filter和Listener使用方法的相关资料,Filter是一种拦截器,可以在请求到达Servl... 目录一、Filter(过滤器)1. Filter 的工作原理2. Filter 的配置与使用二、Listen

利用Python快速搭建Markdown笔记发布系统

《利用Python快速搭建Markdown笔记发布系统》这篇文章主要为大家详细介绍了使用Python生态的成熟工具,在30分钟内搭建一个支持Markdown渲染、分类标签、全文搜索的私有化知识发布系统... 目录引言:为什么要自建知识博客一、技术选型:极简主义开发栈二、系统架构设计三、核心代码实现(分步解析

Pytorch微调BERT实现命名实体识别

《Pytorch微调BERT实现命名实体识别》命名实体识别(NER)是自然语言处理(NLP)中的一项关键任务,它涉及识别和分类文本中的关键实体,BERT是一种强大的语言表示模型,在各种NLP任务中显著... 目录环境准备加载预训练BERT模型准备数据集标记与对齐微调 BERT最后总结环境准备在继续之前,确

Java进阶学习之如何开启远程调式

《Java进阶学习之如何开启远程调式》Java开发中的远程调试是一项至关重要的技能,特别是在处理生产环境的问题或者协作开发时,:本文主要介绍Java进阶学习之如何开启远程调式的相关资料,需要的朋友... 目录概述Java远程调试的开启与底层原理开启Java远程调试底层原理JVM参数总结&nbsMbKKXJx

Java深度学习库DJL实现Python的NumPy方式

《Java深度学习库DJL实现Python的NumPy方式》本文介绍了DJL库的背景和基本功能,包括NDArray的创建、数学运算、数据获取和设置等,同时,还展示了如何使用NDArray进行数据预处理... 目录1 NDArray 的背景介绍1.1 架构2 JavaDJL使用2.1 安装DJL2.2 基本操

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用