OpenAI发布具有1750亿个参数的GPT-3 AI语言模型

2024-04-16 17:08

本文主要是介绍OpenAI发布具有1750亿个参数的GPT-3 AI语言模型,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

论文地址:https://arxiv.org/abs/2005.14165
guthub:https://github.com/openai/gpt-3

OpenAI的一组研究人员最近发表了一篇论文,描述了GPT-3,这是一种具有1,750亿个参数的自然语言深度学习模型,比以前的版本GPT-2高100倍。该模型经过了将近0.5万亿个单词的预训练,并且在不进行微调的情况下,可以在多个NLP基准上达到最先进的性能。
在这里插入图片描述

在arXiv上发表的论文中,由30多位合著者组成的团队描述了该模型和几个实验。研究人员的目标是生产一种NLP系统,该系统可以很好地执行各种任务,而几乎不需要微调,并且以前的工作表明较大的模型可能是解决方案。为了检验该假设,研究小组将其先前模型GPT-2的大小从15亿个参数增加到1750亿个。为了进行培训,团队收集了几个数据集,包括Common Crawl数据集和英语Wikipedia。该模型是根据多个NLP基准进行评估的,匹配了“已关闭”问题解答任务的最新性能,并为LAMBADA创造了新记录 语言建模任务。
在这里插入图片描述
OpenAI去年成为GPT-2的头条新闻,由于“对技术的恶意应用的担忧”,他们决定不发布经过训练的模型的15亿参数版本。GPT-2是基于Transformer架构的许多大型NLP模型之一。这些模型 使用自我监督学习在大型文本语料库(例如内容Wikipedia)上进行了预训练。在这种情况下,不是使用包含输入与预期输出配对的数据集的模型,而是为模型提供了带有单词“ masked”的文本序列,并且必须学习根据周围的上下文预测被屏蔽的单词。在进行此预训练之后,然后使用带有标签的基准数据集对模型进行微调,以用于特定的NLP任务,例如问题解答。

但是,研究人员发现,即使不进行微调,预训练的模型也表现良好,特别是对于在大型数据集上进行预训练的大型模型。今年早些时候,OpenAI发表了一篇论文,假定Transformer模型的几个“ 缩放定律 ”。根据来自多个不同基于Transformer的模型的性能数据,OpenAI得出结论,模型性能(在这种情况下,是测试数据集的交叉熵损失)与模型参数的数量,数据集的大小具有幂律关系。 ,以及用于训练的计算量。增加这三个变量将因此提高性能。

为了进行预培训,团队收集了一个由Common Crawl,WebText,英语Wikipedia和两本书集组成的数据集。为了提高数据质量,研究人员过滤了“常见爬网”以消除冗余。由于Common Crawl是从互联网上抓取的,因此它可能包含用于基准评估的实际测试数据,这会“污染”培训。该小组确实试图消除这种污染。但是,他们承认:

不幸的是,过滤中的错误导致我们忽略了一些重叠,并且由于训练的成本,重新训练模型是不可行的。

该团队使用这些数据来训练该模型的八个版本,范围从1.25亿个参数到完整的1,750亿个参数。在许多类别的数十个NLP基准上对模型进行了评估,在许多情况下,其性能均接近或高于最新水平。为了根据新闻文章生成任务评估模型,团队使用了Amazon Mechanical Turk聘请人类法官来猜测一对文章中哪篇是真实的,哪些是由GPT-3生成的。人类仅在52%的时间内选择了真实的商品;从本质上讲,人类在选择真实商品方面并不比硬币翻转更好。该团队还讨论了该模型的一些弱点。例如,在文本合成中,“ GPT-3样本有时仍会在文档级别进行语义上的重复,在足够长的段落中开始失去连贯性,相互矛盾,并偶尔包含非语义的句子或段落。” 该模型还很难解决“常识物理”问题,例如“如果我将奶酪放进冰箱,它会融化吗?”

NLP研究社区的几位成员在Twitter上评论了该模型的大小。Alchemy API创始人艾略特·特纳(Elliot Turner)推测,训练最大模型的成本可能“接近1200万美元”。Mark Riedl教授对模型尺寸与性能之间的联系提出了解释:

一种假设是,GPT-3具有如此众多的参数(训练的令牌数量的一半),以至于它开始像存储网络一样工作。

与GPT-2一样,OpenAI尚未发布经过​​训练的模型或代码,尽管存在一个GitHub存储库,其中包含一些测试数据集以及该模型生成的文本样本的集合。

这篇关于OpenAI发布具有1750亿个参数的GPT-3 AI语言模型的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/909395

相关文章

C语言中位操作的实际应用举例

《C语言中位操作的实际应用举例》:本文主要介绍C语言中位操作的实际应用,总结了位操作的使用场景,并指出了需要注意的问题,如可读性、平台依赖性和溢出风险,文中通过代码介绍的非常详细,需要的朋友可以参... 目录1. 嵌入式系统与硬件寄存器操作2. 网络协议解析3. 图像处理与颜色编码4. 高效处理布尔标志集合

SpringBoot请求参数接收控制指南分享

《SpringBoot请求参数接收控制指南分享》:本文主要介绍SpringBoot请求参数接收控制指南,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录Spring Boot 请求参数接收控制指南1. 概述2. 有注解时参数接收方式对比3. 无注解时接收参数默认位置

Go语言开发实现查询IP信息的MCP服务器

《Go语言开发实现查询IP信息的MCP服务器》随着MCP的快速普及和广泛应用,MCP服务器也层出不穷,本文将详细介绍如何在Go语言中使用go-mcp库来开发一个查询IP信息的MCP... 目录前言mcp-ip-geo 服务器目录结构说明查询 IP 信息功能实现工具实现工具管理查询单个 IP 信息工具的实现服

Python使用getopt处理命令行参数示例解析(最佳实践)

《Python使用getopt处理命令行参数示例解析(最佳实践)》getopt模块是Python标准库中一个简单但强大的命令行参数处理工具,它特别适合那些需要快速实现基本命令行参数解析的场景,或者需要... 目录为什么需要处理命令行参数?getopt模块基础实际应用示例与其他参数处理方式的比较常见问http

C 语言中enum枚举的定义和使用小结

《C语言中enum枚举的定义和使用小结》在C语言里,enum(枚举)是一种用户自定义的数据类型,它能够让你创建一组具名的整数常量,下面我会从定义、使用、特性等方面详细介绍enum,感兴趣的朋友一起看... 目录1、引言2、基本定义3、定义枚举变量4、自定义枚举常量的值5、枚举与switch语句结合使用6、枚

Linux内核参数配置与验证详细指南

《Linux内核参数配置与验证详细指南》在Linux系统运维和性能优化中,内核参数(sysctl)的配置至关重要,本文主要来聊聊如何配置与验证这些Linux内核参数,希望对大家有一定的帮助... 目录1. 引言2. 内核参数的作用3. 如何设置内核参数3.1 临时设置(重启失效)3.2 永久设置(重启仍生效

使用Python构建一个Hexo博客发布工具

《使用Python构建一个Hexo博客发布工具》虽然Hexo的命令行工具非常强大,但对于日常的博客撰写和发布过程,我总觉得缺少一个直观的图形界面来简化操作,下面我们就来看看如何使用Python构建一个... 目录引言Hexo博客系统简介设计需求技术选择代码实现主框架界面设计核心功能实现1. 发布文章2. 加

售价599元起! 华为路由器X1/Pro发布 配置与区别一览

《售价599元起!华为路由器X1/Pro发布配置与区别一览》华为路由器X1/Pro发布,有朋友留言问华为路由X1和X1Pro怎么选择,关于这个问题,本期图文将对这二款路由器做了期参数对比,大家看... 华为路由 X1 系列已经正式发布并开启预售,将在 4 月 25 日 10:08 正式开售,两款产品分别为华

SpringMVC获取请求参数的方法

《SpringMVC获取请求参数的方法》:本文主要介绍SpringMVC获取请求参数的方法,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下... 目录1、通过ServletAPI获取2、通过控制器方法的形参获取请求参数3、@RequestParam4、@

Go 语言中的select语句详解及工作原理

《Go语言中的select语句详解及工作原理》在Go语言中,select语句是用于处理多个通道(channel)操作的一种控制结构,它类似于switch语句,本文给大家介绍Go语言中的select语... 目录Go 语言中的 select 是做什么的基本功能语法工作原理示例示例 1:监听多个通道示例 2:带