OpenAI发布具有1750亿个参数的GPT-3 AI语言模型

2024-04-16 17:08

本文主要是介绍OpenAI发布具有1750亿个参数的GPT-3 AI语言模型,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

论文地址:https://arxiv.org/abs/2005.14165
guthub:https://github.com/openai/gpt-3

OpenAI的一组研究人员最近发表了一篇论文,描述了GPT-3,这是一种具有1,750亿个参数的自然语言深度学习模型,比以前的版本GPT-2高100倍。该模型经过了将近0.5万亿个单词的预训练,并且在不进行微调的情况下,可以在多个NLP基准上达到最先进的性能。
在这里插入图片描述

在arXiv上发表的论文中,由30多位合著者组成的团队描述了该模型和几个实验。研究人员的目标是生产一种NLP系统,该系统可以很好地执行各种任务,而几乎不需要微调,并且以前的工作表明较大的模型可能是解决方案。为了检验该假设,研究小组将其先前模型GPT-2的大小从15亿个参数增加到1750亿个。为了进行培训,团队收集了几个数据集,包括Common Crawl数据集和英语Wikipedia。该模型是根据多个NLP基准进行评估的,匹配了“已关闭”问题解答任务的最新性能,并为LAMBADA创造了新记录 语言建模任务。
在这里插入图片描述
OpenAI去年成为GPT-2的头条新闻,由于“对技术的恶意应用的担忧”,他们决定不发布经过训练的模型的15亿参数版本。GPT-2是基于Transformer架构的许多大型NLP模型之一。这些模型 使用自我监督学习在大型文本语料库(例如内容Wikipedia)上进行了预训练。在这种情况下,不是使用包含输入与预期输出配对的数据集的模型,而是为模型提供了带有单词“ masked”的文本序列,并且必须学习根据周围的上下文预测被屏蔽的单词。在进行此预训练之后,然后使用带有标签的基准数据集对模型进行微调,以用于特定的NLP任务,例如问题解答。

但是,研究人员发现,即使不进行微调,预训练的模型也表现良好,特别是对于在大型数据集上进行预训练的大型模型。今年早些时候,OpenAI发表了一篇论文,假定Transformer模型的几个“ 缩放定律 ”。根据来自多个不同基于Transformer的模型的性能数据,OpenAI得出结论,模型性能(在这种情况下,是测试数据集的交叉熵损失)与模型参数的数量,数据集的大小具有幂律关系。 ,以及用于训练的计算量。增加这三个变量将因此提高性能。

为了进行预培训,团队收集了一个由Common Crawl,WebText,英语Wikipedia和两本书集组成的数据集。为了提高数据质量,研究人员过滤了“常见爬网”以消除冗余。由于Common Crawl是从互联网上抓取的,因此它可能包含用于基准评估的实际测试数据,这会“污染”培训。该小组确实试图消除这种污染。但是,他们承认:

不幸的是,过滤中的错误导致我们忽略了一些重叠,并且由于训练的成本,重新训练模型是不可行的。

该团队使用这些数据来训练该模型的八个版本,范围从1.25亿个参数到完整的1,750亿个参数。在许多类别的数十个NLP基准上对模型进行了评估,在许多情况下,其性能均接近或高于最新水平。为了根据新闻文章生成任务评估模型,团队使用了Amazon Mechanical Turk聘请人类法官来猜测一对文章中哪篇是真实的,哪些是由GPT-3生成的。人类仅在52%的时间内选择了真实的商品;从本质上讲,人类在选择真实商品方面并不比硬币翻转更好。该团队还讨论了该模型的一些弱点。例如,在文本合成中,“ GPT-3样本有时仍会在文档级别进行语义上的重复,在足够长的段落中开始失去连贯性,相互矛盾,并偶尔包含非语义的句子或段落。” 该模型还很难解决“常识物理”问题,例如“如果我将奶酪放进冰箱,它会融化吗?”

NLP研究社区的几位成员在Twitter上评论了该模型的大小。Alchemy API创始人艾略特·特纳(Elliot Turner)推测,训练最大模型的成本可能“接近1200万美元”。Mark Riedl教授对模型尺寸与性能之间的联系提出了解释:

一种假设是,GPT-3具有如此众多的参数(训练的令牌数量的一半),以至于它开始像存储网络一样工作。

与GPT-2一样,OpenAI尚未发布经过​​训练的模型或代码,尽管存在一个GitHub存储库,其中包含一些测试数据集以及该模型生成的文本样本的集合。

这篇关于OpenAI发布具有1750亿个参数的GPT-3 AI语言模型的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/909395

相关文章

C语言中%zu的用法解读

《C语言中%zu的用法解读》size_t是无符号整数类型,用于表示对象大小或内存操作结果,%zu是C99标准中专为size_t设计的printf占位符,避免因类型不匹配导致错误,使用%u或%d可能引发... 目录size_t 类型与 %zu 占位符%zu 的用途替代占位符的风险兼容性说明其他相关占位符验证示

Spring AI使用tool Calling和MCP的示例详解

《SpringAI使用toolCalling和MCP的示例详解》SpringAI1.0.0.M6引入ToolCalling与MCP协议,提升AI与工具交互的扩展性与标准化,支持信息检索、行动执行等... 目录深入探索 Spring AI聊天接口示例Function CallingMCPSTDIOSSE结束语

C语言进阶(预处理命令详解)

《C语言进阶(预处理命令详解)》文章讲解了宏定义规范、头文件包含方式及条件编译应用,强调带参宏需加括号避免计算错误,头文件应声明函数原型以便主函数调用,条件编译通过宏定义控制代码编译,适用于测试与模块... 目录1.宏定义1.1不带参宏1.2带参宏2.头文件的包含2.1头文件中的内容2.2工程结构3.条件编

Go语言并发之通知退出机制的实现

《Go语言并发之通知退出机制的实现》本文主要介绍了Go语言并发之通知退出机制的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧... 目录1、通知退出机制1.1 进程/main函数退出1.2 通过channel退出1.3 通过cont

Go语言编译环境设置教程

《Go语言编译环境设置教程》Go语言支持高并发(goroutine)、自动垃圾回收,编译为跨平台二进制文件,云原生兼容且社区活跃,开发便捷,内置测试与vet工具辅助检测错误,依赖模块化管理,提升开发效... 目录Go语言优势下载 Go  配置编译环境配置 GOPROXYIDE 设置(VS Code)一些基本

三频BE12000国补到手2549元! ROG 魔盒Pro WIFI7电竞AI路由器上架

《三频BE12000国补到手2549元!ROG魔盒ProWIFI7电竞AI路由器上架》近日,华硕带来了ROG魔盒ProWIFI7电竞AI路由器(ROGSTRIXGR7Pro),目前新... 华硕推出了ROG 魔盒Pro WIFI7电竞AI路由器(ROG STRIX GR7 Phttp://www.cppcn

深入理解Go语言中二维切片的使用

《深入理解Go语言中二维切片的使用》本文深入讲解了Go语言中二维切片的概念与应用,用于表示矩阵、表格等二维数据结构,文中通过示例代码介绍的非常详细,需要的朋友们下面随着小编来一起学习学习吧... 目录引言二维切片的基本概念定义创建二维切片二维切片的操作访问元素修改元素遍历二维切片二维切片的动态调整追加行动态

Spring Boot spring-boot-maven-plugin 参数配置详解(最新推荐)

《SpringBootspring-boot-maven-plugin参数配置详解(最新推荐)》文章介绍了SpringBootMaven插件的5个核心目标(repackage、run、start... 目录一 spring-boot-maven-plugin 插件的5个Goals二 应用场景1 重新打包应用

Go语言中make和new的区别及说明

《Go语言中make和new的区别及说明》:本文主要介绍Go语言中make和new的区别及说明,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录1 概述2 new 函数2.1 功能2.2 语法2.3 初始化案例3 make 函数3.1 功能3.2 语法3.3 初始化

Java内存分配与JVM参数详解(推荐)

《Java内存分配与JVM参数详解(推荐)》本文详解JVM内存结构与参数调整,涵盖堆分代、元空间、GC选择及优化策略,帮助开发者提升性能、避免内存泄漏,本文给大家介绍Java内存分配与JVM参数详解,... 目录引言JVM内存结构JVM参数概述堆内存分配年轻代与老年代调整堆内存大小调整年轻代与老年代比例元空