三篇论文解决了大型语言模型 (LLM) 的三个不同问题

2023-12-12 09:01

本文主要是介绍三篇论文解决了大型语言模型 (LLM) 的三个不同问题,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

讨论三篇论文,它们解决了大型语言模型 (LLM) 的三个不同问题类别:

  1. 减少幻觉。Reducing hallucinations.

  2. 增强小型、开放可用模型的推理能力。Enhancing the reasoning capabilities of small, openly available models.

  3. 加深我们对transformer架构的理解,并有可能简化transformer架构。Deepening our understanding of, and potentially simplifying, the transformer architecture.

Fine-tuning Language Models for Factuality

https://arxiv.org/pdf/2311.08401.pdf 

这篇文章介绍了一种无需人工标注就可以改进语言模型事实正确性的方法。

主要做法是:

  1. 提出了两种自动估计长文本生成质量的方法:参考知识库一致性测量和模型自信水平测量。

  2. 根据这两种质量估计方法从未标注的数据集中采样优先级对,其中优选分数更高的文本作为preferred response。

  3. 使用Direct Preference Optimization算法对语言模型进行调优,使其在未来生成更多事实正确的文本。

  4. 在两个评价事实正确性的数据集上进行实验,结果表明只使用自动采样的优先级对就可以有效改进模型事实正确性,使错误率比RLHF模型或解码时增强事实正确性的基线方法下降超过50%。

  5. 同时探讨了事实排查参考知识和模型自信的优先级对,以及与其他方法如ITI和DOLA的结合效果。

RLAIF: Scaling Reinforcement Learning from Human Feedback with AI Feedback

https://arxiv.org/pdf/2309.00267.pdf

这篇文章主要介绍了使用AI生成反馈(RLAIF)进行强化学习的研究工作,其主要贡献如下:

  1. 该工作证明RLAIF在概括性、有用对话生成和无害对话生成三个文本生成任务上与使用人类反馈(RLHF)取得了相当或更好的表现,这与人类评估员的评价一致。

  2. 它表明,即使AI生成反馈模型的规模与  policy模型一致,RLAIF也可以比仅使用监督学习的基线模型取得更好的效果。这意味着RLAIF可能成为一种自我改进的方法。

  3. 直接使用AI模型直接提供奖励信号,而不需要将AI生成的偏好标签转化为奖励模型,在概括性任务上取得的效果优于前者。

  4. 它对采用不同的提示技巧生成AI标签进行了研究,发现要求AI给出思考过程能够更好地与人类偏好匹配,而采用实例学习效果不一。

  5. 研究了AI生成标签模型规模与标签质量的关系,发现标签质量随模型规模的增大不断提高。

Direct Preference Optimization: Your Language Model is Secretly a Reward Model

https://arxiv.org/pdf/2305.18290.pdf

主要研究直接优化偏好(Direct Preference Optimization,简称DPO),一种不使用强化学习就可以从人类偏好数据直接训练语言模型的简单算法。

文章的主要贡献包括:

  1. 提出了DPO算法,它可以在一个训练步骤内直接优化语言模型来符合人类偏好数据,而无需学习奖励模型或采样模型 policy,大大简化了流程。

  2. 理论分析表明,DPO等价于学习一个以另一个参考模型为基础的奖励函数,但它避免了强化学习中的一些不稳定性问题。

  3. 实验结果表明,在情感处理、总结和单轮对话等任务上,使用规模达到6B参数的语言模型,DPO的效果与强化学习算法如PPO达到或优于PPO,且训练更简单。

  4. DPO算法极其简单直观,只需要一个 classifier 似的二分类损失函数来训练,而无需复杂的强化学习流程,在实践应用中更易实现。

这篇关于三篇论文解决了大型语言模型 (LLM) 的三个不同问题的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/484021

相关文章

SQL Server安装时候没有中文选项的解决方法

《SQLServer安装时候没有中文选项的解决方法》用户安装SQLServer时界面全英文,无中文选项,通过修改安装设置中的国家或地区为中文中国,重启安装程序后界面恢复中文,解决了问题,对SQLSe... 你是不是在安装SQL Server时候发现安装界面和别人不同,并且无论如何都没有中文选项?这个问题也

C语言进阶(预处理命令详解)

《C语言进阶(预处理命令详解)》文章讲解了宏定义规范、头文件包含方式及条件编译应用,强调带参宏需加括号避免计算错误,头文件应声明函数原型以便主函数调用,条件编译通过宏定义控制代码编译,适用于测试与模块... 目录1.宏定义1.1不带参宏1.2带参宏2.头文件的包含2.1头文件中的内容2.2工程结构3.条件编

Go语言并发之通知退出机制的实现

《Go语言并发之通知退出机制的实现》本文主要介绍了Go语言并发之通知退出机制的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧... 目录1、通知退出机制1.1 进程/main函数退出1.2 通过channel退出1.3 通过cont

SpringBoot 异常处理/自定义格式校验的问题实例详解

《SpringBoot异常处理/自定义格式校验的问题实例详解》文章探讨SpringBoot中自定义注解校验问题,区分参数级与类级约束触发的异常类型,建议通过@RestControllerAdvice... 目录1. 问题简要描述2. 异常触发1) 参数级别约束2) 类级别约束3. 异常处理1) 字段级别约束

java内存泄漏排查过程及解决

《java内存泄漏排查过程及解决》公司某服务内存持续增长,疑似内存泄漏,未触发OOM,排查方法包括检查JVM配置、分析GC执行状态、导出堆内存快照并用IDEAProfiler工具定位大对象及代码... 目录内存泄漏内存问题排查1.查看JVM内存配置2.分析gc是否正常执行3.导出 dump 各种工具分析4.

Go语言编译环境设置教程

《Go语言编译环境设置教程》Go语言支持高并发(goroutine)、自动垃圾回收,编译为跨平台二进制文件,云原生兼容且社区活跃,开发便捷,内置测试与vet工具辅助检测错误,依赖模块化管理,提升开发效... 目录Go语言优势下载 Go  配置编译环境配置 GOPROXYIDE 设置(VS Code)一些基本

Python错误AttributeError: 'NoneType' object has no attribute问题的彻底解决方法

《Python错误AttributeError:NoneTypeobjecthasnoattribute问题的彻底解决方法》在Python项目开发和调试过程中,经常会碰到这样一个异常信息... 目录问题背景与概述错误解读:AttributeError: 'NoneType' object has no at

Spring的RedisTemplate的json反序列泛型丢失问题解决

《Spring的RedisTemplate的json反序列泛型丢失问题解决》本文主要介绍了SpringRedisTemplate中使用JSON序列化时泛型信息丢失的问题及其提出三种解决方案,可以根据性... 目录背景解决方案方案一方案二方案三总结背景在使用RedisTemplate操作redis时我们针对

SpringBoot整合Dubbo+ZK注册失败的坑及解决

《SpringBoot整合Dubbo+ZK注册失败的坑及解决》使用Dubbo框架时,需在公共pom添加依赖,启动类加@EnableDubbo,实现类用@DubboService替代@Service,配... 目录1.先看下公共的pom(maven创建的pom工程)2.启动类上加@EnableDubbo3.实

Kotlin Map映射转换问题小结

《KotlinMap映射转换问题小结》文章介绍了Kotlin集合转换的多种方法,包括map(一对一转换)、mapIndexed(带索引)、mapNotNull(过滤null)、mapKeys/map... 目录Kotlin 集合转换:map、mapIndexed、mapNotNull、mapKeys、map