首页
Python
Java
前端
数据库
Linux
Chatgpt专题
开发者工具箱
finetuned专题
Finetuned Language Models Are Zero-Shot Learners
Abstract 本文探索了一种简单的方法来提升语言模型的零样本(zero-shot)学习能力。我们发现 指令微调(instruction tuning) 显著提高了未见任务的零样本性能。 指令微调:即在一组通过指令描述的数据集上对模型进行微调 我们对一个 137B 参数的预训练模型在 60 个 NLP 任务上进行指令微调。这些任务通过自然语言指令模板进行表述。我们将指令微调后的模型称为
阅读更多...