大模型(LLM)调用API论文研究合集

2024-04-29 00:12

本文主要是介绍大模型(LLM)调用API论文研究合集,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1、API-BLEND: A Comprehensive Corpora for Training and Benchmarking API LLMs

中文标题:API-BLEND: 一个用于训练和评测 API 语言模型的全面语料库

简介:随着大型语言模型(LLM)的发展,它们需要能够有效地利用各种工具和应用程序接口(API)来完成复杂任务。因此,如何获取大量涉及API调用的训练和测试数据成为一个重要的挑战。

解决这一挑战主要有两种研究思路:一是focus on生成合成数据,二是策划包含API相关任务的真实数据集。

本文聚焦于后一种方法,介绍了一个名为API-BLEND的大型语料库。这个语料库模拟了真实场景中涉及API调用的任务,如API检测、参数填充、API排序等。作者展示了这个语料库在训练和评测API增强型LLM方面的实用性。

总的来说,API-BLEND为训练和评测能够有效利用工具和API的LLM提供了一个全面的数据基础。

2、API Pack: A Massive Multilingual Dataset for API Call Generation

中文标题:API Pack: 一个庞大的多语言数据集,用于 API 调用生成

简介:我们开发了一个名为"API Pack"的多语言数据集,包含超过100万个指令-API调用对。该数据集旨在提升大型语言模型生成API调用的能力。通过实验,我们证明使用API Pack对模型进行微调,不仅能增强其专业任务的能力,同时也能保持其在一般编程方面的整体熟练度。

仅在20,000个Python示例上对CodeLlama-13B进行微调,就可以使其生成未见过的API调用的准确率,分别超越GPT-3.5和GPT-4 10%和5%。进一步扩展到100,000个示例,还可以提高模型对新API的泛化能力。

值得一提的是,API Pack支持跨语言的API调用生成,无需大量语言数据即可实现。该数据集、相关的微调模型以及整体代码库都已经开源,可在https://github.com/anonymous_url获取使用。

3、AnyTool: Self-Reflective, Hierarchical Agents for Large-Scale API Calls

中文标题:AnyTool: 面向大规模 API 调用的自我反思型分层代理

简介:我们介绍了AnyTool,这是一个大型语言模型代理,旨在彻底改变利用各种工具解决用户查询的方式。我们利用来自Rapid API的超过16,000个API,假设其中一部分API可能能够解决查询。

AnyTool主要包括三个关键组件:

1. 具有分层结构的API检索器,能够快速定位可能有助于解决用户查询的 API。
2. 一个求解器,旨在利用选定的API候选集有效地解决用户查询。
3. 一个自我反思机制,在初始解决方案不可行时重新启动AnyTool的工作流程。

AnyTool由GPT-4的函数调用功能驱动,无需训练额外的外部模块。我们还重新审视了先前工作引入的评估协议,发现其存在局限性,导致了人为的高通过率。为了更好地反映实际应用场景,我们引入了一个名为AnyToolBench的新基准。

实验结果表明,我们的AnyTool在各种数据集上优于强基线,如ToolLLM和专为工具利用而定制的GPT-4变体。例如,在ToolBench基准上,AnyTool的平均通过率比ToolLLM高出35.4%。AnyTool的开源代码将在https://github.com/dyabel/AnyTool上提供。

4、ToolLLM: Facilitating Large Language Models to Master 16000+ Real-world APIs

中文标题:ToolLLM:帮助大型语言模型掌握16000多种真实世界的API

简介:本论文的目标是解决现有大型语言模型在使用外部工具(API)方面的局限性。为此,论文提出了一种名为ToolLLM的通用工具使用框架,涵盖了数据集构建、模型训练和评估等步骤。此外,为了提高模型的实用性,论文还引入了一个神经API检索器组件,用于为每个指令推荐合适的API接口。总的来说,这个框架旨在帮助大型语言模型更好地掌握和利用多达16000种真实世界的API。

5、Toolformer: Language Models Can Teach Themselves to Use Tools

中文标题:Toolformer:语言模型可以自学使用工具

简介:Toolformer是一个新型的自监督学习语言模型,它在不牺牲核心语言建模能力的情况下,显著提升了在各种下游任务中的零样本性能,与更大型的模型相比也能保持竞争力。

Toolformer的关键特点包括:

(1)提出了一种使用简单API的自监督学习方法,让语言模型能够学会使用各种外部工具。

(2)在多种下游任务中展现出优异的零样本性能,与更大规模的模型相比也不会损失核心的语言理解能力。

(3)展示了Toolformer可以学会使用各种工具,包括计算器、问答系统、搜索引擎、翻译系统和日历等。

总的来说,Toolformer提供了一种新的自监督模型训练方法,能够在不牺牲语言理解能力的前提下,显著提升语言模型在实际应用中的性能和竞争力。

这篇关于大模型(LLM)调用API论文研究合集的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/944630

相关文章

【保姆级】生成式网络模型基础知识(图像合成/语音合成/GPT)

生成式模型基础知识 初步接触生成任务 生成任务,顾名思义就是要去生成一个东西,比如生成图片/音频/文字等等。 大家接触最多比如chatGPT、stable diffusion、还有一些语音合成相关的东西。 那么问题来了,具体生成步骤是什么样的? 一、生成任务的流程 我们注意到一件事情,生成一张图片也好、一段文字也好,它们不总是唯一的。 比如我希望生成一张鸡的图片,将**[一只鸡]**

鸿蒙应用开发之调用C++开发代码库1

由于鸿蒙应用主要基于ArkTS开发,主要使用的语言是ETS,也就是JS脚本方式来开发,这与C++语言开发是不同的语言,这样就不能直接相互调用,因为不同的语言使用不同的数据结构,不同的调用方式,不同的运行环境。要想在ETS语言里调用C++开发的代码,需要进行合适的转换,并且按指定的格式来编写,才能够在ArkTS里使用。并且由于ArkTS运行在虚拟机里,需要注意受到调用端线程的限制,不能随便地使用线程

鬼畜作品创作必备素材,鬼畜自学语音包合集

一、素材描述 鬼畜是什么?鬼畜是一种网络流行语,也是网络文化的一种表现形式。它指的是将原本无关的两个或多个视频、音频、图片或文字进行剪辑、混合、重组等处理后,形成一种新的有趣、诙谐或恶搞的作品。鬼畜的制作过程通常需要一定的技术和创意,包括视频剪辑、音频合成、字幕编辑等多种技能。鬼畜作品往往具有极高的娱乐价值,能够引起人们的共鸣和笑声。常见的鬼畜作品包括恶搞片段、搞笑音乐、无厘头图片、搞笑动画等

五种网络I/O模型介绍

五种网络I/O模型 阻塞I/O(Blocking I/O) 非阻塞I/O(Non-blocking I/O) I/O复用(I/O Multiplexing) 信号驱动式I/O(Singnal driven I/O) 异步I/O(Asynchronous I/O) Tip:前四种都是同步I/O,只有最后一种才是异步I/O。 同步、异步的概念 同步是指一个任务的完成需要依赖另外一个任务

LoRA Land: 310个经微调的大语言模型可媲美GPT-4

摘要 低秩自适应 (LoRA) 已成为大语言模型 (LLM) 参数有效微调 (PEFT) 中最广泛采用的方法之一。LoRA 减少了可训练参数的数量和内存使用,同时达到了与全面微调相当的性能。该研究旨在评估在实际应用中训练和服务使用 LoRA 微调的 LLM 的可行性。首先,该研究测量了在 10 个基础模型和 31 个任务上使用量化低秩适配器微调的 LLM 的质量,总共有 310 个模型。研究发现

【文末福利送资料】深度探索GPT模型,竟然10个字都不会说?

目录 导读 自回归模型 那么什么时候停下呢? 该停下来,但是概率不让啊 GPT欠缺的两种能力 目录 导读 自回归模型 那么什么时候停下呢? 该停下来,但是概率不让啊 GPT欠缺的两种能力 缺少规划 反省和修订 所有的人工智能模型都这样吗? 福利: 缺少规划 反省和修订 所有的人工智能模型都这样吗? 导读 最近,大家可能都听说了

YOLOv9全网最新改进系列::YOLOv9完美融合双卷积核(DualConv)来构建轻量级深度神经网络,目标检测模型有效涨点神器!!!

YOLOv9全网最新改进系列::YOLOv9完美融合双卷积核(DualConv)来构建轻量级深度神经网络,目标检测模型有效涨点神器!!! YOLOv9原文链接戳这里,原文全文翻译请关注B站Ai学术叫叫首er B站全文戳这里! 详细的改进教程以及源码,戳这!戳这!!戳这!!!B站:AI学术叫叫兽 源码在相簿的链接中,动态中也有链接,感谢支持!祝科研遥遥领先! YOLOv9全网最新改进系

Simulink|虚拟同步发电机(VSG)惯量阻尼自适应控制仿真模型

主要内容    该模型为simulink仿真模型,主要实现的内容如下: 随着风力发电、光伏发电等新能源发电渗透率增加,电力系统的等效惯量和等效阻尼逐渐减小,其稳定性问题变得越来越严峻。虚拟同步发电机(VSG)技术的提出能有效地解决这一问题。然而,传统的VSG并网逆变器采用恒惯量和阻尼控制,在系统受到扰动时,其鲁棒性较差。因此,为增强系统的鲁棒性,优化其频率响应曲线,提出了一种并网VSG

什么是工具? 从语言模型视角的综述

24年3月CMU和上海交大的论文“What Are Tools Anyway? A Survey from the Language Model Perspective”。 到底什么是工具? 接下来,工具在哪里以及如何帮助语言模型? 在综述中,对语言模型使用的外部程序工具进行了统一定义,并对语言模型工具场景和方法进行了系统回顾。 测量各种基准上所需的计算和性能增益,以及该领域的挑战和潜在的未来研

AI模型部署实战:利用OpenCV的CUDA模块加速视觉模型部署流程

本文首发于公众号【DeepDriving】,欢迎关注。 一. 前言 我在之前的文章《AI模型部署实战:利用CV-CUDA加速视觉模型部署流程》中介绍了如何使用CV-CUDA库来加速视觉模型部署的流程,但是CV-CUDA对系统版本和CUDA版本的要求比较高,在一些低版本的系统中可能无法使用。对于像我这种不会写CUDA代码又想用CUDA来加速模型部署流程的人来说要怎么办呢,其实还有一种方式,