如何在AutoGen中使用自定义的大模型

2024-08-27 01:12

本文主要是介绍如何在AutoGen中使用自定义的大模型,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

也可在我的个人博客上查看:https://panzhixiang.cn/2024/autogen-custom-model/

背景

AutoGen原生只支持国外的大模型,如OpenAI, Claude, Mistral等,不支持国内的大模型。但是国内有一些大模型做的还是不错的,尤其是考虑的价格因素之后,国内的大模型性价比很好,我这两天就在想办法集成国内的大模型。

虽然AutoGen不直接支持国内的大模型,但是它支持自定义大模型(custom model)。可以参考这个博客:AutoGen with Custom Models: Empowering Users to Use Their Own Inference Mechanism

但是博客中的案例代码不是很直观,我在这篇博客中记录一下具体怎么接入国内的大模型,并给出案例代码。

自定义模型类

AutoGen允许自定义模型类,只要符合它的协议就行。

具体的协议要求在 autogen.oai.client.ModelClient 中,代码如下:

class ModelClient(Protocol):"""A client class must implement the following methods:- create must return a response object that implements the ModelClientResponseProtocol- cost must return the cost of the response- get_usage must return a dict with the following keys:- prompt_tokens- completion_tokens- total_tokens- cost- modelThis class is used to create a client that can be used by OpenAIWrapper.The response returned from create must adhere to the ModelClientResponseProtocol but can be extended however needed.The message_retrieval method must be implemented to return a list of str or a list of messages from the response."""RESPONSE_USAGE_KEYS = ["prompt_tokens", "completion_tokens", "total_tokens", "cost", "model"]class ModelClientResponseProtocol(Protocol):class Choice(Protocol):class Message(Protocol):content: Optional[str]message: Messagechoices: List[Choice]model: strdef create(self, params: Dict[str, Any]) -> ModelClientResponseProtocol: ...  # pragma: no coverdef message_retrieval(self, response: ModelClientResponseProtocol) -> Union[List[str], List[ModelClient.ModelClientResponseProtocol.Choice.Message]]:"""Retrieve and return a list of strings or a list of Choice.Message from the response.NOTE: if a list of Choice.Message is returned, it currently needs to contain the fields of OpenAI's ChatCompletion Message object,since that is expected for function or tool calling in the rest of the codebase at the moment, unless a custom agent is being used."""...  # pragma: no coverdef cost(self, response: ModelClientResponseProtocol) -> float: ...  # pragma: no cover@staticmethoddef get_usage(response: ModelClientResponseProtocol) -> Dict:"""Return usage summary of the response using RESPONSE_USAGE_KEYS."""...  # pragma: no cover

直白点说,这个协议有四个要求:

  1. 自定义的类中有create()函数,并且这个函数的返回应当是ModelClientResponseProtocol的一种实现
  2. 要有message_retrieval()函数,用于处理响应,并且返回一个列表,聊表中包含字符串或者message对象
  3. 要有cost()函数,返回消耗的费用
  4. 要有get_usage()函数,返回一些字典,key应该来自于[“prompt_tokens”, “completion_tokens”, “total_tokens”, “cost”, “model”]。这个主要用于分析,如果不需要分析使用情况,可以反馈空。

实际案例

我在这里使用的UNIAPI(一个大模型代理)托管的claude模型,但是国内的大模型可以完全套用下面的代码。

代码如下:

"""
本代码用于展示如何自定义一个模型,本模型基于UniAPI,
但是任何支持HTTPS调用的大模型都可以套用以下代码
"""from autogen.agentchat import AssistantAgent, UserProxyAgent
from autogen.oai.openai_utils import config_list_from_json
from types import SimpleNamespace
import requests
import osclass UniAPIModelClient:def __init__(self, config, **kwargs):print(f"CustomModelClient config: {config}")self.api_key = config.get("api_key")self.api_url = "https://api.uniapi.me/v1/chat/completions"self.model = config.get("model", "gpt-3.5-turbo")self.max_tokens = config.get("max_tokens", 1200)self.temperature = config.get("temperature", 0.8)self.top_p = config.get("top_p", 1)self.presence_penalty = config.get("presence_penalty", 1)print(f"Initialized CustomModelClient with model {self.model}")def create(self, params):headers = {"Authorization": f"Bearer {self.api_key}","Content-Type": "application/json",}data = {"max_tokens": self.max_tokens,"model": self.model,"temperature": self.temperature,"top_p": self.top_p,"presence_penalty": self.presence_penalty,"messages": params.get("messages", []),}response = requests.post(self.api_url, headers=headers, json=data)response.raise_for_status()  # Raise an exception for HTTP errorsapi_response = response.json()# Convert API response to SimpleNamespace for compatibilityclient_response = SimpleNamespace()client_response.choices = []client_response.model = self.modelfor choice in api_response.get("choices", []):client_choice = SimpleNamespace()client_choice.message = SimpleNamespace()client_choice.message.content = choice.get("message", {}).get("content")client_choice.message.function_call = Noneclient_response.choices.append(client_choice)return client_responsedef message_retrieval(self, response):"""Retrieve the messages from the response."""choices = response.choicesreturn [choice.message.content for choice in choices]def cost(self, response) -> float:"""Calculate the cost of the response."""# Implement cost calculation if available from your APIresponse.cost = 0return 0@staticmethoddef get_usage(response):# Implement usage tracking if available from your APIreturn {}config_list_custom = config_list_from_json("UNIAPI_CONFIG_LIST.json",filter_dict={"model_client_cls": ["UniAPIModelClient"]},
)assistant = AssistantAgent("assistant", llm_config={"config_list": config_list_custom})
user_proxy = UserProxyAgent("user_proxy",code_execution_config={"work_dir": "coding","use_docker": False,},
)assistant.register_model_client(model_client_cls=UniAPIModelClient)
user_proxy.initiate_chat(assistant,message="Write python code to print hello world",
)

如果想要修改为其他模型,唯一的要求是,这个模型支持HTTP调用,然后把 self.api_url = "https://api.uniapi.me/v1/chat/completions" 替换成你自己的值。

在运行上面的案例代码之前,需要创建 UNIAPI_CONFIG_LIST.json 文件,并且可以被程序读取到。其格式如下:

[{"model": "claude-3-5-sonnet-20240620","api_key": "xxxxxxxxxxxxxxxxxxxxxxxxxxx","temperature": 0.8,"max_tokens": 4000,"model_client_cls": "UniAPIModelClient"}
]

其实这个json本质上就是一个大模型的配置,指定一些必要的参数,其中 model_client_cls 的值要是自定义的模型类的名字,这里不能写错。

以上就是如何在AutoGen使用自定义大模型的全部内容了。

我在这篇博客中只给了具体的案例代码,没有关于更深层次的解读,感兴趣可以阅读官网的文档。

这里想吐槽一下,AutoGen的文档不咋地,不少案例代码都是旧的,没有跟着代码及时更新,有不少坑。

这篇关于如何在AutoGen中使用自定义的大模型的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1110216

相关文章

gitlab安装及邮箱配置和常用使用方式

《gitlab安装及邮箱配置和常用使用方式》:本文主要介绍gitlab安装及邮箱配置和常用使用方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录1.安装GitLab2.配置GitLab邮件服务3.GitLab的账号注册邮箱验证及其分组4.gitlab分支和标签的

SpringBoot3应用中集成和使用Spring Retry的实践记录

《SpringBoot3应用中集成和使用SpringRetry的实践记录》SpringRetry为SpringBoot3提供重试机制,支持注解和编程式两种方式,可配置重试策略与监听器,适用于临时性故... 目录1. 简介2. 环境准备3. 使用方式3.1 注解方式 基础使用自定义重试策略失败恢复机制注意事项

nginx启动命令和默认配置文件的使用

《nginx启动命令和默认配置文件的使用》:本文主要介绍nginx启动命令和默认配置文件的使用,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录常见命令nginx.conf配置文件location匹配规则图片服务器总结常见命令# 默认配置文件启动./nginx

在Windows上使用qemu安装ubuntu24.04服务器的详细指南

《在Windows上使用qemu安装ubuntu24.04服务器的详细指南》本文介绍了在Windows上使用QEMU安装Ubuntu24.04的全流程:安装QEMU、准备ISO镜像、创建虚拟磁盘、配置... 目录1. 安装QEMU环境2. 准备Ubuntu 24.04镜像3. 启动QEMU安装Ubuntu4

使用Python和OpenCV库实现实时颜色识别系统

《使用Python和OpenCV库实现实时颜色识别系统》:本文主要介绍使用Python和OpenCV库实现的实时颜色识别系统,这个系统能够通过摄像头捕捉视频流,并在视频中指定区域内识别主要颜色(红... 目录一、引言二、系统概述三、代码解析1. 导入库2. 颜色识别函数3. 主程序循环四、HSV色彩空间详解

Windows下C++使用SQLitede的操作过程

《Windows下C++使用SQLitede的操作过程》本文介绍了Windows下C++使用SQLite的安装配置、CppSQLite库封装优势、核心功能(如数据库连接、事务管理)、跨平台支持及性能优... 目录Windows下C++使用SQLite1、安装2、代码示例CppSQLite:C++轻松操作SQ

Python常用命令提示符使用方法详解

《Python常用命令提示符使用方法详解》在学习python的过程中,我们需要用到命令提示符(CMD)进行环境的配置,:本文主要介绍Python常用命令提示符使用方法的相关资料,文中通过代码介绍的... 目录一、python环境基础命令【Windows】1、检查Python是否安装2、 查看Python的安

Python并行处理实战之如何使用ProcessPoolExecutor加速计算

《Python并行处理实战之如何使用ProcessPoolExecutor加速计算》Python提供了多种并行处理的方式,其中concurrent.futures模块的ProcessPoolExecu... 目录简介完整代码示例代码解释1. 导入必要的模块2. 定义处理函数3. 主函数4. 生成数字列表5.

Python中help()和dir()函数的使用

《Python中help()和dir()函数的使用》我们经常需要查看某个对象(如模块、类、函数等)的属性和方法,Python提供了两个内置函数help()和dir(),它们可以帮助我们快速了解代... 目录1. 引言2. help() 函数2.1 作用2.2 使用方法2.3 示例(1) 查看内置函数的帮助(

Linux脚本(shell)的使用方式

《Linux脚本(shell)的使用方式》:本文主要介绍Linux脚本(shell)的使用方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录概述语法详解数学运算表达式Shell变量变量分类环境变量Shell内部变量自定义变量:定义、赋值自定义变量:引用、修改、删