动手学大模型LLM应用开发之提示词工程(Prompt Engineering)

本文主要是介绍动手学大模型LLM应用开发之提示词工程(Prompt Engineering),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

目录

    • 一、什么是提示词工程(Prompt Engineering)?
    • 二、Prompt 设计的原则及使用技巧
      • 原则一:编写清晰、具体的指令
        • 1、使用分隔符清晰地表示输入的不同部分
        • 2、寻求结构化的输出
        • 3、要求模型检查是否满足条件
        • 4、提供少量示例
      • 原则二:给模型时间去思考
        • 1、指定完成任务所需的步骤
        • 2、指导模型在下结论之前找出一个自己的解法
    • 三、参考资料

一、什么是提示词工程(Prompt Engineering)?

提示工程(Prompt Engineering)是一个相对较新的研究方向,用于研究如何编写和优化提示池,以便更好、更有效地使用大语言模型。
我们每一次访问大模型,给模型的输入就是 Prompt,大模型给我们的返回结果我们称之为 Completion。
在这里插入图片描述

二、Prompt 设计的原则及使用技巧

一个好的 Prompt 设计极大地决定了其能力的上限与下限。设计高效 Prompt 有两个关键原则编写清晰、具体的指令给予模型充足思考时间

原则一:编写清晰、具体的指令

1、使用分隔符清晰地表示输入的不同部分

在编写 Prompt 时,我们可以使用各种标点符号作为“分隔符”,将不同的文本部分区分开来。分隔符就像是 Prompt 中的墙,将不同的指令、上下文、输入隔开,避免意外的混淆。你可以选择用 ```,“”",< >, ,: 等做分隔符,只要能明确起到隔断作用即可。

在以下的例子中,我们给出一段话并要求 LLM 进行总结,在该示例中我们使用 ```来作为分隔符:

(1)、首先,我们调用 OpenAI 的 API ,封装一个对话函数,使用 gpt-3.5-turbo 这个模型。

import os
from openai import OpenAI
from dotenv import load_dotenv, find_dotenv# 如果你设置的是全局的环境变量,这行代码则没有任何作用。
_ = load_dotenv(find_dotenv())client = OpenAI(# This is the default and can be omitted# 获取环境变量 OPENAI_API_KEYapi_key=os.environ.get("OPENAI_API_KEY"),# 访问api的网址,中转api需设置base_url=os.environ.get("OPENAI_BASE_URL")
)# 如果你需要通过代理端口访问,还需要做如下配置
os.environ['HTTPS_PROXY'] = 'http://127.0.0.1:7890'
os.environ["HTTP_PROXY"] = 'http://127.0.0.1:7890'# 一个封装 OpenAI 接口的函数,参数为 Prompt,返回对应结果
def get_completion(prompt,model="gpt-3.5-turbo"):'''prompt: 对应的提示词model: 调用的模型,默认为 gpt-3.5-turbo(ChatGPT)。你也可以选择其他模型。https://platform.openai.com/docs/models/overview'''messages = [{"role": "user", "content": prompt}]# 调用 OpenAI 的 ChatCompletion 接口response = client.chat.completions.create(model=model,messages=messages,temperature=0)return response.choices[0].message.content

(2)、对比分析使用分隔符和不使用分隔符的大模型回答的效果

使用分隔符运行效果:
在这里插入图片描述
不使用分隔符运行效果:
在这里插入图片描述
总结:通过以上实验我们可以看出,使用分隔符能够有效的让大模型明白我们的用途,防止歧义。

2、寻求结构化的输出

有时候我们需要语言模型给我们一些结构化的输出,而不仅仅是连续的文本。希望大模型能够给我们返回按照某种格式组织的内容,例如 JSON、HTML 等,这种结构能够让我们方便在代码中处理。

在以下示例中,我们要求 LLM 生成三本书的标题、作者和类别,并要求 LLM 以 JSON 的格式返回给我们,为便于解析,我们指定了 JSON 的键名。
在这里插入图片描述

3、要求模型检查是否满足条件

如果任务包含不一定能满足的假设(条件),我们可以告诉模型先检查这些假设,如果不满足,则会指出并停止执行后续的完整流程。您还可以考虑可能出现的边缘情况及模型的应对,以避免意外的结果或错误发生。

在如下示例中,我们将分别给模型两段文本,分别是制作茶的步骤以及一段没有明确步骤的文本。我们将要求模型判断其是否包含一系列指令,如果包含则按照给定格式重新编写指令,不包含则回答“未提供步骤”。
在这里插入图片描述
上述示例中,模型可以很好地识别一系列的指令并进行输出。在接下来一个示例中,我们将提供给模型
没有预期指令的输入,模型将判断未提供步骤。
在这里插入图片描述

4、提供少量示例

“Few-shot” prompting(少样本提示),即在要求模型执行实际任务之前,给模型提供一两个参考样例,让模型了解我们的要求和期望的输出样式。

例如,在以下的样例中,我们先给了一个 {<学术>:<圣贤>} 对话样例,然后要求模型用同样的隐喻风格回答关于“孝顺”的问题,可以看到 LLM 回答的风格和示例里<圣贤>的文言文式回复风格是十分一致的。这就是一个 Few-shot 学习示例,能够帮助模型快速学到我们要的语气和风格。
在这里插入图片描述
总结:利用少样本样例,我们可以轻松“预热”语言模型,让它为新的任务做好准备。这是一个让模型快速上手新
任务的有效策略。

原则二:给模型时间去思考

给予语言模型充足的推理时间,是 Prompt Engineering 中一个非常重要的设计原则。提高模型的推理时间,我们可以详细的指定完成任务所需的步骤以及要求模型在下结论之前找出一个自己的解法引导模型深度思考。

1、指定完成任务所需的步骤

接下来我们将通过给定一个复杂任务,给出完成该任务的一系列步骤,来展示这一策略的效果。

首先我们描述了杰克和吉尔的故事,并给出提示词执行以下操作:

  • 首先,用一句话概括三个反引号限定的文本。
  • 第二,将摘要翻译成英语。
  • 第三,在英语摘要中列出每个名称。
  • 第四,输出包含以下键的 JSON 对象:英语摘要和人名个数。要求输出以换行符分隔。

在这里插入图片描述

2、指导模型在下结论之前找出一个自己的解法

在设计 Prompt 时,我们还可以通过明确指导语言模型进行自主思考,来获得更好的效果。
举个例子,假设我们要语言模型判断一个数学问题的解答是否正确。仅仅提供问题和解答是不够的,语
言模型可能会匆忙做出错误判断。

相反,我们可以在 Prompt 中先要求语言模型自己尝试解决这个问题,思考出自己的解法,然后再与提
供的解答进行对比,判断正确性。这种先让语言模型自主思考的方式,能帮助它更深入理解问题,做出
更准确的判断。

接下来我们会给出一个问题和一份来自学生的解答,要求模型判断解答是否正确:

在这里插入图片描述
但是注意,学生的解决方案实际上是错误的。(维护费用项100x应为10x,总费用450x应为360x)。我们可以通过指导模型先自行找出一个解法来解决这个问题。

在接下来这个 Prompt 中,我们要求模型先自行解决这个问题,再根据自己的解法与学生的解法进行对比,从而判断学生的解法是否正确。同时,我们给定了输出的格式要求。通过拆分任务、明确步骤,让
模型有更多时间思考,有时可以获得更准确的结果。
在这里插入图片描述

三、参考资料

llm-universe

这篇关于动手学大模型LLM应用开发之提示词工程(Prompt Engineering)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!


原文地址:
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.chinasem.cn/article/916138

相关文章

Python使用smtplib库开发一个邮件自动发送工具

《Python使用smtplib库开发一个邮件自动发送工具》在现代软件开发中,自动化邮件发送是一个非常实用的功能,无论是系统通知、营销邮件、还是日常工作报告,Python的smtplib库都能帮助我们... 目录代码实现与知识点解析1. 导入必要的库2. 配置邮件服务器参数3. 创建邮件发送类4. 实现邮件

Python使用Tkinter打造一个完整的桌面应用

《Python使用Tkinter打造一个完整的桌面应用》在Python生态中,Tkinter就像一把瑞士军刀,它没有花哨的特效,却能快速搭建出实用的图形界面,作为Python自带的标准库,无需安装即可... 目录一、界面搭建:像搭积木一样组合控件二、菜单系统:给应用装上“控制中枢”三、事件驱动:让界面“活”

基于Python开发一个有趣的工作时长计算器

《基于Python开发一个有趣的工作时长计算器》随着远程办公和弹性工作制的兴起,个人及团队对于工作时长的准确统计需求日益增长,本文将使用Python和PyQt5打造一个工作时长计算器,感兴趣的小伙伴可... 目录概述功能介绍界面展示php软件使用步骤说明代码详解1.窗口初始化与布局2.工作时长计算核心逻辑3

详解如何使用Python从零开始构建文本统计模型

《详解如何使用Python从零开始构建文本统计模型》在自然语言处理领域,词汇表构建是文本预处理的关键环节,本文通过Python代码实践,演示如何从原始文本中提取多尺度特征,并通过动态调整机制构建更精确... 目录一、项目背景与核心思想二、核心代码解析1. 数据加载与预处理2. 多尺度字符统计3. 统计结果可

如何确定哪些软件是Mac系统自带的? Mac系统内置应用查看技巧

《如何确定哪些软件是Mac系统自带的?Mac系统内置应用查看技巧》如何确定哪些软件是Mac系统自带的?mac系统中有很多自带的应用,想要看看哪些是系统自带,该怎么查看呢?下面我们就来看看Mac系统内... 在MAC电脑上,可以使用以下方法来确定哪些软件是系统自带的:1.应用程序文件夹打开应用程序文件夹

SpringBoot整合Sa-Token实现RBAC权限模型的过程解析

《SpringBoot整合Sa-Token实现RBAC权限模型的过程解析》:本文主要介绍SpringBoot整合Sa-Token实现RBAC权限模型的过程解析,本文给大家介绍的非常详细,对大家的学... 目录前言一、基础概念1.1 RBAC模型核心概念1.2 Sa-Token核心功能1.3 环境准备二、表结

python web 开发之Flask中间件与请求处理钩子的最佳实践

《pythonweb开发之Flask中间件与请求处理钩子的最佳实践》Flask作为轻量级Web框架,提供了灵活的请求处理机制,中间件和请求钩子允许开发者在请求处理的不同阶段插入自定义逻辑,实现诸如... 目录Flask中间件与请求处理钩子完全指南1. 引言2. 请求处理生命周期概述3. 请求钩子详解3.1

如何基于Python开发一个微信自动化工具

《如何基于Python开发一个微信自动化工具》在当今数字化办公场景中,自动化工具已成为提升工作效率的利器,本文将深入剖析一个基于Python的微信自动化工具开发全过程,有需要的小伙伴可以了解下... 目录概述功能全景1. 核心功能模块2. 特色功能效果展示1. 主界面概览2. 定时任务配置3. 操作日志演示

Python Flask 库及应用场景

《PythonFlask库及应用场景》Flask是Python生态中​轻量级且高度灵活的Web开发框架,基于WerkzeugWSGI工具库和Jinja2模板引擎构建,下面给大家介绍PythonFl... 目录一、Flask 库简介二、核心组件与架构三、常用函数与核心操作 ​1. 基础应用搭建​2. 路由与参

Spring Boot中的YML配置列表及应用小结

《SpringBoot中的YML配置列表及应用小结》在SpringBoot中使用YAML进行列表的配置不仅简洁明了,还能提高代码的可读性和可维护性,:本文主要介绍SpringBoot中的YML配... 目录YAML列表的基础语法在Spring Boot中的应用从YAML读取列表列表中的复杂对象其他注意事项总