基于BERT微调+模板填充快速实现文本转DSL查询语句

2024-06-16 05:04

本文主要是介绍基于BERT微调+模板填充快速实现文本转DSL查询语句,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

前言

Text2SQL是指将自然语言转化为类SQL查询语句,使得用户的查询文本可以直接实现和数据库交互,本文介绍一种以BERT为基础模型,通过模板填充来实现的Text2SQL算法和产品化。


内容摘要
  • Text2SQL任务说明
  • 模板填充的思路
  • 条件列选择子模型搭建(where col)
  • 条件合并类型子模型搭建(and,or)
  • 条件值匹配子模型搭建(col,value)
  • 排序条件子模型搭建
  • limit子模型搭建
  • 整体模型pipeline
  • 基于Streamlit快速产品化

Text2SQL任务说明

本文的任务是将用户的查询语言自动翻译为ElasticSearch的DSL查询语句,然后以DSL语句查询ElasticSearch返回结果。业务场景为将上市公司的标签存储在ElasticSearch中,通过自然语言挑选出对应的股票,实现“一句话选股”,该产品在市面上的APP已经广泛实现,本文是对其的一个简单功能复现。

市面上Text2SQL类似的产品

注意本文需要转化的自然语言任务仅为挑选出企业,并且展示出所需要的列,不设计复杂的聚合和聚合函数,比如groupby,max,sum不在本次的考虑范围内。


模板填充的思路

模板填充生成查询语句的思路类似于完型填空,不论是SQL还是DSL查询语句,任何查询都有固定部分,那把不固定的部分遮蔽掉,单独预测遮蔽掉的关键词即可补全SQL,我们以ElasticSearch的DSL举例,模板填充的形式如下

DSL模板填充

无底色部分代表固定的DSL形式,有底层部分代表可变的关键词部分,不同的颜色代表不同的DSL模块:

  • must:筛选条件的组合形式,must代表且,should代表或
  • termrange:筛选条件的比较类型,term是相等匹配,range是值大小比对
  • col:筛选条件用到的列,以及select需要的列
  • gte:比较符,gte代表大于等于
  • desc:排序类型,desc代表降序
  • size:limit条件,代表最大输出多少数据

因此模板填充的任务就是把可变的关键词预测出来,从而拼接出最终的DSL语句。


条件列选择子模型搭建(where col)

第一步是要预测出条件列,只有先预测出条件列,后续才能进一步完成列的条件匹配和值匹配。我们采用BERT的句子对的方式,将每一列和用户输入的查询语句拼接起来,采用[CLS]位置作为表征,预测二分类是否匹配。

BERT句子对匹配预测

举例如果有100个候选列,则一条查询语句需要预测100条样本,每条样本是一个二分类,最终可以预测出多个列或者一个列,也可以没有列。


条件合并类型子模型搭建(and,or)

条件合并类型预测是预测出有多个条件时的组合类型,且,或,甚至没有,是一个三分类问题。只需要对原始的查询语句使用BERT的[CLS]预测即可

BERT预测条件组合类型


条件值匹配子模型搭建(col,value)

条件值匹配是一个三元组的预测,涉及元素为col列,value值,和比较符,col列是条件列选择子模型搭建(where col)该任务的输出,及条件值匹配是条件列选择的后续模型,由于col列已经被上游任务预测出来了,所以本任务的目标是先抽取出value值,并且搭配比较符做匹配。
在此我们将col列分为real数值列和type类型枚举列,因为这两种情况对应的value值和比较符都不一样。

  • real数值列:需要通过配置提前获得预测出的select列的类型为real,此时比较符设置为“>”,“<”,“=”,“!=”,“>=”,“<=”一共六种情况,value值一定是数字,因此通过正则表达式加中文单位工具转换可以抽取出来

一个使用Python脚本抽取输入中的数字的案例如下

import re
import cn2andef parse(text: str):res = []tmp = re.findall("[\d一二三四五六七八九十百千万亿零.]+", text)for t in tmp:value = ""try:value = cn2an.cn2an(t, "strict")except:try:value = cn2an.cn2an(t, "normal")except:try:value = cn2an.cn2an(t, "smart")except:passif value:value = int(value) if int(value) == value else valueres.append(value)return resif __name__ == '__main__':print(parse("手里有三个苹果,单价0.56元一个,总共一百2十三万元"))# 抽取结果 [3, 0.56, 1, 1230000]
  • type类型列:需要通过配置提前获得预测出的select列的类型为type,此时value值为数据库中该字段的枚举值全集,比如该列为省份,则需要穷举出所有的省份做匹配,比较符为"=“,”!="。

基于以上约定需要对样本进行构造,即穷句出所有情况,以real列为例,所有select列和所有抽取出的value,再叠加所有可能的比较符做二分类预测,同样采用BERT的句子对做表征,例如

构造col,value匹配模型


排序条件子模型搭建

排序模型需要预测出order by的列,并且预测出是升序asc还是倒序desc,同样通过配置提前预知需要排序的所有列,并且将其和升序和倒序拼接在一起输入BERT进行句子对预测,例如

排序模型的BERT样本输入

同样以[CLS]位置来预测二分类是否匹配。


limit子模型搭建

该模块是排序条件模型的下游任务,将条件值匹配抽取到的数字和排序条件列做穷举,同样采用BERT做句子对分类,模型示意图如下

limit模型输入

同样以[CLS]位置来预测二分类是否匹配。


整体模型pipeline

基于以上方案一共有五个BERT模型,分别是where列预测,op组合条件预测,select列和值的匹配,是否有排序条件,limit值预测,五个模型的pipeline流程图如下

整体预测pipeline

在最后一部需要整个5个模型的输出改造成对应查询语句,以ElasticSearch的DSL为例,一个改造实现如下

    def parse_to_dsl(self, op_combine, match, order_op, limit):query = {"query": {"bool": {}},"_source": ["ent_name", "score"],"sort": []}if order_op:label_name = order_op[:-4]order_name = order_op[-4:]label_code = self.name_to_label_code[label_name]query["sort"].append({f"{label_code}": {"order": "desc" if order_name == "降序排名" else "asc"}})query["_source"].append(label_code)else:query["sort"].append({"score": {"order": "desc"}})if limit != -1:query["size"] = limitop_dsl = "must"if op_combine == "or":op_dsl = "should"query["query"]["bool"][op_dsl] = []sub_queries = {}for m in match:cond, op, val = re.split("(=|!=|>=|<=|>|<)", m)label_code = self.name_to_label_code[cond]query["_source"].append(label_code)c_type = self.cols_type[cond]# TODO 子查询,记录命中数sub_query = {"query": {}}if c_type == "real" and op not in ("=", "!="):range_op = {"range": {f"{label_code}": {}}}if op == ">":range_op["range"][f"{label_code}"]["gt"] = valelif op == ">=":range_op["range"][f"{label_code}"]["gte"] = valelif op == "<=":range_op["range"][f"{label_code}"]["lte"] = valelif op == "<":range_op["range"][f"{label_code}"]["lt"] = valquery["query"]["bool"][op_dsl].append(range_op)sub_query["query"] = range_opelif c_type in ("real", "type") and op == "=":term_op = {"term": {f"{label_code}": {"value": val}}}query["query"]["bool"][op_dsl].append(term_op)sub_query["query"] = term_opelif c_type in ("real", "type") and op == "!=":bool_op = {"bool": {"must_not": [{"term": {f"{label_code}": {"value": val}}}]}}query["query"]["bool"][op_dsl].append(bool_op)sub_query["query"] = bool_opsub_queries[m] = json.dumps(sub_query, ensure_ascii=False)return sub_queries, json.dumps(query, ensure_ascii=False)

本质上先定义了一个基础DSL模板,将要填充的槽留空,基于模型的输出解析改造成一个个子查询,再汇总为最终的DSL语句。


基于Streamlit快速产品化

以Streamlit框架为例,快速不属于个一句话选股的页面功能,实现如下

import streamlit as st
import pandas as pdname = st.text_input('请输入您的股票查询条件', max_chars=100, help='最大长度为100字符')if st.button('查询'):parse_cond, df_info, order_op, limit = query(name)style = """<style>.box {border: 1px solid #ddd;padding: 6px 10px;margin-top: 10px;background-color: pink;color:#000;display:inline-block;margin-right:6px;}</style>"""st.markdown(style, unsafe_allow_html=True)conds = []for k, v in parse_cond.items():conds.append("<span class='box'>{}</span>".format(k + "(" + str(v) + ")"))if order_op:conds.append("<span class='box'>{}</span>".format(order_op + f"前{limit}" if limit != -1 else order_op))st.markdown("".join(conds), unsafe_allow_html=True)hit = df_info[0]df = pd.DataFrame(df_info[1]).rename(columns=name_to_label_code)df.insert(0, '企业名称', df.pop('企业名称'))df.insert(1, '综合指数', df.pop('综合指数'))st.write("共计命中:{}条企业".format(hit))st.dataframe(df)

其中query中包装了BERT模型的pipeline,其中streamlit弹出web应用如下

查询页面

如果检索条件,比如筛选出注册资本金大于15亿,属于广东珠海的上市企业,按照指数倒序排列,输入后检索结果如下

Text2SQL结果

Text2SQL不仅输出了最终符合条件的企业,也统计出了相关的子条件,以及子条件命中的企业数,最终符合要求的企业数,从解析的条件来看,模型结果完全正确。

如何系统的去学习大模型LLM ?

作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。

但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的 AI大模型资料 包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来

😝有需要的小伙伴,可以V扫描下方二维码免费领取🆓

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

在这里插入图片描述

四、AI大模型商业化落地方案

img

阶段1:AI大模型时代的基础理解

  • 目标:了解AI大模型的基本概念、发展历程和核心原理。
  • 内容
    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
    • L1.4.1 知识大模型
    • L1.4.2 生产大模型
    • L1.4.3 模型工程方法论
    • L1.4.4 模型工程实践
    • L1.5 GPT应用案例

阶段2:AI大模型API应用开发工程

  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。
  • 内容
    • L2.1 API接口
    • L2.1.1 OpenAI API接口
    • L2.1.2 Python接口接入
    • L2.1.3 BOT工具类框架
    • L2.1.4 代码示例
    • L2.2 Prompt框架
    • L2.2.1 什么是Prompt
    • L2.2.2 Prompt框架应用现状
    • L2.2.3 基于GPTAS的Prompt框架
    • L2.2.4 Prompt框架与Thought
    • L2.2.5 Prompt框架与提示词
    • L2.3 流水线工程
    • L2.3.1 流水线工程的概念
    • L2.3.2 流水线工程的优点
    • L2.3.3 流水线工程的应用
    • L2.4 总结与展望

阶段3:AI大模型应用架构实践

  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。
  • 内容
    • L3.1 Agent模型框架
    • L3.1.1 Agent模型框架的设计理念
    • L3.1.2 Agent模型框架的核心组件
    • L3.1.3 Agent模型框架的实现细节
    • L3.2 MetaGPT
    • L3.2.1 MetaGPT的基本概念
    • L3.2.2 MetaGPT的工作原理
    • L3.2.3 MetaGPT的应用场景
    • L3.3 ChatGLM
    • L3.3.1 ChatGLM的特点
    • L3.3.2 ChatGLM的开发环境
    • L3.3.3 ChatGLM的使用示例
    • L3.4 LLAMA
    • L3.4.1 LLAMA的特点
    • L3.4.2 LLAMA的开发环境
    • L3.4.3 LLAMA的使用示例
    • L3.5 其他大模型介绍

阶段4:AI大模型私有化部署

  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。
  • 内容
    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景

学习计划:

  • 阶段1:1-2个月,建立AI大模型的基础知识体系。
  • 阶段2:2-3个月,专注于API应用开发能力的提升。
  • 阶段3:3-4个月,深入实践AI大模型的应用架构和私有化部署。
  • 阶段4:4-5个月,专注于高级模型的应用和部署。
这份完整版的大模型 LLM 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

😝有需要的小伙伴,可以Vx扫描下方二维码免费领取🆓

这篇关于基于BERT微调+模板填充快速实现文本转DSL查询语句的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1065520

相关文章

Redis实现分布式锁全过程

《Redis实现分布式锁全过程》文章介绍Redis实现分布式锁的方法,包括使用SETNX和EXPIRE命令确保互斥性与防死锁,Redisson客户端提供的便捷接口,以及Redlock算法通过多节点共识... 目录Redis实现分布式锁1. 分布式锁的基本原理2. 使用 Redis 实现分布式锁2.1 获取锁

Linux实现查看某一端口是否开放

《Linux实现查看某一端口是否开放》文章介绍了三种检查端口6379是否开放的方法:通过lsof查看进程占用,用netstat区分TCP/UDP监听状态,以及用telnet测试远程连接可达性... 目录1、使用lsof 命令来查看端口是否开放2、使用netstat 命令来查看端口是否开放3、使用telnet

MySQL中查询和展示LONGBLOB类型数据的技巧总结

《MySQL中查询和展示LONGBLOB类型数据的技巧总结》在MySQL中LONGBLOB是一种二进制大对象(BLOB)数据类型,用于存储大量的二进制数据,:本文主要介绍MySQL中查询和展示LO... 目录前言1. 查询 LONGBLOB 数据的大小2. 查询并展示 LONGBLOB 数据2.1 转换为十

使用SpringBoot+InfluxDB实现高效数据存储与查询

《使用SpringBoot+InfluxDB实现高效数据存储与查询》InfluxDB是一个开源的时间序列数据库,特别适合处理带有时间戳的监控数据、指标数据等,下面详细介绍如何在SpringBoot项目... 目录1、项目介绍2、 InfluxDB 介绍3、Spring Boot 配置 InfluxDB4、I

基于Java和FFmpeg实现视频压缩和剪辑功能

《基于Java和FFmpeg实现视频压缩和剪辑功能》在视频处理开发中,压缩和剪辑是常见的需求,本文将介绍如何使用Java结合FFmpeg实现视频压缩和剪辑功能,同时去除数据库操作,仅专注于视频处理,需... 目录引言1. 环境准备1.1 项目依赖1.2 安装 FFmpeg2. 视频压缩功能实现2.1 主要功

使用Python实现无损放大图片功能

《使用Python实现无损放大图片功能》本文介绍了如何使用Python的Pillow库进行无损图片放大,区分了JPEG和PNG格式在放大过程中的特点,并给出了示例代码,JPEG格式可能受压缩影响,需先... 目录一、什么是无损放大?二、实现方法步骤1:读取图片步骤2:无损放大图片步骤3:保存图片三、示php

Python文本相似度计算的方法大全

《Python文本相似度计算的方法大全》文本相似度是指两个文本在内容、结构或语义上的相近程度,通常用0到1之间的数值表示,0表示完全不同,1表示完全相同,本文将深入解析多种文本相似度计算方法,帮助您选... 目录前言什么是文本相似度?1. Levenshtein 距离(编辑距离)核心公式实现示例2. Jac

使用Python实现一个简易计算器的新手指南

《使用Python实现一个简易计算器的新手指南》计算器是编程入门的经典项目,它涵盖了变量、输入输出、条件判断等核心编程概念,通过这个小项目,可以快速掌握Python的基础语法,并为后续更复杂的项目打下... 目录准备工作基础概念解析分步实现计算器第一步:获取用户输入第二步:实现基本运算第三步:显示计算结果进

Python多线程实现大文件快速下载的代码实现

《Python多线程实现大文件快速下载的代码实现》在互联网时代,文件下载是日常操作之一,尤其是大文件,然而,网络条件不稳定或带宽有限时,下载速度会变得很慢,本文将介绍如何使用Python实现多线程下载... 目录引言一、多线程下载原理二、python实现多线程下载代码说明:三、实战案例四、注意事项五、总结引

Python利用PySpark和Kafka实现流处理引擎构建指南

《Python利用PySpark和Kafka实现流处理引擎构建指南》本文将深入解剖基于Python的实时处理黄金组合:Kafka(分布式消息队列)与PySpark(分布式计算引擎)的化学反应,并构建一... 目录引言:数据洪流时代的生存法则第一章 Kafka:数据世界的中央神经系统消息引擎核心设计哲学高吞吐