【书生·浦语】大模型实战营——第五课笔记

2024-01-14 14:44

本文主要是介绍【书生·浦语】大模型实战营——第五课笔记,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

教程文档:https://github.com/InternLM/tutorial/blob/main/lmdeploy/lmdeploy.md
视频链接:https://www.bilibili.com/video/BV1iW4y1A77P

大模型部署背景

关于模型部署

通常需要模型压缩和硬件加速
在这里插入图片描述

大模型的特点

1、显存、内存花销巨大
2、动态shape,输入输出数量不定
3、相对视觉模型,LLM结构简单,大部分都是decoder-only
在这里插入图片描述

大模型部署挑战

大模型的特点所带来的部署挑战:
1、设备:如何应对巨大的存储问题?
2、推理:如何加速token生成速度?如何有效管理、使用内存?
3、服务:如何提升系统整体吞吐量,如何降低响应时间?
在这里插入图片描述

大模型部署方案

在这里插入图片描述
continuous batch用于解决动态batch问题
云端常用的部署方案:deepspeed、tensorrt-llm、vllm、Imdepoly
移动端:llama.cpp(对移动端设备做了优化)、mlc-llm

LMDepoly简介

LMDeploy是LLM在nvidia设备上部署的全流程解决方案。(还没有涉及到移动端)

关于轻量化:
1、权重的4bit量化
2、k v cache的8bit量化

关于推理引擎:
1、turbomind,是LMDeploy的一个创新点
2、pytorch

关于服务:
1、api server
2、gradio:主要用于演示demo
3、triton inference

在这里插入图片描述

在这里插入图片描述
LMDeploy比vLLM的性能要好

核心功能——量化

在这里插入图片描述
量化后,最大的输出长度变为原来的4倍。

为什么做Weight Only的量化?


LLM中存在两种密集场景:
1、计算密集:神经网络参数量大,前向一次要经过很多计算,这个我是理解的
2、访存密集:读取什么数据呢?这个我很疑惑,群里有大佬说是KV Cache的访存

大部分时候,LLM访存才是性能瓶颈的原因,而不是数值计算的时候。

为什么只做weight only的量化?一举多得
1、将FP16的模型权重量化为int4,访存量降为FP16的1/4,降低了访存成本,提高了decoding速度(不太理解具体的过程?)
2、节省了显存

如何做weight only的量化?

使用AWQ算法。
在这里插入图片描述
AWQ的思想:在矩阵计算中,有一部分参数是非常重要的,所以其他参数可以量化来降低精度。

推理引擎TurboMind

在这里插入图片描述

持续批处理

continuous batch
两个重要的概念:
1、请求队列
2、batch slot
在这里插入图片描述
在这里插入图片描述
流程:
在这里插入图片描述

有状态的推理

在这里插入图片描述
问的时候,历史消息放在模型推理处

blocked k/v cache

在这里插入图片描述
k、v是transformer里attention计算产生的东西。后面计算需要依赖于k,v。
blocked指的是分块。
只存当前使用的k,v。

高性能cuda kernel

在这里插入图片描述
flash attention、fast w4a16,kv8、split-k decoding、算子融合这四个东西都是为了加快token生成速度的。

推理服务 api server

可以通过一个简单的命令,运行起一个服务
在这里插入图片描述

这篇关于【书生·浦语】大模型实战营——第五课笔记的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/605524

相关文章

Python并行处理实战之如何使用ProcessPoolExecutor加速计算

《Python并行处理实战之如何使用ProcessPoolExecutor加速计算》Python提供了多种并行处理的方式,其中concurrent.futures模块的ProcessPoolExecu... 目录简介完整代码示例代码解释1. 导入必要的模块2. 定义处理函数3. 主函数4. 生成数字列表5.

详解如何使用Python从零开始构建文本统计模型

《详解如何使用Python从零开始构建文本统计模型》在自然语言处理领域,词汇表构建是文本预处理的关键环节,本文通过Python代码实践,演示如何从原始文本中提取多尺度特征,并通过动态调整机制构建更精确... 目录一、项目背景与核心思想二、核心代码解析1. 数据加载与预处理2. 多尺度字符统计3. 统计结果可

Java Spring 中的监听器Listener详解与实战教程

《JavaSpring中的监听器Listener详解与实战教程》Spring提供了多种监听器机制,可以用于监听应用生命周期、会话生命周期和请求处理过程中的事件,:本文主要介绍JavaSprin... 目录一、监听器的作用1.1 应用生命周期管理1.2 会话管理1.3 请求处理监控二、创建监听器2.1 Ser

Apache 高级配置实战之从连接保持到日志分析的完整指南

《Apache高级配置实战之从连接保持到日志分析的完整指南》本文带你从连接保持优化开始,一路走到访问控制和日志管理,最后用AWStats来分析网站数据,对Apache配置日志分析相关知识感兴趣的朋友... 目录Apache 高级配置实战:从连接保持到日志分析的完整指南前言 一、Apache 连接保持 - 性

SpringBoot整合Sa-Token实现RBAC权限模型的过程解析

《SpringBoot整合Sa-Token实现RBAC权限模型的过程解析》:本文主要介绍SpringBoot整合Sa-Token实现RBAC权限模型的过程解析,本文给大家介绍的非常详细,对大家的学... 目录前言一、基础概念1.1 RBAC模型核心概念1.2 Sa-Token核心功能1.3 环境准备二、表结

MQTT SpringBoot整合实战教程

《MQTTSpringBoot整合实战教程》:本文主要介绍MQTTSpringBoot整合实战教程,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考... 目录MQTT-SpringBoot创建简单 SpringBoot 项目导入必须依赖增加MQTT相关配置编写

JavaScript实战:智能密码生成器开发指南

本文通过JavaScript实战开发智能密码生成器,详解如何运用crypto.getRandomValues实现加密级随机密码生成,包含多字符组合、安全强度可视化、易混淆字符排除等企业级功能。学习密码强度检测算法与信息熵计算原理,获取可直接嵌入项目的完整代码,提升Web应用的安全开发能力 目录

Redis迷你版微信抢红包实战

《Redis迷你版微信抢红包实战》本文主要介绍了Redis迷你版微信抢红包实战... 目录1 思路分析1.1hCckRX 流程1.2 注意点①拆红包:二倍均值算法②发红包:list③抢红包&记录:hset2 代码实现2.1 拆红包splitRedPacket2.2 发红包sendRedPacket2.3 抢

springboot项目redis缓存异常实战案例详解(提供解决方案)

《springboot项目redis缓存异常实战案例详解(提供解决方案)》redis基本上是高并发场景上会用到的一个高性能的key-value数据库,属于nosql类型,一般用作于缓存,一般是结合数据... 目录缓存异常实践案例缓存穿透问题缓存击穿问题(其中也解决了穿透问题)完整代码缓存异常实践案例Red

Spring Boot拦截器Interceptor与过滤器Filter深度解析(区别、实现与实战指南)

《SpringBoot拦截器Interceptor与过滤器Filter深度解析(区别、实现与实战指南)》:本文主要介绍SpringBoot拦截器Interceptor与过滤器Filter深度解析... 目录Spring Boot拦截器(Interceptor)与过滤器(Filter)深度解析:区别、实现与实