Docker使用tensorflow/serving镜像部署模型

2024-09-04 18:04

本文主要是介绍Docker使用tensorflow/serving镜像部署模型,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Docker使用tensorflow/serving镜像部署模型

环境

简单梳理一下使用tensorflow/serving镜像在服务器上部署模型。
首先要保证在linux环境上已经安装好了docker,之后下载tensorflow/serving镜像:

#下载镜像
docker pull tensorflow/serving
#查看下载的镜像
docker images

下载官方的模型文件

tensorflow-serving源码中有很多官方训练好的模型,git地址:https://github.com/tensorflow/serving

#创建一个文件夹
mkdir tensorflow-test
#在上面的文件下执行clone
git clone https://github.com/tensorflow/serving

单模型部署

这里用官方提供的saved_model_half_plus_two_cpu作为示例,这个模型在/home/tensorflow/serving/tensorflow_serving/servables/tensorflow/testdata这个路径下,前面的地址根据自己的服务器地址改一下。
运行下面的命令:

docker run -p 8501:8501 
--mount type=bind,source=/home/saved_model_half_plus_two_cpu,target=/tensorflow/models/half_plus_two -e MODEL_NAME=half_plus_two -t tensorflow/serving --model_base_path=/tensorflow/models/half_plus_two &

说明:
docker run:这不用多解释,docker运行镜像的命令
-p 8501:8501:-p是绑定端口的参数,第一个8501代表着现在用的这台机器的8501端口,第二个8501代表着通过这个镜像启动的容器的8501端口,所以这里的意思就是将本地的8501端口和通过这个镜像启动的容器的8501端口绑定,访问本地的8501端口就相当于访问了该容器的8501端口。当然第一个8501可以修改任意本地空闲的端口,第二个8501不可以随便修改,tensorflow/serving镜像默认对外提供两个端口,8501:http请求的端口,用去提供restful服务;8500:grpc请求的端口,提供grpc服务,这里要注意。
–mount type=bind,source=/home/saved_model_half_plus_two_cpu,target=/tensorflow/models/half_plus_two:source后面的地址是本地的地址,后面的是容器上的地址,这里是将本地的这个地址挂载到容器上这个地址
-e MODEL_NAME=half_plus_two:设置环境变量,设置模型名称为half_plus_two
-t tensorflow/serving:通过tensorflow/serving这个镜像来启动容器
–model_base_path=/tensorflow/models/half_plus_two:指定模型的基础路径,这里的路径最好和target后面的路径保持一致。
&:后面运行

执行上述命令之后输出如下信息,代表启动成功了:
在这里插入图片描述
这时候就可以ctrl+c退出这个页面,然后使用http请求测试一下

curl -d '{"instances": [1.0, 2.0, 5.0]}' -X POST http://localhost:8501/v1/models/half_plus_two:predict

输出如下:
在这里插入图片描述

多模型部署

这里说的多模型部署的意思是在一个容器里启动多个模型,也可以启动多个容器,每个容器里启动一个模型。多模型部署,要先创建一个models.config文件,内容如下

model_config_list:{config:{name:"half_plus_two"base_path:"/tensorflow/multiModel/two"model_platform:"tensorflow"model_version_policy {specific {versions: 123}}},config:{name:"tf"base_path:"/tensorflow/multiModel/two_tf2"model_platform:"tensorflow"model_version_policy {specific {versions: 123}}}
}

创建好这个文件之后执行下面的命令:

docker run -p 8500:8500 -p 8501:8501 -v /home/tensorflow/serving/tensorflow_serving/servables/tensorflow/testdata/saved_model_half_plus_two_cpu:/tensorflow/multiModel/two -v /home/tensorflow/serving/tensorflow_serving/servables/tensorflow/testdata/saved_model_half_plus_two_tf2_cpu:/tensorflow/multiModel/two_tf2 -v /home/tensorflow/models.config:/tensorflow/models.config -t tensorflow/serving --model_config_file=/tensorflow/models.config &

说明:
docker run:不多说
-p 8500:8500 -p 8501:8501:这里就是将本机的8500和8501绑定到容器上的8500和8501端口,这两个端口分别提供http请求和grpc请求,这个上面详细讲了,这里也不多说了。
-v /home/tensorflow/serving/tensorflow_serving/servables/tensorflow/testdata/saved_model_half_plus_two_cpu:/tensorflow/multiModel/two:这里也是挂载目录的意思,冒号前面的地址是本机地址(绝对路径),冒号后面是容器上的地址(绝对路径)。接下来两个-v后面跟的内容都是这个意思。就不说了
–model_config_file=/tensorflow/models.config:设置config文件的地址,注意这里后面跟着的地址是容器上的地址,最好也和挂载的地址保持一致
&:后台运行

执行命令之后输出和测试和单模型部署一样,这里就不贴图了。

问题

博主对于docker和模型,还有这个tensorflow/serving镜像就是个小白,但是工作中要用到,所以在本地虚拟机测了一下要用到的内容,遇到的问题挺多的,也记不清了,下面这俩还有记录。
Could not find base path /models/half_plus_two for servable half_plus_two with error NOT_FOUND:
Failed to start server. Error: NOT_FOUND: /tensorflow/models.config; No such file or directory
主要弄懂每个地址是对应的本地地址,还是对应的容器上的地址,我遇到的问题应该就很好解决了,没什么要写的了,结束!
参考文档:https://blog.csdn.net/xxm524/article/details/128060790
https://blog.csdn.net/xiedelong/article/details/122044005

是不是一定要有所失,才能有所悟

这篇关于Docker使用tensorflow/serving镜像部署模型的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1136637

相关文章

Java中流式并行操作parallelStream的原理和使用方法

《Java中流式并行操作parallelStream的原理和使用方法》本文详细介绍了Java中的并行流(parallelStream)的原理、正确使用方法以及在实际业务中的应用案例,并指出在使用并行流... 目录Java中流式并行操作parallelStream0. 问题的产生1. 什么是parallelS

Linux join命令的使用及说明

《Linuxjoin命令的使用及说明》`join`命令用于在Linux中按字段将两个文件进行连接,类似于SQL的JOIN,它需要两个文件按用于匹配的字段排序,并且第一个文件的换行符必须是LF,`jo... 目录一. 基本语法二. 数据准备三. 指定文件的连接key四.-a输出指定文件的所有行五.-o指定输出

Linux jq命令的使用解读

《Linuxjq命令的使用解读》jq是一个强大的命令行工具,用于处理JSON数据,它可以用来查看、过滤、修改、格式化JSON数据,通过使用各种选项和过滤器,可以实现复杂的JSON处理任务... 目录一. 简介二. 选项2.1.2.2-c2.3-r2.4-R三. 字段提取3.1 普通字段3.2 数组字段四.

Linux kill正在执行的后台任务 kill进程组使用详解

《Linuxkill正在执行的后台任务kill进程组使用详解》文章介绍了两个脚本的功能和区别,以及执行这些脚本时遇到的进程管理问题,通过查看进程树、使用`kill`命令和`lsof`命令,分析了子... 目录零. 用到的命令一. 待执行的脚本二. 执行含子进程的脚本,并kill2.1 进程查看2.2 遇到的

详解SpringBoot+Ehcache使用示例

《详解SpringBoot+Ehcache使用示例》本文介绍了SpringBoot中配置Ehcache、自定义get/set方式,并实际使用缓存的过程,文中通过示例代码介绍的非常详细,对大家的学习或者... 目录摘要概念内存与磁盘持久化存储:配置灵活性:编码示例引入依赖:配置ehcache.XML文件:配置

Java 虚拟线程的创建与使用深度解析

《Java虚拟线程的创建与使用深度解析》虚拟线程是Java19中以预览特性形式引入,Java21起正式发布的轻量级线程,本文给大家介绍Java虚拟线程的创建与使用,感兴趣的朋友一起看看吧... 目录一、虚拟线程简介1.1 什么是虚拟线程?1.2 为什么需要虚拟线程?二、虚拟线程与平台线程对比代码对比示例:三

Nginx分布式部署流程分析

《Nginx分布式部署流程分析》文章介绍Nginx在分布式部署中的反向代理和负载均衡作用,用于分发请求、减轻服务器压力及解决session共享问题,涵盖配置方法、策略及Java项目应用,并提及分布式事... 目录分布式部署NginxJava中的代理代理分为正向代理和反向代理正向代理反向代理Nginx应用场景

k8s按需创建PV和使用PVC详解

《k8s按需创建PV和使用PVC详解》Kubernetes中,PV和PVC用于管理持久存储,StorageClass实现动态PV分配,PVC声明存储需求并绑定PV,通过kubectl验证状态,注意回收... 目录1.按需创建 PV(使用 StorageClass)创建 StorageClass2.创建 PV

Redis 基本数据类型和使用详解

《Redis基本数据类型和使用详解》String是Redis最基本的数据类型,一个键对应一个值,它的功能十分强大,可以存储字符串、整数、浮点数等多种数据格式,本文给大家介绍Redis基本数据类型和... 目录一、Redis 入门介绍二、Redis 的五大基本数据类型2.1 String 类型2.2 Hash

Redis中Hash从使用过程到原理说明

《Redis中Hash从使用过程到原理说明》RedisHash结构用于存储字段-值对,适合对象数据,支持HSET、HGET等命令,采用ziplist或hashtable编码,通过渐进式rehash优化... 目录一、开篇:Hash就像超市的货架二、Hash的基本使用1. 常用命令示例2. Java操作示例三