Docker使用tensorflow/serving镜像部署模型

2024-09-04 18:04

本文主要是介绍Docker使用tensorflow/serving镜像部署模型,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Docker使用tensorflow/serving镜像部署模型

环境

简单梳理一下使用tensorflow/serving镜像在服务器上部署模型。
首先要保证在linux环境上已经安装好了docker,之后下载tensorflow/serving镜像:

#下载镜像
docker pull tensorflow/serving
#查看下载的镜像
docker images

下载官方的模型文件

tensorflow-serving源码中有很多官方训练好的模型,git地址:https://github.com/tensorflow/serving

#创建一个文件夹
mkdir tensorflow-test
#在上面的文件下执行clone
git clone https://github.com/tensorflow/serving

单模型部署

这里用官方提供的saved_model_half_plus_two_cpu作为示例,这个模型在/home/tensorflow/serving/tensorflow_serving/servables/tensorflow/testdata这个路径下,前面的地址根据自己的服务器地址改一下。
运行下面的命令:

docker run -p 8501:8501 
--mount type=bind,source=/home/saved_model_half_plus_two_cpu,target=/tensorflow/models/half_plus_two -e MODEL_NAME=half_plus_two -t tensorflow/serving --model_base_path=/tensorflow/models/half_plus_two &

说明:
docker run:这不用多解释,docker运行镜像的命令
-p 8501:8501:-p是绑定端口的参数,第一个8501代表着现在用的这台机器的8501端口,第二个8501代表着通过这个镜像启动的容器的8501端口,所以这里的意思就是将本地的8501端口和通过这个镜像启动的容器的8501端口绑定,访问本地的8501端口就相当于访问了该容器的8501端口。当然第一个8501可以修改任意本地空闲的端口,第二个8501不可以随便修改,tensorflow/serving镜像默认对外提供两个端口,8501:http请求的端口,用去提供restful服务;8500:grpc请求的端口,提供grpc服务,这里要注意。
–mount type=bind,source=/home/saved_model_half_plus_two_cpu,target=/tensorflow/models/half_plus_two:source后面的地址是本地的地址,后面的是容器上的地址,这里是将本地的这个地址挂载到容器上这个地址
-e MODEL_NAME=half_plus_two:设置环境变量,设置模型名称为half_plus_two
-t tensorflow/serving:通过tensorflow/serving这个镜像来启动容器
–model_base_path=/tensorflow/models/half_plus_two:指定模型的基础路径,这里的路径最好和target后面的路径保持一致。
&:后面运行

执行上述命令之后输出如下信息,代表启动成功了:
在这里插入图片描述
这时候就可以ctrl+c退出这个页面,然后使用http请求测试一下

curl -d '{"instances": [1.0, 2.0, 5.0]}' -X POST http://localhost:8501/v1/models/half_plus_two:predict

输出如下:
在这里插入图片描述

多模型部署

这里说的多模型部署的意思是在一个容器里启动多个模型,也可以启动多个容器,每个容器里启动一个模型。多模型部署,要先创建一个models.config文件,内容如下

model_config_list:{config:{name:"half_plus_two"base_path:"/tensorflow/multiModel/two"model_platform:"tensorflow"model_version_policy {specific {versions: 123}}},config:{name:"tf"base_path:"/tensorflow/multiModel/two_tf2"model_platform:"tensorflow"model_version_policy {specific {versions: 123}}}
}

创建好这个文件之后执行下面的命令:

docker run -p 8500:8500 -p 8501:8501 -v /home/tensorflow/serving/tensorflow_serving/servables/tensorflow/testdata/saved_model_half_plus_two_cpu:/tensorflow/multiModel/two -v /home/tensorflow/serving/tensorflow_serving/servables/tensorflow/testdata/saved_model_half_plus_two_tf2_cpu:/tensorflow/multiModel/two_tf2 -v /home/tensorflow/models.config:/tensorflow/models.config -t tensorflow/serving --model_config_file=/tensorflow/models.config &

说明:
docker run:不多说
-p 8500:8500 -p 8501:8501:这里就是将本机的8500和8501绑定到容器上的8500和8501端口,这两个端口分别提供http请求和grpc请求,这个上面详细讲了,这里也不多说了。
-v /home/tensorflow/serving/tensorflow_serving/servables/tensorflow/testdata/saved_model_half_plus_two_cpu:/tensorflow/multiModel/two:这里也是挂载目录的意思,冒号前面的地址是本机地址(绝对路径),冒号后面是容器上的地址(绝对路径)。接下来两个-v后面跟的内容都是这个意思。就不说了
–model_config_file=/tensorflow/models.config:设置config文件的地址,注意这里后面跟着的地址是容器上的地址,最好也和挂载的地址保持一致
&:后台运行

执行命令之后输出和测试和单模型部署一样,这里就不贴图了。

问题

博主对于docker和模型,还有这个tensorflow/serving镜像就是个小白,但是工作中要用到,所以在本地虚拟机测了一下要用到的内容,遇到的问题挺多的,也记不清了,下面这俩还有记录。
Could not find base path /models/half_plus_two for servable half_plus_two with error NOT_FOUND:
Failed to start server. Error: NOT_FOUND: /tensorflow/models.config; No such file or directory
主要弄懂每个地址是对应的本地地址,还是对应的容器上的地址,我遇到的问题应该就很好解决了,没什么要写的了,结束!
参考文档:https://blog.csdn.net/xxm524/article/details/128060790
https://blog.csdn.net/xiedelong/article/details/122044005

是不是一定要有所失,才能有所悟

这篇关于Docker使用tensorflow/serving镜像部署模型的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1136637

相关文章

使用Python构建智能BAT文件生成器的完美解决方案

《使用Python构建智能BAT文件生成器的完美解决方案》这篇文章主要为大家详细介绍了如何使用wxPython构建一个智能的BAT文件生成器,它不仅能够为Python脚本生成启动脚本,还提供了完整的文... 目录引言运行效果图项目背景与需求分析核心需求技术选型核心功能实现1. 数据库设计2. 界面布局设计3

使用IDEA部署Docker应用指南分享

《使用IDEA部署Docker应用指南分享》本文介绍了使用IDEA部署Docker应用的四步流程:创建Dockerfile、配置IDEADocker连接、设置运行调试环境、构建运行镜像,并强调需准备本... 目录一、创建 dockerfile 配置文件二、配置 IDEA 的 Docker 连接三、配置 Do

Android Paging 分页加载库使用实践

《AndroidPaging分页加载库使用实践》AndroidPaging库是Jetpack组件的一部分,它提供了一套完整的解决方案来处理大型数据集的分页加载,本文将深入探讨Paging库... 目录前言一、Paging 库概述二、Paging 3 核心组件1. PagingSource2. Pager3.

python使用try函数详解

《python使用try函数详解》Pythontry语句用于异常处理,支持捕获特定/多种异常、else/final子句确保资源释放,结合with语句自动清理,可自定义异常及嵌套结构,灵活应对错误场景... 目录try 函数的基本语法捕获特定异常捕获多个异常使用 else 子句使用 finally 子句捕获所

C++11右值引用与Lambda表达式的使用

《C++11右值引用与Lambda表达式的使用》C++11引入右值引用,实现移动语义提升性能,支持资源转移与完美转发;同时引入Lambda表达式,简化匿名函数定义,通过捕获列表和参数列表灵活处理变量... 目录C++11新特性右值引用和移动语义左值 / 右值常见的左值和右值移动语义移动构造函数移动复制运算符

Python对接支付宝支付之使用AliPay实现的详细操作指南

《Python对接支付宝支付之使用AliPay实现的详细操作指南》支付宝没有提供PythonSDK,但是强大的github就有提供python-alipay-sdk,封装里很多复杂操作,使用这个我们就... 目录一、引言二、准备工作2.1 支付宝开放平台入驻与应用创建2.2 密钥生成与配置2.3 安装ali

C#中lock关键字的使用小结

《C#中lock关键字的使用小结》在C#中,lock关键字用于确保当一个线程位于给定实例的代码块中时,其他线程无法访问同一实例的该代码块,下面就来介绍一下lock关键字的使用... 目录使用方式工作原理注意事项示例代码为什么不能lock值类型在C#中,lock关键字用于确保当一个线程位于给定实例的代码块中时

MySQL 强制使用特定索引的操作

《MySQL强制使用特定索引的操作》MySQL可通过FORCEINDEX、USEINDEX等语法强制查询使用特定索引,但优化器可能不采纳,需结合EXPLAIN分析执行计划,避免性能下降,注意版本差异... 目录1. 使用FORCE INDEX语法2. 使用USE INDEX语法3. 使用IGNORE IND

C# $字符串插值的使用

《C#$字符串插值的使用》本文介绍了C#中的字符串插值功能,详细介绍了使用$符号的实现方式,文中通过示例代码介绍的非常详细,需要的朋友们下面随着小编来一起学习学习吧... 目录$ 字符使用方式创建内插字符串包含不同的数据类型控制内插表达式的格式控制内插表达式的对齐方式内插表达式中使用转义序列内插表达式中使用

flask库中sessions.py的使用小结

《flask库中sessions.py的使用小结》在Flask中Session是一种用于在不同请求之间存储用户数据的机制,Session默认是基于客户端Cookie的,但数据会经过加密签名,防止篡改,... 目录1. Flask Session 的基本使用(1) 启用 Session(2) 存储和读取 Se