2024程序员容器化上云之旅-第6集-Ubuntu-WSL2-Windows11版:艰难复活

2024-02-27 13:12

本文主要是介绍2024程序员容器化上云之旅-第6集-Ubuntu-WSL2-Windows11版:艰难复活,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

故事梗概

Java程序员马意浓在互联网公司维护老旧电商后台系统。

渴望学习新技术的他在工作中无缘Docker和K8s。

他开始自学Vue3并使用SpringBoot3完成了一个前后端分离的Web应用系统,并打算将其用Docker容器化后用K8s上云。

8 复活重生

周末终于有点属于自己的学习时间了。

马意浓按下电脑电源按钮,进入Windows 11,启动了Docker Desktop。

他等着Docker Desktop界面左下角代表k8s的小舵轮的图标的背景,从正在启动的黄色,变成正常运行的绿色。

💔等了好一会儿,k8s图标的背景色却从黄色,变成了出现故障的红色。如图1。


图1 等了好一会儿,Docker Desktop k8s图标的背景色却从黄色,变成了出现故障的红色

他有点头大。因为这是第一次出现这种情况。

他记得在Docker Desktop界面右上方Settings小齿轮图标边上,好像有个表示bug的小虫子的图标。这或许与故障解决有关。

他于是点击那个小虫子的图标。果然进入了Troubleshoot界面。里面有Clean/Purge data等三个带红框的按钮。

他本想看看出错日志。但没有找到。

✅他于是上网搜了一下这个问题。发现有网友说,如果遇到Docker Desktop里的k8s启动失败,可以点Clean/Purge data按钮,清除所有数据来解决。这个帖子还有不少网友点赞。

他于是点了这个按钮。k8s小舵轮图标的背景色,就立即从红变黄。

又过了好一会儿,小舵轮背景色果然从黄变绿!他高兴地也去点了一个赞👍。

看到小舵轮背景色重新变绿,马意浓这才松了一口气。

但之前做过的k8s配置,就全丢失了。

不过好在所有命令都在笔记里。再重新手工运行一遍就好。无非是费点时间。

马意浓想,如此看来,虽然Docker Desktop里的k8s用起来很方便,但也只能临时体验一下,不能用于生产。

他想,趁着图标背景色目前还没变红,抓紧时间学k8s的关键概念吧。

8.1 K8s里的pod、node和cluster概念

马意浓自言自语:「node是k8s里面的什么概念?它和曾经读到过的pod、cluster、container、context之间,到底有什么关系?」

他于是问AIGC。AIGC很快给出了回答。

✅「k8s pod 是 k8s cluster中最小的部署、调度和执行单元。」

「在 K8s 中,container并不直接运行在cluster node上,而是一个或多个container被封装在一个pod中。 」

「对于运行应用程序的用户来说,按照微服务的设计理念,建议的做法是只在一个Pod中封装一个Container。」

「Pod 中的所有应用程序共享相同的资源和本地网络,从而简化了 Pod 中应用程序之间的通信。 」

「Pod 在每个node上利用一个称为 kubelet 的代理,来与 K8s API 和cluster的其余部分进行通信。」

✅「k8s node是 k8s cluster中最小的计算硬件单元。node可以是本地物理服务器,也可以是驻留在本地或云提供商处的虚拟机。」

「k8s有两种类型的node:一种是控制平面 (control plane) node,另一种是worker node。」

「控制平面node运行k8s内部服务。它们好比k8s用来思考和发令的大脑。」

「而worker node运行用户的应用程序。它们好比k8s用来为用户完成业务的手脚。」

✅「k8s cluster由node组成。每次使用 k8s,其实就是在管理cluster。」

「通常,当应用程序需要应对工作负载的变化并实现容量伸缩时,集群会利用多个节点来实现这一过程。」

「如果在cluster中添加或减少node,那么cluster将根据需要,自动重新分配工作负载。」

「比如,一个cluster可以有6个node。其中3个是控制平面node,另外3个是worker node。如图2。」


图2 一个cluster可以有6个node。其中3个是控制平面node,另外3个是worker node

「k8s的良好实践,是只在worker node上运行用户应用程序,而在控制平面node上只运行k8s系统服务。」

「这样能更好地实现高可用。因为一旦其中某个node失效,cluster还能依靠其他node继续工作。」

✅「kubectl context是在kubeconfig文件中定义的描述cluster的一组配置集合,以便让kubectl知道该给哪个cluster发命令,以及使用哪些凭据进行用户身份验证等。」

「kubeconfig文件默认是~/.kube/config文件。其中的配置集合一般包括3类信息:cluster信息、user信息和namespace信息。」

「当你需要在不同的cluster之间进行切换,比如在开发环境、预生产环境和生产环境的cluster之间切换时,可以方便地运行kubectl config use-context <context-name>命令进行切换。」

他又问了AIGC如何运行kubectl命令,来查看这些概念的信息。

他决定先把这些记录在笔记中。等成功地把前后端分离的web应用部署到k8s后,再来运行。

8.2 在k8s里运行前后端分离web应用与在docker compose里运行的差异

搞清了k8s的一些基本概念后,他开始思考,如何将shopping list web app这个前后端分离的web应用,部署到k8s上。

⚠️能否用在本地docker compose上部署前后端分离的web应用的思路,来在k8s里部署呢?

马意浓思考了一下这个问题。他觉得一部分思路可行,而另一部分则不可行。

✅可行的,是CORS问题的解决思路。

因为无论docker compose还是k8s,在部署前后端分离的web应用时,都要面对CORS问题。两者的解决思路应该是一致。

❌不可行的,是在k8s的配置中,前端app、后端app和数据库的主机名,不能像在docker compose中那样,全都在代码里写死为localhost。

而应该能够在配置文件里灵活设置,以便将来部署到k8s集群后,能配置为服务的域名或对外ip地址。

8.3 在k8s中配置后端app的allowedOrigins时该如何配前端app对外域名和端口号以解决CORS问题?

⚠️既然pod是k8s cluster中最小的部署单元,那么能否将原来配置中的localhost,都改为pod的ip地址,以解决CORS问题?

通过阅读,马意浓认为这不可能。

因为pod虽然也有ip地址,但这些地址都是k8s自动分配的内部ip地址。无法对外使用。

另外,k8s会根据随时变化的容量伸缩需求,动态启动和关闭pod。另外,当pod失效后,k8s还会重启pod。这都使得pod所带有的内部ip地址,会发生动态变化。

而为后端app配置CORS时,却恰恰需要稳定的前端app对外ip地址或域名。这该怎么办?

✅马意浓在查阅了大量资料后了解到,在k8s中配置前后端分离web应用时,针对部署数据库、后端app和前端app这3个独立的微服务,每个微服务都需要先后执行两步配置:deployment配置和service配置。

他猜测,之所以分两步,或许是因为k8s所具备的实现容量动态伸缩的特点所决定的。

k8s的这个特点,在实现起来,一方面需要保证其中的微服务能对外提供稳定的服务,另一方面也需要根据随时变化的容量伸缩需求,动态地调整微服务的底层pod的数量。

既然要实现这两个方面,那么配置微服务时,相应地也可以分两步。

🦶第一步,执行deployment配置,可确保配置中指定数量的pod副本replica能够随时可用。

🦶第二步,执行service配置,以便将来访问这个微服务时,能有一个稳定的访问点,而无须关心下属每个pod变幻莫测的内部ip地址。

比如,在service配置中,可以设置访问这个微服务的类型type。

❤️如果将type设置为默认的ClusterIP,那么这个微服务就有了稳定的内部 IP 地址,以便集群内的其他组件可以访问它。 但它不允许外部流量直接访问。

这非常适合k8s集群内服务之间的内部通信。

❤️如果将type设置为LoadBalancer,那么这个微服务会使用云提供商的负载均衡器,向外部公开服务。

这非常适合需要固定和易于记住的入口点的应用程序,通常要使用云提供商提供的负载平衡和流量分配功能。

想到这里,马意浓的脑海中冒出一个念头,

😃既然service配置能够让微服务可以对外提供一个稳定的访问点,那么在k8s中配置那3个微服务时,能否把原先配置localhost的地方,都换成相应配置中的service名?

马意浓决定试一下。

他为那3个要部署到k8s的微服务,在infrastructure文件夹下,分别写了deployment-xxx.yml和service-xxx.yml配置文件。

在前端app的service-shopping-list-front-end.yml文件中,他把type设置为LoadBalancer。这样前端app就有了对外的ip地址。

然后,他又把后端app的Java代码中的CORS配置改了一下,允许所有的origin。

他本想把代码中原先配置localhost的地方,都改成相应配置中的service名,但感觉service名应该也是k8s内部使用的,外部应该无法使用,所以就没改。

等配置好,并部署到Docker Desktop k8s后,他发现前端app的购物清单页面能够正常显示了。

❌但只要前端app一访问后端app获取数据,就会出现CORS问题。

马意浓只好求助AIGC。

但或许问题问得不好,AIGC这次回答,却语焉不详。让他摸不到头脑。

他又上网搜索。结果发现,网上所有在k8s上部署web应用的样例,都仅仅部署一个前端app。

他在网上找不到如何在k8s上部署前后端分离的web应用的代码样例。

这让马意浓犯了难。看来他要独自摸索了。

他在一筹莫展之际,只好把求助信息发到了朋友圈。

「万圈,在k8s里,前端app的pod,在访问后端app的pod的API时,解决CORS问题的推荐做法是什么?」

很快,他就收到了几位朋友的回复。

「用路径区分前后端。在ingress里做转发,转发到不同的后端。」

「后端挂在同域名的/api目录下。若匹配/api则转后端,否则就转前端。」

「印象中要加一层nginx来代理。」

根据朋友们的回复,马意浓上网搜索了ingress nginx controller的信息。并在笔记中做了记录。

✅Ingress是k8s的一个API对象,用于定义外部访问集群内服务的规则,如可以基于请求的 HTTP 路径或主机名,来路由流量到不同的服务。

Ingress 使得用户可以通过单一的 IP 地址向外提供k8s中的多个服务,并可以配置负载均衡等高级路由功能。

✅Ingress Controller 是一个守护进程。它根据 Ingress 中的配置,来处理进入集群的外部请求。它负责实现 Ingress 中定义的规则。

虽然 Ingress 定义了路由规则,但需要 Ingress Controller 来实际监控这些 Ingress 资源,并应用这些规则。

若没有 Ingress Controller,那么Ingress 资源本身不会生效。

✅Nginx 是一种流行的开源 Web 服务器和反向代理服务器。在 k8s 中,Nginx 可以被用作 Ingress Controller 的一种实现。

使用 Nginx 作为 Ingress Controller 时,Nginx 会配置为根据 Ingress 资源的定义,来路由外部请求到集群内的服务。

这允许利用 Nginx 的高性能和灵活的配置来管理 Kubernetes 集群的入口流量。

笔记写到这里,再回想几位朋友的那几条回复,马意浓很受启发。

😃如果在ingress nginx controller里,为前端app和后端app分别设置不同的path,那么就可利用ingress能用单一IP地址向外提供服务的特点,让前端app访问后端app时不再跨域,从而解决CORS问题。

虽然在k8s中,解决前后端分离的web应用的CORS问题的思路清楚了,但马意浓在接下来实现这个思路的过程中,有遇到了哪些挑战?且听下回分解。

未完待续


❤️欲读系列故事的全集内容,可搜用户“程序员吾真本”,找到“2024程序员容器化上云之旅”专栏阅读。

🔥后面连载内容大纲先睹为快

🔥8 复活重生

8.4 无意中用小黄鸭调试法解决k8s中前后端分离web应用的CORS问题

8.5 在k8s集群中的软件架构

8.6 新增k8s的deployment、service和ingress配置文件以便将postgres、shopping-list-api、shopping-list-front-end三个微服务和ingress部署到k8s上

8.7 构建后端app的docker image并推送到docker hub

8.8 在git代码库打同名的tag以对应刚刚构建的docker image版本

8.9 构建前端app的docker image并推送到docker hub

8.10 在k8s集群上配置postgres、shopping-list-api和shopping-list-front-end三个微服务和ingress并运行

8.11 在k8s上运行购物清单web应用

8.12 运行kubectl命令以查看k8s概念

8.13 清理现场

🔥9 取经归来

当最终把前后端分离的web应用成功部署到azure k8s云集群上,并能顺利使用后,马意浓把整个容器化和上云之旅,写成系列文章,分享给其他程序员。


😃你能否跟着马意浓一步步做下来?在阅读中有任何疑问,欢迎在留言区留言。我会一一回复

❤️如果喜欢本文,那么点赞留言,并转发给身边有需要的朋友,就是对我的最大支持😃🤝🙏。

这篇关于2024程序员容器化上云之旅-第6集-Ubuntu-WSL2-Windows11版:艰难复活的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/752507

相关文章

Ubuntu设置程序开机自启动的操作步骤

《Ubuntu设置程序开机自启动的操作步骤》在部署程序到边缘端时,我们总希望可以通电即启动我们写好的程序,本篇博客用以记录如何在ubuntu开机执行某条命令或者某个可执行程序,需要的朋友可以参考下... 目录1、概述2、图形界面设置3、设置为Systemd服务1、概述测试环境:Ubuntu22.04 带图

Ubuntu上手动安装Go环境并解决“可执行文件格式错误”问题

《Ubuntu上手动安装Go环境并解决“可执行文件格式错误”问题》:本文主要介绍Ubuntu上手动安装Go环境并解决“可执行文件格式错误”问题,具有很好的参考价值,希望对大家有所帮助,如有错误或未... 目录一、前言二、系统架构检测三、卸载旧版 Go四、下载并安装正确版本五、配置环境变量六、验证安装七、常见

ubuntu如何部署Dify以及安装Docker? Dify安装部署指南

《ubuntu如何部署Dify以及安装Docker?Dify安装部署指南》Dify是一个开源的大模型应用开发平台,允许用户快速构建和部署基于大语言模型的应用,ubuntu如何部署Dify呢?详细请... Dify是个不错的开源LLM应用开发平台,提供从 Agent 构建到 AI workflow 编排、RA

ubuntu系统使用官方操作命令升级Dify指南

《ubuntu系统使用官方操作命令升级Dify指南》Dify支持自动化执行、日志记录和结果管理,适用于数据处理、模型训练和部署等场景,今天我们就来看看ubuntu系统中使用官方操作命令升级Dify的方... Dify 是一个基于 docker 的工作流管理工具,旨在简化机器学习和数据科学领域的多步骤工作流。

如何在Ubuntu上安装NVIDIA显卡驱动? Ubuntu安装英伟达显卡驱动教程

《如何在Ubuntu上安装NVIDIA显卡驱动?Ubuntu安装英伟达显卡驱动教程》Windows系统不同,Linux系统通常不会自动安装专有显卡驱动,今天我们就来看看Ubuntu系统安装英伟达显卡... 对于使用NVIDIA显卡的Ubuntu用户来说,正确安装显卡驱动是获得最佳图形性能的关键。与Windo

SpringIOC容器Bean初始化和销毁回调方式

《SpringIOC容器Bean初始化和销毁回调方式》:本文主要介绍SpringIOC容器Bean初始化和销毁回调方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐... 目录前言1.@Bean指定初始化和销毁方法2.实现接口3.使用jsR250总结前言Spring Bea

双系统电脑中把Ubuntu装进外接移动固态硬盘的全过程

《双系统电脑中把Ubuntu装进外接移动固态硬盘的全过程》:本文主要介绍如何在Windows11系统中使用VMware17创建虚拟机,并在虚拟机中安装Ubuntu22.04桌面版或Ubunt... 目录一、首先win11中安装vmware17二、磁盘分区三、保存四、使用虚拟机进行系统安装五、遇见的错误和解决

CentOS和Ubuntu系统使用shell脚本创建用户和设置密码

《CentOS和Ubuntu系统使用shell脚本创建用户和设置密码》在Linux系统中,你可以使用useradd命令来创建新用户,使用echo和chpasswd命令来设置密码,本文写了一个shell... 在linux系统中,你可以使用useradd命令来创建新用户,使用echo和chpasswd命令来设

如何高效移除C++关联容器中的元素

《如何高效移除C++关联容器中的元素》关联容器和顺序容器有着很大不同,关联容器中的元素是按照关键字来保存和访问的,而顺序容器中的元素是按它们在容器中的位置来顺序保存和访问的,本文介绍了如何高效移除C+... 目录一、简介二、移除给定位置的元素三、移除与特定键值等价的元素四、移除满足特android定条件的元

Ubuntu中远程连接Mysql数据库的详细图文教程

《Ubuntu中远程连接Mysql数据库的详细图文教程》Ubuntu是一个以桌面应用为主的Linux发行版操作系统,这篇文章主要为大家详细介绍了Ubuntu中远程连接Mysql数据库的详细图文教程,有... 目录1、版本2、检查有没有mysql2.1 查询是否安装了Mysql包2.2 查看Mysql版本2.