Kubernets 学习: 一文理解 K8s Deployment 清单文件的含义及作用
在接触 Kubernets 运维后, 我们需要将我们编写的程序交付给 Kubernets 进行集群化部署. 这么做的前提需要您充分的理解 Kubernets Deployment 清单文件的含义及各个配置的作用. 本文将会带你进行了解
在接触 Kubernets 运维后, 我们需要将我们编写的程序交付给 Kubernets 进行集群化部署. 这么做的前提需要您充分的理解 Kubernets Deployment 清单文件的含义及各个配置的作用. 本文将会带你进行了解
在搭建好 K3s Master, Worker 与私有 Docker 镜像站后, 我们就该将自己开发的程序交付给 K3s 进行集群化部署. 这篇文章就记录了博主将程序交付 K3s 部署运行的全过程
在上一篇文章搭建完 K3s Master 和 Worker 节点之后, 我们就需要将我们的程序推送到 K3s 内部, 来实现集群化的部署. 在开发环境, 我们可以直接将打包好的 Docker 镜像推送到 K3s 内部. 但在实际生产环境, 更推荐搭建本地 Docker 私有仓库. 这样不仅方便我们管理 Docker 镜像, 同时也可以更快捷的将程序集群化部署.
由于项目的业务需要, 负载上来之后单个 Docker 容器撑不住, 遂决定开始研究 Kubernets, 对容器进行一个集群化. 在询问 AI 相关建议后, AI 建议我从轻量级的 Kubernets 发行版 K3s 入手. 于是这篇文章将会记录博主在 Proxmox VE 9.1.6 服务器上从零开始搭建 K3s 节点.
博主家里现在有两条入网宽带, 如果只在一个系统上部署网络出口相关业务, 那么只能同时使用一条宽带的上行, 没法做到充分利用两条宽带的上行. 因此, 博主决定将自己的网络出入口子服务器也换成 Proxmox VE, 这样既能通过防火墙规则和负载均衡同时使用两条宽带的上行作为网络出口, 也可以更加方便的管理服务器. 但是, 如果想在迁移的同时, 不丢失原有服务器上安装的操作系统和环境, 该怎么操作呢? 本篇文章将会为你带来全量迁移的最佳方案