快速部署k8s集群

共 5381字,需浏览 11分钟

 ·

2023-06-20 13:22

本文使用kubeadm方式来快速部署k8s集群,操作系统基于ubuntu操作系统



基础配置



IP网段规划



192.168.50.31 master节点



192.168.50.32 node01节点



192.168.50.33 node02节点






操作系统版本



  • Ubuntu 22.04 LTS amd64版本


环境准备



增加hosts解析记录



分别3台机器配置hosts解析记录



在所有机器的/etc/hosts文件中增加解析



192.168.50.31    master01.k8s.com
192.168.50.31 node01.k8s.com
192.168.50.32 node02.k8s.com


配置主机名



  • master01机器配置(192.168.50.31)


1
~$ hostnamectl set-hostname master01.k8s.com


  • node01机器配置(192.168.50.31)


1
~$ hostnamectl set-hostname node01.k8s.com


  • node02机器配置(192.168.50.32)


1
~$ hostnamectl set-hostname node02.k8s.com


禁止所有机器的防火墙



~$ systemctl disable --now ufw.service


所有机器启用IPV4内核转发模块



~$ modprobe br_netfilter


所有机器配置ulimit参数



~$ ulimit -SHn 65535


永久配置


~$ cat /etc/security/limits.conf
soft nofile 65535
hard nofile 65535
soft nproc 65535
hard nproc 65535


所有机器内核参数配置



~$ cat /etc/sysctl.d/k8s.conf
net.ipv4.ip_forward = 1
net.bridge.bridge-nf-call-iptables = 1
net.bridge.bridge-nf-call-ip6tables = 1
fs.may_detach_mounts = 1
vm.overcommit_memory=1
vm.panic_on_oom=0
fs.inotify.max_user_watches=89100
fs.file-max=52706963
fs.nr_open=52706963
net.netfilter.nf_conntrack_max=2310720

net.ipv4.tcp_keepalive_time = 300
net.ipv4.tcp_keepalive_probes = 3
net.ipv4.tcp_keepalive_intvl = 15
net.ipv4.tcp_max_tw_buckets = 36000
net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_max_orphans = 327680
net.ipv4.tcp_orphan_retries = 3
net.ipv4.tcp_syncookies = 1
net.ipv4.tcp_max_syn_backlog = 16384
net.ipv4.ip_conntrack_max=655535
net.ipv4.tcp_timestamps = 0
net.core.somaxconn = 16384
~$ sysctl --system


所有机器IPVS模块安装



~$ modprobe -- ip_vs
~$ modprobe -- ip_vs_rr
~$ modprobe -- ip_vs_wrr
~$ modprobe -- ip_vs_sh
~$ modprobe -- nf_conntrack
~$ cat /etc/modules-load.d/ipvs.conf
ip_vs
ip_vs_lc
ip_vs_wlc
ip_vs_rr
ip_vs_wrr
ip_vs_lblc
ip_vs_lblcr
ip_vs_dh
ip_vs_sh
ip_vs_fo
ip_vs_nq
ip_vs_sed
ip_vs_ftp
ip_vs_sh
nf_conntrack
ip_tables
ip_set
xt_set
ipt_set
ipt_rpfilter
ipt_REJECT
ipip


所有机器检查模块是否加载



~$ lsmod |grep -e ip_vs -e nf_conntrack
~$ apt install ipset # 安装ipset, ipvsadm 管理工具


所有机器同步服务器时间



~$ ln -sf /usr/share/zoneinfo/Asia/Shanghai  /etc/localtime # 配置时区
~$ ntpdate time.windows.com


所有机器关闭swap



~$ swapoff  -a
~$ cat /etc/fstab
# 注释swap分区
#/swap.img none swap sw 0 0


容器运行时安装



所有机器依赖包安装



~$ apt-get install -y libseccomp2


所有机器containerd下载部署



~$ wget https://github.com/containerd/containerd/releases/download/v1.6.18/cri-containerd-cni-1.6.18-linux-amd64.tar.gz
~$ tar -tf cri-containerd-cni-1.6.18-linux-amd64.tar.gz # 查看压缩包包含哪些文件
~$ tar zxf cri-containerd-cni-1.6.18-linux-amd64.tar.gz -C / # 解压包到跟路径
~$ export PATH=$PATH:/opt/cin/bin # 增加环境变量


所有机器配置文件生成



~$ mkdir -p /etc/containerd
~$ containerd config default > /etc/containerd/config.toml


所有机器修改配置文件



配置文件路径/etc/containerd/config.toml





root = "/var/lib/containerd" # 保存持久化数据目录
....
sandbox_image = "registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.6"
....
[plugins."io.containerd.grpc.v1.cri".containerd.runtimes.runc.options]
....
SystemdCgroup = true
....
[plugins."io.containerd.grpc.v1.cri".registry] # 镜像加速配置
....
[plugins."io.containerd.grpc.v1.cri".registry.mirrors]
[plugins."io.containerd.grpc.v1.cri".registry.mirrors."docker.io"]
endpoint = ["https://bqr1dr1n.mirror.aliyuncs.com"]
[plugins."io.containerd.grpc.v1.cri".registry.mirrors."k8s.gcr.io"]
endpoint = ["https://registry.aliyuncs.com/k8sxio"]


所有机器启动containerd服务



~$ systemctl  enable --now containerd





开始集群安装



所有机器kubeadm安装



apt-get update && apt-get install -y apt-transport-https
curl https://mirrors.aliyun.com/kubernetes/apt/doc/apt-key.gpg | apt-key add -
cat </etc/apt/sources.list.d/kubernetes.list
deb https://mirrors.aliyun.com/kubernetes/apt/ kubernetes-xenial main
EOF
apt-get update
apt-get install -y kubelet=1.23.13-00 kubeadm=1.23.13-00 kubectl=1.23.13-00
sudo apt-mark hold kubelet=1.23.13-00 kubeadm=1.23.13-00 kubectl=1.23.13-00 # 锁定版本


所有机启动kubelet服务



~$ systemctl enable --now kubelet


master节点初始化集群配置文件



~$ kubeadm config print init-defaults --component-configs KubeletConfiguration >/root/kubeadm.yaml


master节点修改配置文件



配置文件路径 /root/kubeadm.yaml





.....
kind: InitConfiguration
localAPIEndpoint:
advertiseAddress: 192.168.50.31 # 替换成master地址
bindPort: 6443
nodeRegistration:
criSocket: /run/containerd/containerd.sock # 修改为containerd的sock文件
imagePullPolicy: IfNotPresent
name: master01.k8s.com # 注册的master名称
taints: # 污点防止调度到master节点
- effect: "NoSchedule"
key: "node-role.kubernetes.io/master"
---
apiVersion: kubeproxy.config.k8s.io/v1alpha1 # 增加kube-proxy模式配置
kind: KubeProxyConfiguration
mode: ipvs # kube-proxy 模式
....
imageRepository: registry.aliyuncs.com/k8sxio # 修改镜像获取地址为国内地址
kind: ClusterConfiguration
kubernetesVersion: 1.23.13 # 获取k8s版本
networking:
dnsDomain: cluster.local
serviceSubnet: 10.96.0.0/12
podSubnet: 10.244.0.0/16 # 指定pod子网
....


初始化master节点



# 获取镜像
~$ kubeadm config images pull --config /root/kubeadm.yaml
# 手动拉取coredns镜像,阿里云没有这个镜像
~$ ctr -n k8s.io image pull docker.io/coredns/coredns:1.8.6
~$ ctr -n k8s.io image tag docker.io/coredns/coredns:1.8.6 registry.aliyuncs.com/k8sxio/coredns:v1.8.6
# 初始化master节点, 根据提示可加入node节点
~$ kubeadm init -v 5 --config /root/kubeadm.yaml


初始化master节点后,根据kubeadm join提示来完成node节点的加入 如果忘记join节点token可以通过命令重新获取新的tokenkubeadm token create --print-join-command








网络插件安装



calico文件下载github地址





~$ kubectl apply -f calico.yaml
# 移除containerd的网络配置,放置影响pod分配的IP地址
~$ mv /etc/cni/net.d/10-containerd-net.conflist /etc/cni/net.d/10-containerd-net.conflist.old





清理集群



执行kubeadm rest以后需要在对应的节点执行清理,次命令可以在所有节点执行





~$ kubeadm rest
~$ ifconfig cni0 down && ip link delete cni0
~$ rm -rf /var/lib/cni/



























浏览 61
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报