当前位置: 代码网 > 服务器>服务器>云虚拟主机 > K8s集群重启与恢复-Node节点启停方式

K8s集群重启与恢复-Node节点启停方式

2024年09月09日 云虚拟主机 我要评论
1 应用场景场景:在实际工作中,可能某个 worker 节点需要维护迁移,我们需要平滑的停止、启动该节点应尽量减少启停中对集群、业务造成的影响注意:剔除 worker 节点操作中该 worker 节点

1 应用场景

场景

  • 在实际工作中,可能某个 worker 节点需要维护
  • 迁移,我们需要平滑的停止、启动该节点
  • 应尽量减少启停中对集群、业务造成的影响

注意

  • 剔除 worker 节点操作中
  • 该 worker 节点上的工作负载(pod)将被驱逐到其他节点上
  • 请确保集群资源充足

2 操作步骤

2.1 停止 worker 节点调度

# 查看信息
root@sh-gpu091:~# kubectl get node
name                 status     roles   age    version
172.19.13.31         ready      node    403d   v1.14.1
sh-cpu032.aibee.cn   ready      node    403d   v1.14.1
sh-cpu033.aibee.cn   ready      node    403d   v1.14.1
sh-gpu091.aibee.cn   ready      node    403d   v1.14.1
sh-gpu101.aibee.cn   ready      node    403d   v1.14.1
# 停止 worker 节点调度
root@sh-gpu091:~# kubectl cordon sh-gpu101.aibee.cn
node/sh-gpu101.aibee.cn cordoned
  • 查看节点状态
root@sh-gpu091:~# kubectl get node
name                 status                     roles   age    version
172.19.13.31         ready                      node    403d   v1.14.1
sh-cpu032.aibee.cn   ready                      node    403d   v1.14.1
sh-cpu033.aibee.cn   ready                      node    403d   v1.14.1
sh-gpu091.aibee.cn   ready                      node    403d   v1.14.1
sh-gpu101.aibee.cn   ready,schedulingdisabled   node    403d   v1.14.1

2.2 驱逐 worker 节点上的工作负载

# --ignore-daemonsets 驱逐 pod 时忽略 daemonset
# --delete-local-data 驱逐 pod 时删除 pod 的临时数据,该参数不会删除持久化数据
root@sh-gpu091:~# kubectl drain sh-gpu101.aibee.cn --delete-local-data --ignore-daemonsets --force
node/sh-gpu101.aibee.cn already cordoned
warning: ignoring daemonset-managed pods: cattle-system/cattle-node-agent-8wcvs, kube-system/kube-flannel-ds-kqzhc, kube-system/nvidia-device-plugin-daemonset-rr2lf, monitoring/prometheus-node-exporter-xtbxp
evicting pod "model-server-0"
evicting pod "singleview-proxy-client-pbdownloader-0"
evicting pod "singleview-proxy-service-0"
pod/singleview-proxy-client-pbdownloader-0 evicted
pod/singleview-proxy-service-0 evicted
pod/model-server-0 evicted
node/sh-gpu101.aibee.cn evicted

2.3 停止 docker、kubelet 等服务

systemctl stop kubelet 
systemctl stop docker
  • 查看节点上是否还有业务 pod
kubectl get pod -a -o wide |grep sh-gpu101.aibee.cn
  • 如果不需要恢复了,可以删除节点并确认节点信息
root@sh-gpu091:~# kubectl delete node sh-gpu101.aibee.cn
node "sh-gpu101.aibee.cn" deleted
root@sh-gpu091:~# kubectl get node
name                 status     roles   age    version
172.19.13.31         ready      node    403d   v1.14.1
sh-cpu032.aibee.cn   ready      node    403d   v1.14.1
sh-cpu033.aibee.cn   ready      node    403d   v1.14.1
sh-gpu091.aibee.cn   ready      node    403d   v1.14.1
root@sh-gpu091:~#

2.4 恢复 worker 节点

systemctl start docker
systemctl status docker
systemctl start kubelet
systemctl status kubelet

2.5 允许 worker 节点调度

# 取消不可调度
kubectl uncordon sh-gpu101.aibee.cn

总结

以上为个人经验,希望能给大家一个参考,也希望大家多多支持代码网。

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com