
目录
三、安装docker/kubeadm/kubelet【所有节点】
一、 kubernetes 的概述
中文官网:kubernetes 架构
二、服务器配置
2.1 服务器部署规划
| 角色 | ip | 配置 | 组件 |
| k8s-master1 | 192.168.2.130 | 4c/8g/100g | apiserver , controller, schedule, etcd |
| k8s-node1 | 192.168.2.131 | 4c/6g/100g | kubelet , kube-proxy, docker ,etcd |
| k8s-node2 | 192.168.2.132 | 4c/6g/100g | kubelet , kube-proxy, docker ,etcd |
2.2服务器初始化配置
# 所有节点都要配置
#关闭防火墙:
systemctl stop firewalld
systemctl disable firewalld
#关闭selinux:
sed -i 's/enforcing/disabled/' /etc/selinux/config # 永久
setenforce 0 # 临时
# 关闭swap:
swapoff -a # 临时
vim /etc/fstab # 永久禁用,打开/etc/fstab注释掉swap那一行。
设置主机名:
hostnamectl set-hostname <hostname>
#在master添加hosts:
cat >> /etc/hosts << eof
192.168.2.130 k8s-master1
192.168.2.131 k8s-node1
192.168.2.132 k8s-node2
eof
# 免密
ssh-keygen -t rsa
ssh-copy-id -i .ssh/id_rsa.pub k8s-node1
ssh-copy-id -i .ssh/id_rsa.pub k8s-node2
# 将桥接的ipv4流量传递到iptables的链:
cat > /etc/sysctl.d/k8s.conf << eof
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
eof
sysctl --system # 生效
## 时间同步
yum install ntpdate -y
ntpdate cn.pool.ntp.org
1)crontab -e
* */1 * * * /usr/sbin/ntpdate cn.pool.ntp.org
2)重启crond服务:
service crond restart
# 基础命令
yum install bash-completion lrzsz tree vim wget net-tools zip unzip -y
三、安装docker/kubeadm/kubelet【所有节点】
3.1 安装docker
wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -o /etc/yum.repos.d/docker-ce.repo
yum -y install docker-ce
systemctl enable docker && systemctl start docker
配置镜像下载加速器:
mkdir -p /etc/docker/
cat > /etc/docker/daemon.json <<eof
{
"registry-mirrors":["https://rsbud4vc.mirror.aliyuncs.com","https://registry.docker-cn.com","https://docker.mirrors.ustc.edu.cn","https://dockerhub.azk8s.cn","http://hub-mirror.c.163.com","http://qtid6917.mirror.aliyuncs.com"]
}
eof
systemctl restart docker
docker info
3.2 添加阿里云yum软件源
cat > /etc/yum.repos.d/kubernetes.repo << eof
[kubernetes]
name=kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
eof
3.3 安装kubeadm,kubelet和kubectl
yum install -y kubelet-1.19.0 kubeadm-1.19.0 kubectl-1.19.0
systemctl enable kubelet
四、部署kubernetes master
在192.168.2.130(master)执行。
kubeadm init \
--apiserver-advertise-address=192.168.2.130 \
--image-repository registry.aliyuncs.com/google_containers \
--kubernetes-version v1.19.0 \
--pod-network-cidr=10.244.0.0/16 \
--ignore-preflight-errors=all
- --apiserver-advertise-address 集群通告地址
- --image-repository 由于默认拉取镜像地址k8s.gcr.io国内无法访问,这里指定阿里云镜像仓库地址
- --kubernetes-version k8s版本,与上面安装的一致
- --service-cidr 集群内部虚拟网络,pod统一访问入口
- --pod-network-cidr pod网络,,与下面部署的cni网络组件yaml中保持一致
或者使用配置文件引导:
vi kubeadm.conf
apiversion: kubeadm.k8s.io/v1beta2
kind: clusterconfiguration
kubernetesversion: v1.19.0
imagerepository: registry.aliyuncs.com/google_containers
networking:
podsubnet: 10.244.0.0/16
servicesubnet: 10.96.0.0/12
kubeadm init --config kubeadm.conf --ignore-preflight-errors=all
拷贝kubectl使用的连接k8s认证文件到默认路径:
mkdir -p $home/.kube
sudo cp -i /etc/kubernetes/admin.conf $home/.kube/config
sudo chown $(id -u):$(id -g) $home/.kube/config
## 执行添加节点
kubectl get nodes
name status roles age version
k8s-master ready master 2m v1.19.0

五、部署kubernetes node
在192.168.2.131/132(node)执行。
向集群添加新节点,执行在kubeadm init输出的kubeadm join命令:
kubeadm join 192.168.2.130:6443 --token y5of4a.b9g9atwa6mzprag0 \
--discovery-token-ca-cert-hash sha256:4538525e80edd27056cdb6b2e1d75373cf91ef1ff21b8bd7437551d64b9ed281

六、部署容器网络(cni)
calico是一个纯三层的数据中心网络方案,calico支持广泛的平台,包括kubernetes、openstack等。
calico 在每一个计算节点利用 linux kernel 实现了一个高效的虚拟路由器( vrouter) 来负责数据转发,而每个 vrouter 通过 bgp 协议负责把自己上运行的 workload 的路由信息向整个 calico 网络内传播。
此外,calico 项目还实现了 kubernetes 网络策略,提供acl功能。
wget --no-check-certificate https://docs.projectcalico.org/v3.14/manifests/calico.yaml
下载完后还需要修改里面定义pod网络(calico_ipv4pool_cidr),与前面kubeadm init指定的一样
修改完后应用清单:
kubectl apply -f calico.yaml
kubectl get pods -n kube-system

节点查看

七、测试kubernetes集群
- 验证pod工作
- 验证pod网络通信
- 验证dns解析
在kubernetes集群中创建一个pod,验证是否正常运行:
kubectl create deployment nginx --image=nginx
kubectl expose deployment nginx --port=80 --type=nodeport
kubectl get pod,svc
访问地址:http://nodeip:port

发表评论