0
点赞
收藏
分享

微信扫一扫

本地运行feishu-chatgpt项目结合内网穿透实现无公网IP远程访问

目录

 

k8s集群类型

k8s集群规划:

1.基础环境准备:

(1)保证可以连接外网

(2)关闭禁用防火墙和selinux

(3)同步阿里云服务器时间(达到集群之间时间同步)

(4)主机名规划

2.集群环境部署

(1)配置集群之间本地解析

(2)开启bridge网桥过滤功能

(3)配置ipvs代理功能

(4)关闭禁用swap分区

3.安装Docker(采用离线版部署较快)

如果想直接在线安装Docker可以看我上一章文档

(1)上传离线包并解压

(2)安装Docker

(3)启用 Cgroup 控制组

(4)启动并查看Docker版本

Docker部署成功!!!

4.k8s集群部署

部署方式有哪些:

(1)使用阿里仓库进行安装

(2)安装集群软件

(3)配置 kubelet 启用 Cgroup 控制组

(4)设置kubelet开机自启

5.集群初始化

(1)查看集群所需镜像文件

(2)创建集群初始化配置文件

(3)配置集群初始化文件

(4)集群初始化

(5)根据提示,在master生成集群管理员配置文件

6.node节点加入集群

在master节点重新生成包含新token的完整命令

(2)查看节点是否加入成功

7.部署Calico网络

网络模型的区别:

性能的区别:

(1)在 master节点安装下载 Calico 的yaml文件

(2)创建calico网络

(3)查看calico的Pod状态

离线部署Calico网络(如果拉取不到可使用离线方式部署):

(4)检查集群状态

8.验证:使用k8s运行一个nginx容器

(1)简单写一个nginx的yaml文件

(2)创建nginx容器

(4)浏览器访问测试:

部署成功!!!!


 

k8s集群类型

一主多从集群:由一台Master管理节点和多台Node工作节点组成,生产环境下Master节点存在单点故障的风险,适合学习和测试环境使用;

多主多从集群:由多台Master管理节点和多Node工作节点组成,安全性高,适合生产环境使用;

k8s集群规划:

本章采用一主多从集群进行演示

 

主机名

IP地址

角色

操作系统

硬件最低配置

Master 

192.168.100.101

管理节点

CentOS 7

2Core/4G内存/50G+

node01

192.168.100.102

工作节点

CentOS 7

1Core/2G内存/50G

node02

192.168.100.103

工作节点

CentOS 7

1Core/2G内存/50G+

注意:master节点CPU必须为2核心(不然后续集群初始化会报错),内存2+

 

1.基础环境准备:

(1)保证可以连接外网

2097fb019e4349efa1eab6aa398e7b8c.png

(2)关闭禁用防火墙和selinux

60797484cfb346e5bdc2e47396661487.png

3同步阿里云服务器时间(达到集群之间时间同步)

yum install ntpdate -y

ntpdate ntp1.aliyun.com

d760960efda54f669f160f1c376aa0ca.png

(4)主机名规划

hostnamectl set-hostname 主机名

2.集群环境部署

提示:以下前期环境准备需要在所有节点都执行可使用Ansible或xshell自带的终端同步

(1)配置集群之间本地解析

集群在初始化时需要能够解析到每个节点的主机名

cat <<END>> /etc/hosts
192.168.100.101 master
192.168.100.102 node01
192.168.100.103 node02
END

(2)开启bridge网桥过滤功能

bridge (桥接网络) 是 Linux 系统中的一种虚拟网络设备,它充当一个虚拟的交换机,为集群内的容器提供网络通信功能,容器就可以通过这个 bridge 与其他容器或外部网络通信了。

cat <<EOF>> /etc/sysctl.d/k8s.conf 
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1 
net.ipv4.ip_forward = 1 
EOF

由于开启 bridge 功能,需要加载 br_netfilter 模块来允许在 bridge 设备上的数据包经过 iptables 防火墙处理

modprobe br_netfilter && lsmod | grep br_netfilter

e246dc05beb44dcca1c1692f6bb14608.png

加载配置文件,使上述配置生效

sysctl -p /etc/sysctl.d/k8s.conf

61b24341f1c94ce985c7f2c19d1777aa.png

(3)配置ipvs代理功能

在k8s中 Service 有两种代理模式,一种是基于 iptables 的,一种是基于 ipvs ,两者对比 ipvs 负载均衡算法更加的灵活,且带有健康检查的功能,如果想要使用 ipvs 模式,需要手动载入 ipvs 模块。

ipset 和 ipvsadm 是两个与网络管理和负载均衡相关的软件包,提供多种负载均衡算法,如轮询(Round Robin)、加权轮询(Weighted Round Robin)、最小连接(Least Connection)、加权最小连接(Weighted Least Connection)等;

 

使用yum安装

yum -y install ipset ipvsadm

将需要加载的 ipvs 相关模块写入到文件中

cat <<EOF>> /etc/sysconfig/modules/ipvs.modules
#!/bin/bash
modprobe -- ip_vs
modprobe -- ip_vs_rr
modprobe -- ip_vs_wrr
modprobe -- ip_vs_sh
modprobe -- nf_conntrack
EOF

添加可执行权限执行脚本加载模块

chmod +x /etc/sysconfig/modules/ipvs.modules
/etc/sysconfig/modules/ipvs.modules 
lsmod | grep ip_vs

ac91290919c943fea25a1edb7fa5b0c2.png

(4)关闭禁用swap分区

为了保证 kubelet 正常工作要求禁用SWAP,否则集群初始化失败

swapoff -a

sed -i '/swap/s/^/#/' /etc/fstab

查看是否关闭

free -h|grep -i swap

88c60ca6fa8d45a3b5274dc036015023.png

 

 

3.安装Docker(采用离线版部署较快)

 

 

注意:也是三台服务器都需要安装,docker版本不要安装的太新尽量是20.10.0或以下版本不然会与k8s出现不兼容现象(需要另加插件),具体可查看k8s官网详情

 

(1)上传离线包并解压

tar xfz docker_20.10.0.tar.gz

(2)安装Docker

cd docker_20.10.0/
yum -y install ./*.rpm

(3)启用 Cgroup 控制组

用于限制进程的资源使用量,如CPU、内存资源

mkdir /etc/docker

cat <<EOF>> /etc/docker/daemon.json
{
        "exec-opts": ["native.cgroupdriver=systemd"]
}
EOF

(4)启动并查看Docker版本

systemctl enable docker --now
docker -v

cd8cf8b1546442dbae734113fb0c8ffa.png

Docker部署成功!!!

 

4.k8s集群部署

 

部署方式有哪些:

k8s集群有多种部署方式,目前常用的部署方式有如下两种:

kubeadm 部署方式:kubeadm是一个快速搭建kubernetes的集群工具;

二进制包部署方式(对新手不友好):从官网下载每个组件的二进制包,依次去安装,部署麻烦;

其他方式:通过一些开源的工具搭建,例如:sealos;

本章使用Kubeadm方式部署k8s集群,需要配置k8s软件仓库来安装集群所需软件,本实验使用阿里云YUM源

注意:三台服务器都需要配置

(1)使用阿里仓库进行安装

cat <<END>> /etc/yum.repos.d/k8s.repo
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/
enabled=1
gpgcheck=1
repo_gpgcheck=1
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
END

(2)安装集群软件

本实验安装k8s 1.23.0版本软件

yum install -y  kubeadm-1.23.0-0  kubelet-1.23.0-0 kubectl-1.23.0-0

如果报错:

5d4dad2feebe406fbbb69c8444342c27.png

需下载使用公网仓库(例如:阿里公网仓库)下载依赖

(3)配置 kubelet 启用 Cgroup 控制组

用于限制进程的资源使用量,如CPU、内存等

echo 'KUBELET_EXTRA_ARGS="--cgroup-driver=systemd"' >/etc/sysconfig/kubelet

(4)设置kubelet开机自启

5.集群初始化

###master节点配置

(1)查看集群所需镜像文件

[root@master ~]# kubeadm config images list

5dd8087e5dae4e698ee6fa27de7c5d3f.png

(2)创建集群初始化配置文件

[root@master ~]# kubeadm config print init-defaults > kubeadm-config.yml

(3)配置集群初始化文件

[root@master ~]# vim kubeadm-config.yml
  advertiseAddress: 192.168.100.101

  name: master

imageRepository: registry.cn-hangzhou.aliyuncs.com/google_containers

47c5c26da24440728f9b512227c3d553.png

(4)集群初始化

[root@master ~]# kubeadm init --config kubeadm-config.yml --upload-certs

拉取镜像过程可能会有点长请耐心等待(快慢取决于网速)

选项说明: --upload-certs //初始化过程将生成证书,并将其上传到etcd存储中,避免证书被移动或者删除,也不会影响集群。

08a780fbba8f410988b2c15ce2846fe5.png

如果显示此信息说明初始化成功!前面的基础环境没有问题

 

(5)根据提示,在master生成集群管理员配置文件

注意:认真查看提示信息,不能装作没看见

d7f9f2a94c6545aea0044a4a40142ce5.png

#在master主节点执行
mkdir -p $HOME/.kube

sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config

sudo chown $(id -u):$(id -g) $HOME/.kube/config

 

6.node节点加入集群

可根据提示信息加入node节点

3dd4a96868284a709341eed44bba1048.png

b753d827aff24802814c91886be3909f.png

(2)查看节点是否加入成功

[root@master ~]# kubectl get nodes

208c69a769da477eb224ac2ffb038fe0.png

7.部署Calico网络

(1)在 master节点安装下载 Calico 的yaml文件

[root@master ~]# 
wget https://calico-v3-25.netlify.app/archive/v3.25/manifests/calico.yaml

(2)创建calico网络

[root@master ~]# kubectl apply -f calico.yaml

(3)查看calico的Pod状态

[root@master ~]# kubectl get pod -n kube-system

显示镜像正在拉取

ed65ea71e930440395689d5c2b40192f.png

等十几分钟再次查看

b10fa15b2dfc4074bf6d6afa24fb4597.png

这种现象就属于镜像没有拉取成功,正常的话应该显示Runing状态,由于镜像在国外难免会出一些问题,所以只能使用离线资源(提前下载好的镜像)了大家可以看我上一文档

(4)检查集群状态

[root@master ~]# kubectl get nodes

bf49699d5433422f97a578d660b381cf.png

状态显示‘Ready’就说明集群没有问题可以使用了!!!

 

8.验证:使用k8s运行一个nginx容器

(1)简单写一个nginx的yaml文件

[root@master ~]# vim nginx.yaml
apiVersion: v1
kind: Pod
metadata:
  name: nginx
  labels:
    app: nginx
spec:
  containers:
  - name: nginx
    image: nginx:latest
    ports:
    - containerPort: 80
---
apiVersion: v1
kind: Service
metadata:
  name: nginx-svc
spec:
  type: NodePort
  selector:
    app: nginx
  ports:
  - port: 80
    targetPort: 80
nodePort: 30003

(2)创建nginx容器

[root@master ~]# kubectl apply -f nginx.yaml

(3)查看容器状态和映射端口

[root@master ~]# kubectl get pod,svc

f552ca4c979444e5b4fcbb65e20fe0c1.png

(4)浏览器访问测试:

http://192.168.100.103:30003/

6d282ab0f5a44fe39ec28070efd2bf12.png

部署成功!!!!

 

举报

相关推荐

0 条评论