项目越来越多,若容器的不足:
宿主机的挂了的化,影响上面的容器和docker,就是没有影响,
请求一个借口,健康检查的是不是错,不正常怎么去处理这样的问题。
k8s 提供了非常方面的交界口,lib 和refis 使用逻辑和容器部署的时候,使用容器的话,
拉下来启动容器下就行,需求一个不足以支撑,自动化工具去扩容,执行一条命令,
在 传统架构和裸docker和容器和其他的方法,如果说服务器5个应用,3个端口,k8s 有一个内部
service 的通讯,不直接暴露对外,容器里面,IP进程,docker serice 方法,多么强大的东西,
半个人就干完了,这个k8s 天生的高可用,自动扩容和作用,k8s 所有的公司,
k8s 做一个系统的学习:
k8s 的之间master节点,搭建的化,至于与扩展的容器的方法,他的品台是15年环境的考验,
自动扩容和自动缩荣,还是回到这个图,master 节点,承载很多的内容,我们k8s 主节点,
生产环境中,负责调度功能, load balalnce 高可用。
API server,Nginx 挂载很多应用,也是很多的notes 很多的节点,公有云SBB,
后端01,02,03 不能反向解决这个问题,k8s 架构解析,master 集群的控制中枢,
三个组件,每个组件是什么
apiserver: 控制中枢,各个模块的ctl 的工具,发在这个组件的方法,就是这个模块的之间的信息交互的
经过kube-API serer,同时也是集群管理,资源配额,API的server ,最重要的组件:
COntroller: 部署了一个Nginx 谁来控制呢,保证pod或其他资源达到期望数值。
也是需要和APIserve进行通信,在需要的API server进行通信,在需要的时候创建,更新或删除他管理的资源。
可能有更详细的,
scheulder :集群的调度中心,50个Nginx的那些的节点上呢,怎么控制呢?一个或一批最佳节点。
部署到哪里呢? 最佳的算法k8s 更新或创建IP地址的,etcd cluster: 集群过大时,没有性能越差,
etcd: 兼职数据库,速度快,保存一些集群的。
安装集群的时候:
Node 节点:
Note节点的上的ks一个能看到master 节点的状态,
也回部署到对应的
Node 节点:
被简称为worker 节点: kebers 负责监听Pod状态,同时负责节点上面的,传给master 通信)
Kube-proxy: 负责pod 之间的通信和负责均衡,将制定的起来看一下1024 这个端口,IPVS模式,
然后
iPVS iptables:区别:
Ipvs 是什么样的?增加和删除severive和endpoint信息。
配置规则,serivice 端口,3w 端口,应该是159.
参考资料:
https://www.bilibili.com/video/BV1W24y1X7D5/?p=30&spm_id_from=pageDriver&vd_source=533ee415c42b820b0f4105acb4932a02