跳到主要内容

3、DaemonSet

DaemonSet

img

通过该控制器的名称我们可以看出它的用法:**Daemon**,就是用来部署守护进程的DaemonSet用于在每个 Kubernetes 节点中将守护进程的副本作为后台进程运行,说白了就是在每个节点部署一个 Pod副本,当节点加入到 Kubernetes 集群中,Pod 会被调度到该节点上运行,当节点从集群够被移除后,该节点上的这个 Pod 也会被移除,当然,如果我们删除 DaemonSet,所有和这个对象相关的 Pods都会被删除。那么在哪种情况下我们会需要用到这种业务场景呢?其实这种场景还是比较普通的,比如:

  • 集群存储守护程序:如 glusterd、ceph 要部署在每个节点上以提供持久性存储;

  • 节点监控守护进程:如 Prometheus 监控集群,可以在每个节点上运行一个 node-exporter 进程来收集监控节点的信息;

  • 日志收集守护程序:如 fluentd 或 logstash,在每个节点上运行以收集容器的日志

  • 节点网络插件:比如 flannel、calico,在每个节点上运行为 Pod 提供网络服务。

⚠️ 这里需要特别说明的一个就是关于 DaemonSet 运行的 Pod 的调度问题,正常情况下,Pod 运行在哪个节点上是由 Kubernetes 的调度器策略来决定的,然而,由 DaemonSet 控制器创建的 Pod 实际上提前已经确定了在哪个节点上了(Pod创建时指定了**.spec.nodeName**,所以:

  • **DaemonSet** 并不关心一个节点的 **unshedulable😂** 字段,这个我们会在后面的调度章节和大家讲解的。

  • **DaemonSet** 可以创建 Pod,即使调度器还没有启动。

注意:Daemonset的简写是ds

[root@nfs-server ~]#kubectl api-resources|head -1; kubectl api-resources |grep daemonsets
NAME SHORTNAMES APIVERSION NAMESPACED KIND
daemonsets ds apps/v1 true DaemonSet

DaemonSet是受污点的的影响的;

💘 实战:Daemonset测试-2022.12.22(成功测试)

  • 实验环境
1、win10,vmwrokstation虚机;
2、k8s集群:3台centos7.6 1810虚机,2个master节点,1个node节点
k8s version:v1.20
CONTAINER-RUNTIME:containerd:v1.6.10
  • 实验软件(无)

下面我们直接使用一个示例来演示下

  • 在每个节点上部署一个 Nginx Pod
# nginx-ds.yaml
apiVersion: apps/v1
kind: DaemonSet
metadata:
name: nginx-ds
namespace: default
spec:
selector:
matchLabels:
k8s-app: nginx
template:
metadata:
labels:
k8s-app: nginx
spec:
containers:
- image: nginx:1.7.9
name: nginx
ports:
- name: http
containerPort: 80

注意:我们可以看到,DaemonSet的yaml写法和Deployment非常类似,只是改变了下kind名称,注意下DaemonSet是没有副本数这一参数选项的。

  • 部署
[root@master1 ~]#kubectl apply -f nginx-ds.yaml
daemonset.apps/nginx-ds created
  • 创建完成后,我们查看 Pod 的状态
[root@master1 ~]#kubectl get node
NAME STATUS ROLES AGE VERSION
master1 Ready control-plane,master 19d v1.22.2
node1 Ready <none> 19d v1.22.2
node2 Ready <none> 19d v1.22.2
[root@master1 ~]#kubectl get po -l k8s-app=nginx -owide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
nginx-ds-g5jf4 1/1 Running 0 85s 10.244.1.82 node1 <none> <none>
nginx-ds-hl7fx 1/1 Running 0 85s 10.244.2.106 node2 <none> <none>

我们观察可以发现除了 master1 节点之外的2个节点上都有一个相应的 Pod 运行,因为 master1 节点上默认被打上了**污点(taints)**,所以默认情况下不能调度普通的 Pod 上去,后面讲解调度器的时候会和大家学习如何调度上去。

  • 注意:我们这里先来提前看看master节点是如何打上污点的。
1、首先来看看这3个节点上是否打了污点呢?
[root@master1 ~]#kubectl describe node master1 |grep Taints
Taints: node-role.kubernetes.io/master:NoSchedule
[root@master1 ~]#kubectl describe node node1 |grep Taints
Taints: <none>
[root@master1 ~]#kubectl describe node node2 |grep Taints
Taints: <none>
[root@master1 ~]#
我们可以看到只有master节点被打上了污点:`NoSchedule`
某个节点上如果被打上了污点的话,那么普通pod是不会被调度到其上面的,除非添加了`容忍`才可以;

2、这个master1节点的`污点`是当时我们再搭建集群的时候就已经打上了的。我们可以看看当时搭建k8s集群的kubeadm.yaml文件内容。
vim kubeadm.yaml
1 apiVersion: kubeadm.k8s.io/v1beta3
2 bootstrapTokens:
3 - groups:
4 - system:bootstrappers:kubeadm:default-node-token
5 token: abcdef.0123456789abcdef
6 ttl: 24h0m0s
7 usages:
8 - signing
9 - authentication
10 kind: InitConfiguration
11 localAPIEndpoint:
12 advertiseAddress: 172.29.9.51
13 bindPort: 6443
14 nodeRegistration:
15 criSocket: /run/containerd/containerd.sock
16 imagePullPolicy: IfNotPresent
17 name: master1
18 taints:
19 - effect: "NoSchedule" #这里打了污点
20 key: "node-role.kubernetes.io/master"

3、那么有的同学就会问:那么为什么你的`flannel和kubeproxy`pod都会在每个节点上创建1个pod呢?(包括master节点)

img

这是因为flannel和kube-proxy配置清单里,daemonset那里有配置了容忍,所以才会在打了污点的master节点也调度一个pod。
vim kube-flannel.yml

img

  • 注意:DaemonSetreplicaset是非常相似的,直接控制pod:
[root@master1 ~]#kubectl get po
NAME READY STATUS RESTARTS AGE
nginx-ds-g5jf4 1/1 Running 0 34m
nginx-ds-hl7fx 1/1 Running 0 34m
[root@master1 ~]#kubectl describe pod nginx-ds-g5jf4
……
Controlled By: DaemonSet/nginx-ds
……
  • 我们再来把其中一个pod删除下,观察下这个pod是否会被立马重建?
[root@master1 ~]#kubectl get po -owide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
nginx-ds-g5jf4 1/1 Running 0 9h 10.244.1.82 node1 <none> <none>
nginx-ds-hl7fx 1/1 Running 0 9h 10.244.2.106 node2 <none> <none>
[root@master1 ~]#kubectl delete po nginx-ds-g5jf4
pod "nginx-ds-g5jf4" deleted
[root@master1 ~]#kubectl get po -owide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
nginx-ds-cg86w 1/1 Running 0 1s 10.244.1.83 node1 <none> <none>
nginx-ds-hl7fx 1/1 Running 0 9h 10.244.2.106 node2 <none> <none>
[root@master1 ~]#

我们可以发现,一旦某个节点的pod被删除,会被立马创建的。

实验结束。😘

基本上我们可以用下图来描述 DaemonSet 的拓扑图:

img

集群中的 Pod 和 Node 是一一对应的,而 DaemonSet 会管理全部机器上的 Pod 副本,负责对它们进行更新和删除。

那么,DaemonSet 控制器是如何保证每个 Node 上有且只有一个被管理的 Pod 呢?

  • 首先控制器从 Etcd 获取到所有的 Node 列表,然后遍历所有的 Node。
  • 根据资源对象定义是否有调度相关的配置,然后分别检查 Node 是否符合要求。
  • 在可运行 Pod 的节点上检查是否已有对应的 Pod,如果没有,则在这个 Node 上创建该 Pod;如果有,并且数量大于 1,那就把多余的 Pod 从这个节点上删除;如果有且只有一个 Pod,那就说明是正常情况。

实际上当我们学习了资源调度后,我们也可以自己用 Deployment 来实现 DaemonSet 的效果,这里我们明白 DaemonSet 如何使用的即可。当然该资源对象也有对应的更新策略,有 OnDeleteRollingUpdate 两种方式,默认是滚动更新。

关于我

我的博客主旨:

  • 排版美观,语言精炼;
  • 文档即手册,步骤明细,拒绝埋坑,提供源码;
  • 本人实战文档都是亲测成功的,各位小伙伴在实际操作过程中如有什么疑问,可随时联系本人帮您解决问题,让我们一起进步!

🍀 微信二维码 x2675263825 (舍得), qq:2675263825。

image-20230107215114763

🍀 微信公众号 《云原生架构师实战》

image-20230107215126971

🍀 个人博客站点

http://47.97.48.237/ (即将上线域名:onedayxyy.cn)

image-20230917111843405

🍀 语雀

https://www.yuque.com/xyy-onlyone

image-20230912072007284

🍀 csdn https://blog.csdn.net/weixin_39246554?spm=1010.2135.3001.5421

image-20230107215149885

🍀 知乎 https://www.zhihu.com/people/foryouone

image-20230107215203185

最后

好了,关于本次就到这里了,感谢大家阅读,最后祝大家生活快乐,每天都过的有意义哦,我们下期见!