Kubernetes 存储原理解析

时间:2022-02-24 07:18:14

前面的章节中我们介绍了在 Kubernetes 中的持久化存储的使用,了解了 PV、PVC 以及 StorageClass 的使用方法,从本地存储到 Ceph 共享存储都有学习,到这里我们其实已经可以完成应用各种场景的数据持久化了,但是难免在实际的使用过程中会遇到各种各样的问题,要解决这些问题最好的方式就是来了解下 Kubernetes 中存储的实现原理。

Kubernetes 存储原理解析

Kubernetes 默认情况下就提供了主流的存储卷接入方案,我们可以执行命令 kubectl explain pod.spec.volumes 查看到支持的各种存储卷,另外也提供了插件机制,允许其他类型的存储服务接入到 Kubernetes 系统中来,在 Kubernetes 中就对应 In-Tree 和 Out-Of-Tree 两种方式, In-Tree 就是在 Kubernetes 源码内部实现的,和 Kubernetes 一起发布、管理的,但是更新迭代慢、灵活性比较差, Out-Of-Tree 是独立于 Kubernetes 的,目前主要有 CSI 和 FlexVolume 两种机制,开发者可以根据自己的存储类型实现不同的存储插件接入到 Kubernetes 中去,其中 CSI 是现在也是以后主流的方式,所以当然我们的重点也会是 CSI 的使用介绍。

NFS

我们这里为了演示方便,先使用相对简单的 NFS 这种存储资源,接下来我们在节点 10.151.30.11 上来安装 NFS 服务,数据目录: /data/k8s/

关闭防火墙

  1. $ systemctl stop firewalld.service 
  2. $ systemctl disable firewalld.service 

安装配置 nfs

  1. $ yum -y install nfs-utils rpcbind 

共享目录设置权限:

  1. $ mkdir -p /data/k8s/ 
  2. $ chmod 755 /data/k8s/ 

配置 nfs,nfs 的默认配置文件在 /etc/exports 文件下,在该文件中添加下面的配置信息:

  1. $ vi /etc/exports 
  2. /data/k8s  *(rw,sync,no_root_squash) 

配置说明:

  • /data/k8s:是共享的数据目录
  • *:表示任何人都有权限连接,当然也可以是一个网段,一个 IP,也可以是域名
  • rw:读写的权限
  • sync:表示文件同时写入硬盘和内存
  • no_root_squash:当登录 NFS 主机使用共享目录的使用者是 root 时,其权限将被转换成为匿名使用者,通常它的 UID 与 GID,都会变成 nobody 身份

当然 nfs 的配置还有很多,感兴趣的同学可以在网上去查找一下。

启动服务 nfs 需要向 rpc 注册,rpc 一旦重启了,注册的文件都会丢失,向他注册的服务都需要重启 注意启动顺序,先启动 rpcbind

  1. $ systemctl start rpcbind.service 
  2. $ systemctl enable rpcbind 
  3. $ systemctl status rpcbind 
  4. ● rpcbind.service - RPC bind service 
  5.    Loaded: loaded (/usr/lib/systemd/system/rpcbind.service; disabled; vendor preset: enabled) 
  6.    Active: active (running) since Tue 2018-07-10 20:57:29 CST; 1min 54s ago 
  7.   Process: 17696 ExecStart=/sbin/rpcbind -w $RPCBIND_ARGS (code=exited, status=0/SUCCESS) 
  8.  Main PID: 17697 (rpcbind) 
  9.     Tasks: 1 
  10.    Memory: 1.1M 
  11.    CGroup: /system.slice/rpcbind.service 
  12.            └─17697 /sbin/rpcbind -w 
  13.  
  14. Jul 10 20:57:29 master systemd[1]: Starting RPC bind service... 
  15. Jul 10 20:57:29 master systemd[1]: Started RPC bind service. 

看到上面的 Started 证明启动成功了。

然后启动 nfs 服务:

  1. $ systemctl start nfs.service 
  2. $ systemctl enable nfs 
  3. $ systemctl status nfs 
  4. ● nfs-server.service - NFS server and services 
  5.    Loaded: loaded (/usr/lib/systemd/system/nfs-server.service; enabled; vendor preset: disabled) 
  6.   Drop-In: /run/systemd/generator/nfs-server.service.d 
  7.            └─order-with-mounts.conf 
  8.    Active: active (exited) since Tue 2018-07-10 21:35:37 CST; 14s ago 
  9.  Main PID: 32067 (code=exited, status=0/SUCCESS) 
  10.    CGroup: /system.slice/nfs-server.service 
  11.  
  12. Jul 10 21:35:37 master systemd[1]: Starting NFS server and services... 
  13. Jul 10 21:35:37 master systemd[1]: Started NFS server and services. 

同样看到 Started 则证明 NFS Server 启动成功了。

另外我们还可以通过下面的命令确认下:

  1. $ rpcinfo -p|grep nfs 
  2.     100003    3   tcp   2049  nfs 
  3.     100003    4   tcp   2049  nfs 
  4.     100227    3   tcp   2049  nfs_acl 
  5.     100003    3   udp   2049  nfs 
  6.     100003    4   udp   2049  nfs 
  7.     100227    3   udp   2049  nfs_acl 

查看具体目录挂载权限:

  1. $ cat /var/lib/nfs/etab 
  2. /data/k8s    *(rw,sync,wdelay,hide,nocrossmnt,secure,no_root_squash,no_all_squash,no_subtree_check,secure_locks,acl,no_pnfs,anonuid=65534,anongid=65534,sec=sys,secure,no_root_squash,no_all_squash) 

到这里我们就把 nfs server 给安装成功了,然后就是前往节点安装 nfs 的客户端来验证,安装 nfs 当前也需要先关闭防火墙:

  1. $ systemctl stop firewalld.service 
  2. $ systemctl disable firewalld.service 

然后安装 nfs

  1. $ yum -y install nfs-utils rpcbind 

安装完成后,和上面的方法一样,先启动 rpc、然后启动 nfs:

  1. $ systemctl start rpcbind.service  
  2. $ systemctl enable rpcbind.service  
  3. $ systemctl start nfs.service     
  4. $ systemctl enable nfs.service 

挂载数据目录 客户端启动完成后,我们在客户端来挂载下 nfs 测试下,首先检查下 nfs 是否有共享目录:

  1. $ showmount -e 10.151.30.11 
  2. Export list for 10.151.30.11: 
  3. /data/k8s * 

然后我们在客户端上新建目录:

  1. $ mkdir -p /root/course/kubeadm/data 

将 nfs 共享目录挂载到上面的目录:

  1. $ mount -t nfs 10.151.30.11:/data/k8s /root/course/kubeadm/data 

挂载成功后,在客户端上面的目录中新建一个文件,然后我们观察下 nfs 服务端的共享目录下面是否也会出现该文件:

  1. $ touch /root/course/kubeadm/data/test.txt 

然后在 nfs 服务端查看:

  1. $ ls -ls /data/k8s/ 
  2. total 4 
  3. 4 -rw-r--r--. 1 root root 4 Jul 10 21:50 test.txt 

如果上面出现了 test.txt 的文件,那么证明我们的 nfs 挂载成功了。

存储架构

前面我们了解到了 PV、PVC、StorgeClass 的使用,但是他们是如何和我们的 Pod 关联起来使用的呢?这就需要从 Volume 的处理流程和原理说起了。

如下所示,我们创建了一个 nfs 类型的 PV 资源对象:(volume.yaml)

  1. apiVersion: v1 
  2. kind: PersistentVolume 
  3. metadata: 
  4.   name: nfs-pv 
  5. spec: 
  6.   storageClassName: manual 
  7.   capacity:  
  8.     storage: 1Gi 
  9.   accessModes: 
  10.   - ReadWriteOnce 
  11.   persistentVolumeReclaimPolicy: Retain 
  12.   nfs: 
  13.     path: /data/k8s  # 指定nfs的挂载点 
  14.     server: 10.151.30.11  # 指定nfs服务地址 
  15. --- 
  16. apiVersion: v1 
  17. kind: PersistentVolumeClaim 
  18. metadata: 
  19.   name: nfs-pvc 
  20. spec: 
  21.   storageClassName: manual 
  22.   accessModes: 
  23.   - ReadWriteOnce 
  24.   resources: 
  25.     requests: 
  26.       storage: 1Gi 

我们知道用户真正使用的是 PVC,而要使用 PVC 的前提就是必须要先和某个符合条件的 PV 进行一一绑定,比如存储容器、访问模式,以及 PV 和 PVC 的 storageClassName 字段必须一样,这样才能够进行绑定,当 PVC 和 PV 绑定成功后就可以直接使用这个 PVC 对象了:(pod.yaml)

  1. apiVersion: v1 
  2. kind: Pod 
  3. metadata: 
  4.   name: test-volumes 
  5. spec: 
  6.   volumes: 
  7.   - name: nfs 
  8.     persistentVolumeClaim: 
  9.       claimName: nfs-pvc 
  10.   containers: 
  11.   - name: web 
  12.     image: nginx 
  13.     ports: 
  14.     - name: web 
  15.       containerPort: 80 
  16.     volumeMounts: 
  17.     - name: nfs 
  18.       subPath: test-volumes 
  19.       mountPath: "/usr/share/nginx/html" 

直接创建上面的资源对象即可:

  1. $ kubectl apply -f volume.yaml 
  2. $ kubectl apply -f pod.yaml 

我们只是在 volumes 中指定了我们上面创建的 PVC 对象,当这个 Pod 被创建之后, kubelet 就会把这个 PVC 对应的这个 NFS 类型的 Volume(PV)挂载到这个 Pod 容器中的目录中去。前面我们也提到了这样的话对于普通用户来说完全就不用关心后面的具体存储在 NFS 还是 Ceph 或者其他了,只需要直接使用 PVC 就可以了,因为真正的存储是需要很多相关的专业知识的,这样就完全职责分离解耦了。

普通用户直接使用 PVC 没有问题,但是也会出现一个问题,那就是当普通用户创建一个 PVC 对象的时候,这个时候系统里面并没有合适的 PV 来和它进行绑定,因为 PV 大多数情况下是管理员给我们创建的,这个时候启动 Pod 肯定就会失败了,如果现在管理员如果去创建一个对应的 PV 的话,PVC 和 PV 当然就可以绑定了,然后 Pod 也会自动的启动成功,这是因为在 Kubernetes 中有一个专门处理持久化存储的控制器 Volume Controller,这个控制器下面有很多个控制循环,其中一个就是用于 PV 和 PVC 绑定的 PersistentVolumeController。

PersistentVolumeController 会不断地循环去查看每一个 PVC,是不是已经处于 Bound(已绑定)状态。如果不是,那它就会遍历所有的、可用的 PV,并尝试将其与未绑定的 PVC 进行绑定,这样,Kubernetes 就可以保证用户提交的每一个 PVC,只要有合适的 PV 出现,它就能够很快进入绑定状态。而所谓将一个 PV 与 PVC 进行 “绑定” ,其实就是将这个 PV 对象的名字,填在了 PVC 对象的 spec.volumeName 字段上。

PV 和 PVC 绑定上了,那么又是如何将容器里面的数据进行持久化的呢,前面我们学习过 Docker 的 Volume 挂载,其实就是 将一个宿主机上的目录和一个容器里的目录绑定挂载在了一起 ,具有持久化功能当然就是指的宿主机上面的这个目录了,当容器被删除或者在其他节点上重建出来以后,这个目录里面的内容依然存在,所以一般情况下实现持久化是需要一个远程存储的,比如 NFS、Ceph 或者云厂商提供的磁盘等等。所以接下来需要做的就是持久化宿主机目录这个过程。

当 Pod 被调度到一个节点上后,节点上的 kubelet 组件就会为这个 Pod 创建它的 Volume 目录,默认情况下 kubelet 为 Volume 创建的目录在 kubelet 工作目录下面:

  1. /var/lib/kubelet/pods/<Pod的ID>/volumes/kubernetes.io~<Volume类型>/<Volume名字> 

比如上面我们创建的 Pod 对应的 Volume 目录完整路径为:

  1. /var/lib/kubelet/pods/d4fcdb11-baf7-43d9-8d7d-3ede24118e08/volumes/kubernetes.io~nfs/nfs-pv 

要获取 Pod 的唯一标识 uid,可通过命令 kubectl get pod pod名 -o jsonpath={.metadata.uid} 获取。

然后就需要根据我们的 Volume 类型来决定需要做什么操作了,比如上节课我们用的 Ceph RBD,那么 kubelet 就需要先将 Ceph 提供的 RBD 挂载到 Pod 所在的宿主机上面,这个阶段在 Kubernetes 中被称为 Attach 阶段。Attach 阶段完成后,为了能够使用这个块设备,kubelet 还要进行第二个操作,即:格式化这个块设备,然后将它挂载到宿主机指定的挂载点上。这个挂载点,也就是上面我们提到的 Volume 的宿主机的目录。将块设备格式化并挂载到 Volume 宿主机目录的操作,在 Kubernetes 中被称为 Mount 阶段。上节课我们使用 Ceph RBD 持久化的 Wordpress 的 MySQL 数据,我们可以查看对应的 Volume 信息:

  1. $ kubectl get pods -o wide -l app=wordpress 
  2. NAME                              READY   STATUS    RESTARTS   AGE   IP             NODE         NOMINATED NODE   READINESS GATES 
  3. wordpress-5b886cf59b-dv2zt        1/1     Running   0          20d   10.244.1.158   ydzs-node1   <none>           <none> 
  4. wordpress-mysql-b9ddd6d4c-pjhbt   1/1     Running   0          20d   10.244.4.70    ydzs-node4   <none>           <none> 

我们可以看到 MySQL 运行在 node4 节点上,然后可以在该节点上查看 Volume 信息,Pod 对应的 uid 可以通过如下命令获取:

  1. $ kubectl get pod wordpress-mysql-b9ddd6d4c-pjhbt -o jsonpath={.metadata.uid} 
  2. 3f84af87-9f58-4c69-9e38-5ef234498133 
  3. $ ls /var/lib/kubelet/pods/3f84af87-9f58-4c69-9e38-5ef234498133/volumes/kubernetes.io~csi/pvc-c8861c23-c03d-47aa-96f6-73c4d4093109/ 
  4. mount  vol_data.json 

然后通过如下命令可以查看 Volume 的持久化信息:

  1. $ findmnt /var/lib/kubelet/pods/3f84af87-9f58-4c69-9e38-5ef234498133/volumes/kubernetes.io~csi/pvc-c8861c23-c03d-47aa-96f6-73c4d4093109/mount 
  2. TARGET                                                                                            SOURCE    FSTYPE OPTIONS 
  3. /var/lib/kubelet/pods/3f84af87-9f58-4c69-9e38-5ef234498133/volumes/kubernetes.io~csi/pvc-c8861c23-c03d-47aa-96f6-73c4d4093109/mount    /dev/rbd0 ext4   rw,relatime, 

可以看到这里的 Volume 是挂载到 /dev/rbd0 这个设备上面的,通过 df 命令也是可以看到的:

  1. $ df -h |grep dev 
  2. devtmpfs        3.9G     0  3.9G   0% /dev 
  3. tmpfs           3.9G     0  3.9G   0% /dev/shm 
  4. /dev/vda3        18G  4.7G   13G  27% / 
  5. /dev/vda1       497M  158M  340M  32% /boot 
  6. /dev/vdb1       197G   24G  164G  13% /data 
  7. /dev/rbd0        20G  160M   20G   1% /var/lib/kubelet/pods/3f84af87-9f58-4c69-9e38-5ef234498133/volumes/kubernetes.io~csi/pvc-c8861c23-c03d-47aa-96f6-73c4d4093109/mount 

这里我们就经过了 Attach 和 Mount 两个阶段完成了 Volume 的持久化。但是对于上面我们使用的 NFS 就更加简单了, 因为 NFS 存储并没有一个设备需要挂载到宿主机上面,所以这个时候 kubelet 就会直接进入第二个 Mount 阶段,相当于直接在宿主机上面执行如下的命令:

  1. $ mount -t nfs 10.151.30.11:/data/k8s /var/lib/kubelet/pods/d4fcdb11-baf7-43d9-8d7d-3ede24118e08/volumes/kubernetes.io~nfs/nfs-pv 

同样可以在测试的 Pod 所在节点查看 Volume 的挂载信息:

  1. $ findmnt /var/lib/kubelet/pods/d4fcdb11-baf7-43d9-8d7d-3ede24118e08/volumes/kubernetes.io~nfs/nfs-pv 
  2. TARGET                                                                               SOURCE                 FSTYPE OPTIONS 
  3. /var/lib/kubelet/pods/d4fcdb11-baf7-43d9-8d7d-3ede24118e08/volumes/kubernetes.io~nfs/nfs-pv 
  4.                                                                                      10.151.30.11:/data/k8s nfs4   rw,relatime, 

我们可以看到这个 Volume 被挂载到了 NFS(10.151.30.11:/data/k8s)下面,以后我们在这个目录里写入的所有文件,都会被保存在远程 NFS 服务器上。

这样在经过了上面的两个阶段过后,我们就得到了一个持久化的宿主机上面的 Volume 目录了,接下来 kubelet 只需要把这个 Volume 目录挂载到容器中对应的目录即可,这样就可以为 Pod 里的容器挂载这个持久化的 Volume 了,这一步其实也就相当于执行了如下所示的命令:

  1. $ docker run -v /var/lib/kubelet/pods/<Pod的ID>/volumes/kubernetes.io~<Volume类型>/<Volume名字>:/<容器内的目标目录> 我的镜像 ... 

整个存储的架构可以用下图来说明:

Kubernetes 存储原理解析
  • PV Controller:负责 PV/PVC 的绑定,并根据需求进行数据卷的 Provision/Delete 操作
  • AD Controller:负责存储设备的 Attach/Detach 操作,将设备挂载到目标节点
  • Volume Manager:管理卷的 Mount/Unmount 操作、卷设备的格式化等操作
  • Volume Plugin:扩展各种存储类型的卷管理能力,实现第三方存储的各种操作能力和 Kubernetes 存储系统结合

我们上面使用的 NFS 就属于 In-Tree 这种方式,而上节课使用的 Ceph RBD 就是 Out-Of-Tree 的方式,而且是使用的是 CSI 插件。下面我们再来了解下 FlexVolume 和 CSI 两种插件方式。

FlexVolume

FlexVolume 提供了一种扩展 Kubernetes 存储插件的方式,用户可以自定义自己的存储插件。要使用 FlexVolume 需要在每个节点上安装存储插件二进制文件,该二进制需要实现 FlexVolume 的相关接口,默认存储插件的存放路径为 /usr/libexec/kubernetes/kubelet-plugins/volume/exec/

其中 vendor~driver 的名字需要和 Pod 中 flexVolume.driver 的字段名字匹配,例如:

  1. /usr/libexec/kubernetes/kubelet-plugins/volume/exec/foo~cifs/cifs 

对应的 Pod 中的 flexVolume.driver 属性为: foo/cifs 。

在我们实现自定义存储插件的时候,需要实现 FlexVolume 的部分接口,因为要看实际需求,并不一定所有接口都需要实现。比如对于类似于 NFS 这样的存储就没必要实现 attach/detach 这些接口了,因为不需要,只需要实现 init/mount/umount 3个接口即可。

  • init: init - kubelet/kube-controller-manager 初始化存储插件时调用,插件需要返回是否需要要 attach 和 detach 操作
  • attach: attach - 将存储卷挂载到 Node 节点上
  • detach: detach - 将存储卷从 Node 上卸载
  • waitforattach: waitforattach - 等待 attach 操作成功(超时时间为 10 分钟)
  • isattached: isattached - 检查存储卷是否已经挂载
  • mountdevice: mountdevice - 将设备挂载到指定目录中以便后续 bind mount 使用
  • unmountdevice: unmountdevice - 将设备取消挂载
  • mount: mount - 将存储卷挂载到指定目录中
  • unmount: unmount - 将存储卷取消挂载

实现上面的这些接口需要返回如下所示的 JSON 格式的数据:

  1.     "status""<Success/Failure/Not supported>"
  2.     "message""<Reason for success/failure>"
  3.     "device""<Path to the device attached. This field is valid only for attach & waitforattach call-outs>" 
  4.     "volumeName""<Cluster wide unique name of the volume. Valid only for getvolumename call-out>" 
  5.     "attached": <True/False (Return true if volume is attached on the node. Valid only for isattached call-out)> 
  6.     "capabilities": <Only included as part of the Init response> 
  7.     { 
  8.         "attach": <True/False (Return true if the driver implements attach and detach)> 
  9.     } 

比如我们来实现一个 NFS 的 FlexVolume 插件,最简单的方式就是写一个脚本,然后实现 init、mount、unmount 3个命令即可,然后按照上面的 JSON 格式返回数据,最后把这个脚本放在节点的 FlexVolume 插件目录下面即可。

下面就是官方给出的一个 NFS 的 FlexVolume 插件示例,可以从 https://github.com/kubernetes/examples/blob/master/staging/volumes/flexvolume/nfs 获取脚本:

  1. #!/bin/bash 
  2. # 注意: 
  3. #  - 在使用插件之前需要先安装 jq。 
  4. usage() { 
  5.  err "Invalid usage. Usage: " 
  6.  err "\t$0 init" 
  7.  err "\t$0 mount <mount dir> <json params>" 
  8.  err "\t$0 unmount <mount dir>" 
  9.  exit 1 
  10.  
  11. err() { 
  12.  echo -ne $* 1>&2 
  13.  
  14. log() { 
  15.  echo -ne $* >&1 
  16.  
  17. ismounted() { 
  18.  MOUNT=`findmnt -n ${MNTPATH} 2>/dev/null | cut -d' ' -f1` 
  19.  if [ "${MOUNT}" == "${MNTPATH}" ]; then 
  20.   echo "1" 
  21.  else 
  22.   echo "0" 
  23.  fi 
  24.  
  25. domount() { 
  26.  MNTPATH=$1 
  27.  
  28.  NFS_SERVER=$(echo $2 | jq -r '.server'
  29.  SHARE=$(echo $2 | jq -r '.share'
  30.  
  31.  if [ $(ismounted) -eq 1 ] ; then 
  32.   log '{"status": "Success"}' 
  33.   exit 0 
  34.  fi 
  35.  
  36.  mkdir -p ${MNTPATH} &> /dev/null 
  37.  
  38.  mount -t nfs ${NFS_SERVER}:/${SHARE} ${MNTPATH} &> /dev/null 
  39.  if [ $? -ne 0 ]; then 
  40.   err "{ \"status\": \"Failure\", \"message\": \"Failed to mount ${NFS_SERVER}:${SHARE} at ${MNTPATH}\"}" 
  41.   exit 1 
  42.  fi 
  43.  log '{"status": "Success"}' 
  44.  exit 0 
  45.  
  46. unmount() { 
  47.  MNTPATH=$1 
  48.  if [ $(ismounted) -eq 0 ] ; then 
  49.   log '{"status": "Success"}' 
  50.   exit 0 
  51.  fi 
  52.  
  53.  umount ${MNTPATH} &> /dev/null 
  54.  if [ $? -ne 0 ]; then 
  55.   err "{ \"status\": \"Failed\", \"message\": \"Failed to unmount volume at ${MNTPATH}\"}" 
  56.   exit 1 
  57.  fi 
  58.  
  59.  log '{"status": "Success"}' 
  60.  exit 0 
  61.  
  62. op=$1 
  63.  
  64. if ! command -v jq >/dev/null 2>&1; then 
  65.  err "{ \"status\": \"Failure\", \"message\": \"'jq' binary not found. Please install jq package before using this driver\"}" 
  66.  exit 1 
  67. fi 
  68.  
  69. if [ "$op" = "init" ]; then 
  70.  log '{"status": "Success", "capabilities": {"attach": false}}' 
  71.  exit 0 
  72. fi 
  73.  
  74. if [ $# -lt 2 ]; then 
  75.  usage 
  76. fi 
  77.  
  78. shift 
  79.  
  80. case "$op" in 
  81.  mount) 
  82.   domount $* 
  83.   ;; 
  84.  unmount) 
  85.   unmount $* 
  86.   ;; 
  87.  *) 
  88.   log '{"status": "Not supported"}' 
  89.   exit 0 
  90. esac 
  91.  
  92. exit 1 

将上面脚本命名成 nfs,放置到 node1 节点对应的插件下面: /usr/libexec/kubernetes/kubelet-plugins/volume/exec/ydzs~nfs/nfs ,并设置权限为 700:

  1. $ chmod 700 /usr/libexec/kubernetes/kubelet-plugins/volume/exec/ydzs~nfs/nfs 
  2. # 安装 jq 工具 
  3. $ yum -y install https://dl.fedoraproject.org/pub/epel/epel-release-latest-7.noarch.rpm 
  4. $ yum install jq -y 

这个时候我们部署一个应用到 node1 节点上,并用 flexVolume 来持久化容器中的数据(当然也可以通过定义 flexvolume 类型的 PV、PVC 来使用),如下所示:(test-flexvolume.yaml)

  1. apiVersion: v1 
  2. kind: Pod 
  3. metadata: 
  4.   name: test-flexvolume 
  5. spec: 
  6.   nodeSelector: 
  7.     kubernetes.io/hostname: ydzs-node1 
  8.   volumes: 
  9.   - name: test 
  10.     flexVolume: 
  11.       driver: "ydzs/nfs"  # 定义插件类型,根据这个参数在对应的目录下面找到插件的可执行文件 
  12.       fsType: "nfs"  # 定义存储卷文件系统类型 
  13.       options:  # 定义所有与存储相关的一些具体参数 
  14.         server: "10.151.30.11" 
  15.         share: "data/k8s" 
  16.   containers: 
  17.   - name: web 
  18.     image: nginx 
  19.     ports: 
  20.     - containerPort: 80 
  21.     volumeMounts: 
  22.     - name: test 
  23.       subPath: testflexvolume 
  24.       mountPath: /usr/share/nginx/html 

其中 flexVolume.driver 就是插件目录 ydzs~nfs 对应的 ydzs/nfs 名称, flexVolume.options 中根据上面的 nfs 脚本可以得知里面配置的是 NFS 的 Server 地址和挂载目录路径,直接创建上面的资源对象:

  1. $ kubectl apply -f test-flexvolume.yaml 
  2. $ kubectl get pods  
  3. NAME                                      READY   STATUS    RESTARTS   AGE 
  4. test-flexvolume                           1/1     Running   0          13h 
  5. ...... 
  6. $ kubectl exec -it test-flexvolume mount |grep test 
  7. 10.151.30.11:/data/k8s/testflexvolume on /usr/share/nginx/html type nfs4 (rw,relatime,vers=4.1,rsize=524288,wsize=524288,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.151.30.22,local_lock=none,addr=10.151.30.11) 
  8. $ mount |grep test 
  9. 10.151.30.11:/data/k8s on /var/lib/kubelet/pods/a376832a-7638-4faf-b1a0-404956e8e60a/volumes/ydzs~nfs/test type nfs4 (rw,relatime,vers=4.1,rsize=524288,wsize=524288,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.151.30.22,local_lock=none,addr=10.151.30.11) 
  10. 10.151.30.11:/data/k8s/testflexvolume on /var/lib/kubelet/pods/a376832a-7638-4faf-b1a0-404956e8e60a/volume-subpaths/test/web/0 type nfs4 (rw,relatime,vers=4.1,rsize=524288,wsize=524288,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.151.30.22,local_lock=none,addr=10.151.30.11) 

同样我们可以查看到 Pod 的本地持久化目录是被 mount 到了 NFS 上面,证明上面我们的 FlexVolume 插件是正常的。

当我们要去真正的 mount NFS 的时候,就是通过 kubelet 调用 VolumePlugin,然后直接执行命令 /usr/libexec/kubernetes/kubelet-plugins/volume/exec/ydzs~nfs/nfs mount 来完成的,就相当于平时我们在宿主机上面手动挂载 NFS 的方式一样的,所以存储插件 nfs 是一个可执行的二进制文件或者 shell 脚本都是可以的。

CSI

既然已经有了 FlexVolume 插件了,为什么还需要 CSI 插件呢?上面我们使用 FlexVolume 插件的时候可以看出 FlexVolume 插件实际上相当于就是一个普通的 shell 命令,类似于平时我们在 Linux 下面执行的 ls 命令一样,只是返回的信息是 JSON 格式的数据,并不是我们通常认为的一个常驻内存的进程,而 CSI 是一个更加完善、编码更加方便友好的一种存储插件扩展方式。

CSI 是由来自 Kubernetes、Mesos、 Cloud Foundry 等社区成员联合制定的一个行业标准接口规范,旨在将任意存储系统暴露给容器化应用程序。CSI 规范定义了存储提供商实现 CSI 兼容插件的最小操作集合和部署建议,CSI 规范的主要焦点是声明插件必须实现的接口。

在 Kubernetes 上整合 CSI 插件的整体架构如下图所示:

Kubernetes 存储原理解析

Kubernetes CSI 存储体系主要由两部分组成:

  • Kubernetes 外部组件:包含 Driver registrar、External provisioner、External attacher 三部分,这三个组件是从 Kubernetes 原本的 in-tree 存储体系中剥离出来的存储管理功能,实际上是 Kubernetes 中的一种外部 controller ,它们 watch kubernetes 的 API 资源对象,根据 watch 到的状态来调用下面提到的第二部分的 CSI 插件来实现存储的管理和操作。这部分是 Kubernetes 团队维护的,插件开发者完全不必关心其实现细节。
  • Driver registra:用于将插件注册到 kubelet 的 sidecar 容器,并将驱动程序自定义的 NodeId 添加到节点的 Annotations 上,通过与 CSI 上面的 Identity 服务进行通信调用 CSI 的 GetNodeId 方法来完成该操作。
  • External provisioner:用于 watch Kubernetes 的 PVC 对象并调用 CSI 的 CreateVolume 和 DeleteVolume 操作。
  • External attacher:用于 Attach/Detach 阶段,通过 watch Kubernetes 的 VolumeAttachment 对象并调用 CSI 的 ControllerPublish 和 ControllerUnpublish 操作来完成对应的 Volume 的 Attach/Detach。而 Volume 的 Mount/Unmount 阶段并不属于外部组件,当真正需要执行 Mount 操作的时候,kubelet 会去直接调用下面的 CSI Node 服务来完成 Volume 的 Mount/UnMount 操作。
  • CSI 存储插件: 这部分正是开发者需要实现的 CSI 插件部分,都是通过 gRPC 实现的服务,一般会用一个二进制文件对外提供服务,主要包含三部分:CSI Identity、CSI Controller、CSI Node。
  • CSI Identity — 主要用于负责对外暴露这个插件本身的信息,确保插件的健康状态。service Identity {

// 返回插件的名称和版本

rpc GetPluginInfo(GetPluginInfoRequest)returns (GetPluginInfoResponse) {}// 返回这个插件的包含的功能,比如非块存储类型的 CSI 插件不需要实现 Attach 功能,GetPluginCapabilities 就可以在返回中标注这个 CSI 插件不包含 Attach 功能

rpc GetPluginCapabilities(GetPluginCapabilitiesRequest)returns (GetPluginCapabilitiesResponse) {}// 插件插件是否正在运行

rpc Probe (ProbeRequest)returns (ProbeResponse) {}}

  • CSI Controller - 主要实现 Volume 管理流程当中的 Provision 和 Attach 阶段,Provision 阶段是指创建和删除 Volume 的流程,而 Attach 阶段是指把存储卷附着在某个节点或脱离某个节点的流程,另外只有块存储类型的 CSI 插件才需要 Attach 功能。
  1. service Controller { 
  2. // 创建存储卷,包括云端存储介质以及PV对象 
  3. rpc CreateVolume (CreateVolumeRequest) 
  4. returns (CreateVolumeResponse) {} 
  5. // 删除存储卷 
  6. rpc DeleteVolume (DeleteVolumeRequest) 
  7. returns (DeleteVolumeResponse) {} 
  8. // 挂载存储卷,将存储介质挂载到目标节点 
  9. rpc ControllerPublishVolume (ControllerPublishVolumeRequest) 
  10. returns (ControllerPublishVolumeResponse) {} 
  11. // 卸载存储卷 
  12. rpc ControllerUnpublishVolume (ControllerUnpublishVolumeRequest) 
  13. returns (ControllerUnpublishVolumeResponse) {} 
  14. // 例如:是否可以同时用于多个节点的读/写 
  15. rpc ValidateVolumeCapabilities (ValidateVolumeCapabilitiesRequest) 
  16. returns (ValidateVolumeCapabilitiesResponse) {} 
  17. // 返回所有可用的 volumes 
  18. rpc ListVolumes (ListVolumesRequest) 
  19. returns (ListVolumesResponse) {} 
  20. // 可用存储池的总容量 
  21. rpc GetCapacity (GetCapacityRequest) 
  22. returns (GetCapacityResponse) {} 
  23. // 例如. 插件可能未实现 GetCapacity、Snapshotting 
  24. rpc ControllerGetCapabilities (ControllerGetCapabilitiesRequest) 
  25. returns (ControllerGetCapabilitiesResponse) {} 
  26. // 创建快照 
  27. rpc CreateSnapshot (CreateSnapshotRequest) 
  28. returns (CreateSnapshotResponse) {} 
  29. // 删除指定的快照 
  30. rpc DeleteSnapshot (DeleteSnapshotRequest) 
  31. returns (DeleteSnapshotResponse) {} 
  32. // 获取所有的快照 
  33. rpc ListSnapshots (ListSnapshotsRequest) 
  34. returns (ListSnapshotsResponse) {} 
  • CSI Node — 负责控制 Kubernetes 节点上的 Volume 操作。其中 Volume 的挂载被分成了 NodeStageVolume 和 NodePublishVolume 两个阶段。NodeStageVolume 接口主要是针对块存储类型的 CSI 插件而提供的,块设备在 "Attach" 阶段被附着在 Node 上后,需要挂载至 Pod 对应目录上,但因为块设备在 linux 上只能 mount 一次,而在 kubernetes volume 的使用场景中,一个 volume 可能被挂载进同一个 Node 上的多个 Pod 实例中,所以这里提供了 NodeStageVolume 这个接口,使用这个接口把块设备格式化后先挂载至 Node 上的一个临时全局目录,然后再调用 NodePublishVolume 使用 linux 中的 bind mount 技术把这个全局目录挂载进 Pod 中对应的目录上。
  1. service Node { 
  2. // 在节点上初始化存储卷(格式化),并执行挂载到Global目录 
  3. rpc NodeStageVolume (NodeStageVolumeRequest) 
  4. returns (NodeStageVolumeResponse) {} 
  5. // umount 存储卷在节点上的 Global 目录 
  6. rpc NodeUnstageVolume (NodeUnstageVolumeRequest) 
  7. returns (NodeUnstageVolumeResponse) {} 
  8. // 在节点上将存储卷的 Global 目录挂载到 Pod 的实际挂载目录 
  9. rpc NodePublishVolume (NodePublishVolumeRequest) 
  10. returns (NodePublishVolumeResponse) {} 
  11. // unmount 存储卷在节点上的 Pod 挂载目录 
  12. rpc NodeUnpublishVolume (NodeUnpublishVolumeRequest) 
  13. returns (NodeUnpublishVolumeResponse) {} 
  14. // 获取节点上Volume挂载文件系统统计信息(总空间、可用空间等) 
  15. rpc NodeGetVolumeStats (NodeGetVolumeStatsRequest) 
  16. returns (NodeGetVolumeStatsResponse) {} 
  17. // 获取节点的唯一 ID 
  18. rpc NodeGetId (NodeGetIdRequest) 
  19. returns (NodeGetIdResponse) { 
  20. option deprecated = true
  21. // 返回节点插件的能力 
  22. rpc NodeGetCapabilities (NodeGetCapabilitiesRequest) 
  23. returns (NodeGetCapabilitiesResponse) {} 
  24. // 获取节点的一些信息 
  25. rpc NodeGetInfo (NodeGetInfoRequest) 
  26. returns (NodeGetInfoResponse) {} 

只需要实现上面的接口就可以实现一个 CSI 插件了。虽然 Kubernetes 并未规定 CSI 插件的打包安装,但是提供了以下建议来简化我们在 Kubernetes 上容器化 CSI Volume 驱动程序的部署方案,具体的方案介绍可以查看 CSI 规范介绍文档 https://github.com/kubernetes/community

Kubernetes 存储原理解析

container storage interface deploy

按照上图的推荐方案,CSI Controller 部分以 StatefulSet 或者 Deployment 方式部署,CSI Node 部分以 DaemonSet 方式部署。因为这两部分实现在同一个 CSI 插件程序中,因此只需要把这个 CSI 插件与 External Components 以容器方式部署在同一个 Pod中,把这个 CSI 插件与 Driver registrar 以容器方式部署在 DaemonSet 的 Pod 中,即可完成 CSI 的部署。

前面我们使用的 Rook 部署的 Ceph 集群就是实现了 CSI 插件的:

  1. $ kubectl get pods -n rook-ceph |grep plugin 
  2. csi-cephfsplugin-2s9d5                                 3/3     Running     0          21d 
  3. csi-cephfsplugin-fgp4v                                 3/3     Running     0          17d 
  4. csi-cephfsplugin-fv5nx                                 3/3     Running     0          21d 
  5. csi-cephfsplugin-mn8q4                                 3/3     Running     0          17d 
  6. csi-cephfsplugin-nf6h8                                 3/3     Running     0          21d 
  7. csi-cephfsplugin-provisioner-56c8b7ddf4-68h6d          4/4     Running     0          21d 
  8. csi-cephfsplugin-provisioner-56c8b7ddf4-rq4t6          4/4     Running     0          21d 
  9. csi-cephfsplugin-xwnl4                                 3/3     Running     0          21d 
  10. csi-rbdplugin-7r88w                                    3/3     Running     0          21d 
  11. csi-rbdplugin-95g5j                                    3/3     Running     0          21d 
  12. csi-rbdplugin-bnzpr                                    3/3     Running     0          21d 
  13. csi-rbdplugin-dvftb                                    3/3     Running     0          21d 
  14. csi-rbdplugin-jzmj2                                    3/3     Running     0          17d 
  15. csi-rbdplugin-provisioner-6ff4dd4b94-bvtss             5/5     Running     0          21d 
  16. csi-rbdplugin-provisioner-6ff4dd4b94-lfn68             5/5     Running     0          21d 
  17. csi-rbdplugin-trxb4                                    3/3     Running     0          17d 

这里其实是实现了 RBD 和 CephFS 两种 CSI,用 DaemonSet 在每个节点上运行了一个包含 Driver registra 容器的 Pod,当然和节点相关的操作比如 Mount/Unmount 也是在这个 Pod 里面执行的,其他的比如 Provision、Attach 都是在另外的 csi-rbdplugin-provisioner-xxx Pod 中执行的。

原文地址:https://www.toutiao.com/a6916320583072530957/