当前位置:  首页>> 技术小册>> Kubernetes中文教程(三)

本文描述了 Kubernetes 中 StorageClass 的概念。
建议先熟悉[卷]和[持久卷]的概念。

介绍

StorageClass 为管理员提供了描述存储 “类” 的方法。
不同的类型可能会映射到不同的服务质量等级或备份策略,或是由集群管理员制定的任意策略。
Kubernetes 本身并不清楚各种类代表的什么。这个类的概念在其他存储系统中有时被称为 “配置文件”。

StorageClass 资源

每个 StorageClass 都包含 provisionerparametersreclaimPolicy 字段,
这些字段会在 StorageClass 需要动态制备 PersistentVolume 时会使用到。

StorageClass 对象的命名很重要,用户使用这个命名来请求生成一个特定的类。
当创建 StorageClass 对象时,管理员设置 StorageClass 对象的命名和其他参数,一旦创建了对象就不能再对其更新。

管理员可以为没有申请绑定到特定 StorageClass 的 PVC 指定一个默认的存储类:
更多详情请参阅
[PersistentVolumeClaim 章节]。

  1. apiVersion: storage.k8s.io/v1
  2. kind: StorageClass
  3. metadata:
  4. name: standard
  5. provisioner: kubernetes.io/aws-ebs
  6. parameters:
  7. type: gp2
  8. reclaimPolicy: Retain
  9. allowVolumeExpansion: true
  10. mountOptions:
  11. - debug
  12. volumeBindingMode: Immediate

存储制备器

每个 StorageClass 都有一个制备器(Provisioner),用来决定使用哪个卷插件制备 PV。
该字段必须指定。

卷插件 内置制备器 配置示例
AWSElasticBlockStore [AWS EBS]
AzureFile [Azure File]
AzureDisk [Azure Disk]
CephFS - -
Cinder [OpenStack Cinder]
FC - -
FlexVolume - -
GCEPersistentDisk [GCE PD]
iSCSI - -
NFS - [NFS]
RBD [Ceph RBD]
VsphereVolume [vSphere]
PortworxVolume [Portworx Volume]
Local - [Local]

你不限于指定此处列出的 “内置” 制备器(其名称前缀为 “kubernetes.io” 并打包在 Kubernetes 中)。
你还可以运行和指定外部制备器,这些独立的程序遵循由 Kubernetes
定义的[规范]。
外部供应商的作者完全可以自由决定他们的代码保存于何处、打包方式、运行方式、使用的插件(包括 Flex)等。
代码仓库 [kubernetes-sigs/sig-storage-lib-external-provisioner]
包含一个用于为外部制备器编写功能实现的类库。你可以访问代码仓库
[kubernetes-sigs/sig-storage-lib-external-provisioner]
了解外部驱动列表。

例如,NFS 没有内部制备器,但可以使用外部制备器。
也有第三方存储供应商提供自己的外部制备器。

回收策略

由 StorageClass 动态创建的 PersistentVolume 会在类的 reclaimPolicy 字段中指定回收策略,可以是
Delete 或者 Retain。如果 StorageClass 对象被创建时没有指定 reclaimPolicy,它将默认为 Delete

通过 StorageClass 手动创建并管理的 PersistentVolume 会使用它们被创建时指定的回收策略。

允许卷扩展

PersistentVolume 可以配置为可扩展。将此功能设置为 true 时,允许用户通过编辑相应的 PVC 对象来调整卷大小。

当下层 StorageClass 的 allowVolumeExpansion 字段设置为 true 时,以下类型的卷支持卷扩展。

卷类型 Kubernetes 版本要求
gcePersistentDisk 1.11
awsElasticBlockStore 1.11
Cinder 1.11
rbd 1.11
Azure File 1.11
Azure Disk 1.11
Portworx 1.11
FlexVolume 1.13
CSI 1.14 , 1.16

此功能仅可用于扩容卷,不能用于缩小卷。

挂载选项

由 StorageClass 动态创建的 PersistentVolume 将使用类中 mountOptions 字段指定的挂载选项。

如果卷插件不支持挂载选项,却指定了挂载选项,则制备操作会失败。
挂载选项在 StorageClass 和 PV 上都不会做验证。如果其中一个挂载选项无效,那么这个 PV 挂载操作就会失败。

卷绑定模式

volumeBindingMode
字段控制了[卷绑定和动态制备]应该发生在什么时候。
当未设置时,默认使用 Immediate 模式。

Immediate 模式表示一旦创建了 PersistentVolumeClaim 也就完成了卷绑定和动态制备。
对于由于拓扑限制而非集群所有节点可达的存储后端,PersistentVolume
会在不知道 Pod 调度要求的情况下绑定或者制备。

集群管理员可以通过指定 WaitForFirstConsumer 模式来解决此问题。
该模式将延迟 PersistentVolume 的绑定和制备,直到使用该 PersistentVolumeClaim 的 Pod 被创建。
PersistentVolume 会根据 Pod 调度约束指定的拓扑来选择或制备。
这些包括但不限于[资源需求]、
[节点筛选器]、
[Pod 亲和性和互斥性]、
以及[污点和容忍度]。

以下插件支持动态制备的 WaitForFirstConsumer 模式:

  • [AWSElasticBlockStore]
  • [GCEPersistentDisk]
  • [AzureDisk]

以下插件支持预创建绑定 PersistentVolume 的 WaitForFirstConsumer 模式:

  • 上述全部
  • [Local]

动态制备和预先创建的 PV 也支持 [CSI 卷],
但是你需要查看特定 CSI 驱动的文档以查看其支持的拓扑键名和例子。

如果你选择使用 WaitForFirstConsumer,请不要在 Pod 规约中使用 nodeName 来指定节点亲和性。
如果在这种情况下使用 nodeName,Pod 将会绕过调度程序,PVC 将停留在 pending 状态。

相反,在这种情况下,你可以使用节点选择器作为主机名,如下所示。

  1. apiVersion: v1
  2. kind: Pod
  3. metadata:
  4. name: task-pv-pod
  5. spec:
  6. nodeSelector:
  7. kubernetes.io/hostname: kube-01
  8. volumes:
  9. - name: task-pv-storage
  10. persistentVolumeClaim:
  11. claimName: task-pv-claim
  12. containers:
  13. - name: task-pv-container
  14. image: nginx
  15. ports:
  16. - containerPort: 80
  17. name: "http-server"
  18. volumeMounts:
  19. - mountPath: "/usr/share/nginx/html"
  20. name: task-pv-storage

允许的拓扑结构

当集群操作人员使用了 WaitForFirstConsumer 的卷绑定模式,
在大部分情况下就没有必要将制备限制为特定的拓扑结构。
然而,如果还有需要的话,可以使用 allowedTopologies

这个例子描述了如何将制备卷的拓扑限制在特定的区域,
在使用时应该根据插件支持情况替换 zonezones 参数。

  1. apiVersion: storage.k8s.io/v1
  2. kind: StorageClass
  3. metadata:
  4. name: standard
  5. provisioner: kubernetes.io/gce-pd
  6. parameters:
  7. type: pd-standard
  8. volumeBindingMode: WaitForFirstConsumer
  9. allowedTopologies:
  10. - matchLabelExpressions:
  11. - key: failure-domain.beta.kubernetes.io/zone
  12. values:
  13. - us-central-1a
  14. - us-central-1b

参数

Storage Classes 的参数描述了存储类的卷。取决于制备器,可以接受不同的参数。
例如,参数 type 的值 io1 和参数 iopsPerGB 特定于 EBS PV。
当参数被省略时,会使用默认值。

一个 StorageClass 最多可以定义 512 个参数。这些参数对象的总长度不能超过 256 KiB, 包括参数的键和值。

AWS EBS

  1. apiVersion: storage.k8s.io/v1
  2. kind: StorageClass
  3. metadata:
  4. name: slow
  5. provisioner: kubernetes.io/aws-ebs
  6. parameters:
  7. type: io1
  8. iopsPerGB: "10"
  9. fsType: ext4
  • typeio1gp2sc1st1。详细信息参见
    [AWS 文档]。默认值:gp2
  • zone:AWS 区域。如果没有指定 zonezones
    通常卷会在 Kubernetes 集群节点所在的活动区域中轮询调度分配。
    zonezones 参数不能同时使用。
  • zones:以逗号分隔的 AWS 区域列表。
    如果没有指定 zonezones,通常卷会在 Kubernetes 集群节点所在的活动区域中轮询调度分配。
    zonezones参数不能同时使用。
  • iopsPerGB:只适用于 io1 卷。每 GiB 每秒 I/O 操作。
    AWS 卷插件将其与请求卷的大小相乘以计算 IOPS 的容量,
    并将其限制在 20000 IOPS(AWS 支持的最高值,请参阅
    [AWS 文档])。
    这里需要输入一个字符串,即 "10",而不是 10
  • fsType:受 Kubernetes 支持的文件类型。默认值:"ext4"
  • encrypted:指定 EBS 卷是否应该被加密。合法值为 "true" 或者 "false"
    这里需要输入字符串,即 "true", 而非 true
  • kmsKeyId:可选。加密卷时使用密钥的完整 Amazon 资源名称。
    如果没有提供,但 encrypted 值为 true,AWS 生成一个密钥。关于有效的 ARN 值,请参阅 AWS 文档。

zonezones 已被弃用并被[允许的拓扑结构]取代。

GCE PD

  1. apiVersion: storage.k8s.io/v1
  2. kind: StorageClass
  3. metadata:
  4. name: slow
  5. provisioner: kubernetes.io/gce-pd
  6. parameters:
  7. type: pd-standard
  8. fstype: ext4
  9. replication-type: none
  • typepd-standard 或者 pd-ssd。默认:pd-standard
  • zone:GCE 区域。如果没有指定 zonezones
    通常卷会在 Kubernetes 集群节点所在的活动区域中轮询调度分配。
    zonezones 参数不能同时使用。
  • zones:逗号分隔的 GCE 区域列表。如果没有指定 zonezones
    通常卷会在 Kubernetes 集群节点所在的活动区域中轮询调度(round-robin)分配。
    zonezones 参数不能同时使用。
  • fstypeext4xfs。 默认:ext4。宿主机操作系统必须支持所定义的文件系统类型。
  • replication-typenone 或者 regional-pd。默认值:none

如果 replication-type 设置为 none,会制备一个常规(当前区域内的)持久化磁盘。

如果 replication-type 设置为 regional-pd
会制备一个[区域性持久化磁盘(Regional Persistent Disk)]。

强烈建议设置 volumeBindingMode: WaitForFirstConsumer,这样设置后,
当你创建一个 Pod,它使用的 PersistentVolumeClaim 使用了这个 StorageClass,
区域性持久化磁盘会在两个区域里制备。 其中一个区域是 Pod 所在区域。
另一个区域是会在集群管理的区域中任意选择。磁盘区域可以通过 allowedTopologies 加以限制。

zonezones 已被弃用并被 [allowedTopologies] 取代。

NFS

  1. apiVersion: storage.k8s.io/v1
  2. kind: StorageClass
  3. metadata:
  4. name: example-nfs
  5. provisioner: example.com/external-nfs
  6. parameters:
  7. server: nfs-server.example.com
  8. path: /share
  9. readOnly: "false"
  • server:NFS 服务器的主机名或 IP 地址。
  • path:NFS 服务器导出的路径。
  • readOnly:是否将存储挂载为只读的标志(默认为 false)。

Kubernetes 不包含内部 NFS 驱动。你需要使用外部驱动为 NFS 创建 StorageClass。
这里有些例子:

  • [NFS Ganesha 服务器和外部驱动]
  • [NFS subdir 外部驱动]

OpenStack Cinder

  1. apiVersion: storage.k8s.io/v1
  2. kind: StorageClass
  3. metadata:
  4. name: gold
  5. provisioner: kubernetes.io/cinder
  6. parameters:
  7. availability: nova
  • availability:可用区域。如果没有指定,通常卷会在 Kubernetes 集群节点所在的活动区域中轮转调度。

OpenStack 的内部驱动已经被弃用。请使用
[OpenStack 的外部云驱动]。

vSphere

vSphere 存储类有两种制备器:

  • [CSI 制备器]:csi.vsphere.vmware.com
  • [vCP 制备器]:kubernetes.io/vsphere-volume

树内制备器已经被
[弃用]。
更多关于 CSI 制备器的详情,请参阅
[Kubernetes vSphere CSI 驱动]
和 [vSphereVolume CSI 迁移]。

CSI 制备器

vSphere CSI StorageClass 制备器在 Tanzu Kubernetes 集群下运行。示例请参阅
[vSphere CSI 仓库]。

vCP 制备器

以下示例使用 VMware Cloud Provider StorageClass 制备器。

  1. 使用用户指定的磁盘格式创建一个 StorageClass。

    1. apiVersion: storage.k8s.io/v1
    2. kind: StorageClass
    3. metadata:
    4. name: fast
    5. provisioner: kubernetes.io/vsphere-volume
    6. parameters:
    7. diskformat: zeroedthick

diskformatthinzeroedthickeagerzeroedthick。默认值:"thin"

  1. 在用户指定的数据存储上创建磁盘格式的 StorageClass。

    1. apiVersion: storage.k8s.io/v1
    2. kind: StorageClass
    3. metadata:
    4. name: fast
    5. provisioner: kubernetes.io/vsphere-volume
    6. parameters:
    7. diskformat: zeroedthick
    8. datastore: VSANDatastore

datastore:用户也可以在 StorageClass 中指定数据存储。
卷将在 StorageClass 中指定的数据存储上创建,在这种情况下是 VSANDatastore
该字段是可选的。
如果未指定数据存储,则将在用于初始化 vSphere Cloud Provider 的 vSphere
配置文件中指定的数据存储上创建该卷。

  1. Kubernetes 中的存储策略管理
  • 使用现有的 vCenter SPBM 策略

    vSphere 用于存储管理的最重要特性之一是基于策略的管理。
    基于存储策略的管理(SPBM)是一个存储策略框架,提供单一的统一控制平面的跨越广泛的数据服务和存储解决方案。
    SPBM 使得 vSphere 管理员能够克服先期的存储配置挑战,如容量规划、差异化服务等级和管理容量空间。

    SPBM 策略可以在 StorageClass 中使用 storagePolicyName 参数声明。

  • Kubernetes 内的 Virtual SAN 策略支持

    Vsphere Infrastructure(VI)管理员将能够在动态卷配置期间指定自定义 Virtual SAN
    存储功能。你现在可以在动态制备卷期间以存储能力的形式定义存储需求,例如性能和可用性。
    存储能力需求会转换为 Virtual SAN 策略,之后当持久卷(虚拟磁盘)被创建时,
    会将其推送到 Virtual SAN 层。虚拟磁盘分布在 Virtual SAN 数据存储中以满足要求。

    你可以参考[基于存储策略的动态制备卷管理],
    进一步了解有关持久卷管理的存储策略的详细信息。

有几个 [vSphere 例子]供你在
Kubernetes for vSphere 中尝试进行持久卷管理。

Ceph RBD

  1. apiVersion: storage.k8s.io/v1
  2. kind: StorageClass
  3. metadata:
  4. name: fast
  5. provisioner: kubernetes.io/rbd
  6. parameters:
  7. monitors: 10.16.153.105:6789
  8. adminId: kube
  9. adminSecretName: ceph-secret
  10. adminSecretNamespace: kube-system
  11. pool: kube
  12. userId: kube
  13. userSecretName: ceph-secret-user
  14. userSecretNamespace: default
  15. fsType: ext4
  16. imageFormat: "2"
  17. imageFeatures: "layering"
  • monitors:Ceph monitor,逗号分隔。该参数是必需的。
  • adminId:Ceph 客户端 ID,用于在池 ceph 池中创建映像。默认是 “admin”。
  • adminSecretadminId 的 Secret 名称。该参数是必需的。
    提供的 secret 必须有值为 “kubernetes.io/rbd” 的 type 参数。
  • adminSecretNamespaceadminSecret 的命名空间。默认是 “default”。
  • pool:Ceph RBD 池。默认是 “rbd”。
  • userId:Ceph 客户端 ID,用于映射 RBD 镜像。默认与 adminId 相同。
  • userSecretName:用于映射 RBD 镜像的 userId 的 Ceph Secret 的名字。
    它必须与 PVC 存在于相同的 namespace 中。该参数是必需的。
    提供的 secret 必须具有值为 “kubernetes.io/rbd” 的 type 参数,例如以这样的方式创建:

    1. kubectl create secret generic ceph-secret --type="kubernetes.io/rbd" \
    2. --from-literal=key='QVFEQ1pMdFhPUnQrSmhBQUFYaERWNHJsZ3BsMmNjcDR6RFZST0E9PQ==' \
    3. --namespace=kube-system
  • userSecretNamespaceuserSecretName 的命名空间。
  • fsType:Kubernetes 支持的 fsType。默认:"ext4"
  • imageFormat:Ceph RBD 镜像格式,”1” 或者 “2”。默认值是 “1”。
  • imageFeatures:这个参数是可选的,只能在你将 imageFormat 设置为 “2” 才使用。
    目前支持的功能只是 layering。默认是 “”,没有功能打开。

Azure 磁盘

Azure Unmanaged Disk Storage Class(非托管磁盘存储类)

  1. apiVersion: storage.k8s.io/v1
  2. kind: StorageClass
  3. metadata:
  4. name: slow
  5. provisioner: kubernetes.io/azure-disk
  6. parameters:
  7. skuName: Standard_LRS
  8. location: eastus
  9. storageAccount: azure_storage_account_name
  • skuName:Azure 存储帐户 Sku 层。默认为空。
  • location:Azure 存储帐户位置。默认为空。
  • storageAccount:Azure 存储帐户名称。
    如果提供存储帐户,它必须位于与集群相同的资源组中,并且 location
    是被忽略的。如果未提供存储帐户,则会在与集群相同的资源组中创建新的存储帐户。

Azure 磁盘 Storage Class(从 v1.7.2 开始)

  1. apiVersion: storage.k8s.io/v1
  2. kind: StorageClass
  3. metadata:
  4. name: slow
  5. provisioner: kubernetes.io/azure-disk
  6. parameters:
  7. storageaccounttype: Standard_LRS
  8. kind: managed
  • storageaccounttype:Azure 存储帐户 Sku 层。默认为空。
  • kind:可能的值是 shareddedicatedmanaged(默认)。
    kind 的值是 shared 时,所有非托管磁盘都在集群的同一个资源组中的几个共享存储帐户中创建。
    kind 的值是 dedicated 时,将为在集群的同一个资源组中新的非托管磁盘创建新的专用存储帐户。
  • resourceGroup:指定要创建 Azure 磁盘所属的资源组。必须是已存在的资源组名称。
    若未指定资源组,磁盘会默认放入与当前 Kubernetes 集群相同的资源组中。
  • Premium VM 可以同时添加 Standard_LRS 和 Premium_LRS 磁盘,而 Standard
    虚拟机只能添加 Standard_LRS 磁盘。
  • 托管虚拟机只能连接托管磁盘,非托管虚拟机只能连接非托管磁盘。

Azure 文件

  1. apiVersion: storage.k8s.io/v1
  2. kind: StorageClass
  3. metadata:
  4. name: azurefile
  5. provisioner: kubernetes.io/azure-file
  6. parameters:
  7. skuName: Standard_LRS
  8. location: eastus
  9. storageAccount: azure_storage_account_name
  • skuName:Azure 存储帐户 Sku 层。默认为空。
  • location:Azure 存储帐户位置。默认为空。
  • storageAccount:Azure 存储帐户名称。默认为空。
    如果不提供存储帐户,会搜索所有与资源相关的存储帐户,以找到一个匹配
    skuNamelocation 的账号。
    如果提供存储帐户,它必须存在于与集群相同的资源组中,skuNamelocation 会被忽略。
  • secretNamespace:包含 Azure 存储帐户名称和密钥的密钥的名字空间。
    默认值与 Pod 相同。
  • secretName:包含 Azure 存储帐户名称和密钥的密钥的名称。
    默认值为 azure-storage-account-<accountName>-secret
  • readOnly:指示是否将存储安装为只读的标志。默认为 false,表示”读/写”挂载。
    该设置也会影响 VolumeMounts 中的 ReadOnly 设置。

在存储制备期间,为挂载凭证创建一个名为 secretName 的 Secret。如果集群同时启用了
[RBAC]
和[控制器角色],
system:controller:persistent-volume-binder 的 clusterrole 添加
Secret 资源的 create 权限。

在多租户上下文中,强烈建议显式设置 secretNamespace 的值,否则其他用户可能会读取存储帐户凭据。

Portworx 卷

  1. apiVersion: storage.k8s.io/v1
  2. kind: StorageClass
  3. metadata:
  4. name: portworx-io-priority-high
  5. provisioner: kubernetes.io/portworx-volume
  6. parameters:
  7. repl: "1"
  8. snap_interval: "70"
  9. priority_io: "high"
  • fs:选择的文件系统:none/xfs/ext4(默认:ext4)。
  • block_size:以 Kbytes 为单位的块大小(默认值:32)。
  • repl:同步副本数量,以复制因子 1..3(默认值:1)的形式提供。
    这里需要填写字符串,即,"1" 而不是 1
  • io_priority:决定是否从更高性能或者较低优先级存储创建卷
    high/medium/low(默认值:low)。
  • snap_interval:触发快照的时钟/时间间隔(分钟)。
    快照是基于与先前快照的增量变化,0 是禁用快照(默认:0)。
    这里需要填写字符串,即,是 "70" 而不是 70
  • aggregation_level:指定卷分配到的块数量,0 表示一个非聚合卷(默认:0)。
    这里需要填写字符串,即,是 "0" 而不是 0
  • ephemeral:指定卷在卸载后进行清理还是持久化。
    emptyDir 的使用场景可以将这个值设置为 true,
    persistent volumes 的使用场景可以将这个值设置为 false
    (例如 Cassandra 这样的数据库)
    true/false(默认为 false)。这里需要填写字符串,即,
    "true" 而不是 true

本地

  1. apiVersion: storage.k8s.io/v1
  2. kind: StorageClass
  3. metadata:
  4. name: local-storage
  5. provisioner: kubernetes.io/no-provisioner
  6. volumeBindingMode: WaitForFirstConsumer

本地卷还不支持动态制备,然而还是需要创建 StorageClass 以延迟卷绑定,
直到完成 Pod 的调度。这是由 WaitForFirstConsumer 卷绑定模式指定的。

延迟卷绑定使得调度器在为 PersistentVolumeClaim 选择一个合适的
PersistentVolume 时能考虑到所有 Pod 的调度限制。


该分类下的相关小册推荐: