做ppt比较好的网站,做一个网站开发项目有哪些阶段,网站运行费用预算,网站建设 网络推广 网站优化目录
默写
1 如何将pod创建在指定的Node节点上
2 污点的种类(在node上设置)
一 挂载存储
1 emptyDir存储卷
2 hostPath存储卷
①在 node01 节点上创建挂载目录
② 在 node02 节点上创建挂载目录
③ 创建 Pod 资源
④ 在master上检测一下#xff1a;…目录
默写
1 如何将pod创建在指定的Node节点上
2 污点的种类(在node上设置)
一 挂载存储
1 emptyDir存储卷
2 hostPath存储卷
①在 node01 节点上创建挂载目录
② 在 node02 节点上创建挂载目录
③ 创建 Pod 资源
④ 在master上检测一下curl 特点 作用
3 nfs共享存储卷
① 在stor01节点上安装nfs并配置nfs服务
② master节点操作
③ 在nfs服务器上创建index.html
④ master节点操作
编辑 ⑤ 删除nfs相关pod再重新创建可以得到数据的持久化存储
4 挂载存储总结
二 PVC 和 PV
1 PVC 的使用逻辑
2 创建 StorageClass
3 PV和PVC之间的相互作用遵循这个生命周期
4 根据这 5 个阶段PV 的状态有以下 4 种
5 一个PV从创建到销毁的具体流程
6 回收策略Retain、Delete和Recycle。
三 回收策略
nfs 支持全部三种
PV和PVC中的spec关键字段要匹配
四 NFS使用PV和PVC---静态
1 配置nfs存储
2 定义PV
3 定义PVC
4 测试访问
五 搭建 StorageClass NFS实现 NFS 的动态 PV 创建
1 在stor01节点上安装nfs并配置nfs服务
2 创建 Service Account
3 使用 Deployment 来创建 NFS Provisioner
4 创建 NFS Provisioner
5 创建 StorageClass负责建立 PVC 并调用 NFS provisioner 进行预定的工作并让 PV 与 PVC 建立关联
6 创建 PVC 和 Pod 测试
7 PVC 通过 StorageClass 自动申请到空间
8 发现 NFS 服务器上存在说明验证成功 默写
1 如何将pod创建在指定的Node节点上
node亲和、pod亲和、pod反亲和:
调度策略 匹配标签 操作符 nodeAffinity 主机 In,NotIn,Exists,DoesNotExistGtLt
podAffinity pod In,NotIn,Exists,DoesNotExist
podAntiAffinity pod In,NotIn,Exists,DoesNotExist 调度目标指定主机Pod与指定Pod同一拓扑域Pod与指定Pod不在同一拓扑域
2 污点的种类(在node上设置)
当前 taint effect 支持如下三个选项:
Noschedule:表示 k8s 将不会将 Pod 调度到具有该污点的 Node 上
PreferNoschedule:表示 k8s 将尽量避免将 Pod 调度到具有该污点的 Node 上
NoExecute:表示 k8s 将不会将 pod 调度到具有该污点的 Node 上同时会将 Node 上已经存在的 pod 驱逐出去
一 挂载存储
容器磁盘上的文件的生命周期是短暂的这就使得在容器中运行重要应用时会出现一些问题。
首先当容器崩溃时kubelet 会重启它但是容器中的文件将丢失——容器以干净的状态镜像最初的状态重新启动。
其次在Pod中同时运行多个容器时这些容器之间通常需要共享文件。
Kubernetes 中的Volume抽象就很好的解决了这些问题。Pod中的容器通过Pause容器共享 Volume。 总结:用本地磁盘进行挂载把本地数据挂载虚拟机中做持久化 查看支持存储卷类型
kubectl explain pod.spec.volumes 1 emptyDir存储卷
当Pod被分配给节点时首先创建emptyDir卷并且只要该Pod在该节点上运行该卷就会存在。正如卷的名字所述它最初是空的。
Pod 中的容器可以读取和写入emptyDir卷中的相同文件尽管该卷可以挂载到每个容器中的相同或不同路径上。当出于任何原因从节点中删除 Pod 时emptyDir中的数据将被永久删除。 总结依赖于某一个容器从一个容器挂载到另一个容器 临时性存储
emptyDir 提供的存储是临时的其生命周期与所属的 Pod 相关。
当 Pod 被删除时emptyDir 中的数据也会被清除因此不适合用于持久化存储。
Pod 内容器之间的共享
emptyDir 在同一个 Pod 中的所有容器之间共享容器可以读写其中的数据。
创建时机
emptyDir 在 Pod 创建时被创建当容器启动时可以访问其中的空目录。
用途
适用于需要在同一个 Pod 中的多个容器之间进行临时数据交换或共享的场景。
例如可以用于容器间的缓存共享、临时文件存储等用途。
理论版
vim pod-emptydir.yaml
apiVersion: v1
kind: Pod
metadata:name: pod-emptydirnamespace: defaultlabels: #加两个标签app: myapptier: frontend
spec:containers:- name: myappimage: ikubernetes/myapp:v1 #定义镜像imagePullPolicy: IfNotPresent #拉取策略ports:- name: httpcontainerPort: 80#定义容器挂载内容volumeMounts:#使用的存储卷名称如果跟下面volume字段name值相同则表示使用volume的这个存储卷- name: html#挂载至容器中哪个目录mountPath: /usr/share/nginx/html/- name: busyboximage: busybox:latestimagePullPolicy: IfNotPresentvolumeMounts:- name: html#在容器内定义挂载存储名称和挂载路径mountPath: /data/command: [/bin/sh,-c,while true;do echo $(date) /data/index.html;sleep 2;done] #等待2s就结束
#定义存储卷volumes:#定义存储卷名称 - name: html#定义存储卷类型emptyDir: {}
实践版 搭建
apiVersion: v1
kind: Pod
metadata:name: pod-emptydirnamespace: defaultlabels:app: myapp
spec:containers:- name: myappimage: soscscs/myapp:v1imagePullPolicy: IfNotPresentports:- name: httpcontainerPort: 80volumeMounts:- name: ky35mountPath: /usr/share/nginx/html/- name: busyboximage: busybox:latestimagePullPolicy: IfNotPresentvolumeMounts:- name: ky35mountPath: /data/command: [/bin/sh,-c,while true;do echo $(date) /data/index.html;sleep 2;done]volumes:- name: ky35emptyDir: {}kubectl apply -f pod-emptydir.yamlkubectl get pods -o wide kubectl exec -it pod-emptydir -c busybox sh #进入容器 概括定义了2个容器其中一个容器是输入日期到index.html中然后验证访问nginx的html是否可以获取日期。以验证两个容器之间挂载的emptyDir实现共享。
总结 emptypir 可以实现pod中的容器之间共享数据但是存储卷不能持久化数据且会随着pod 生命周结束而一起删除 hostpath: 可以实现持久化存储使用node节点的目录或文件挂载到容器但是存储空间会受到弄得节点单机限制node节点故障数据会丢失pod跨节点不能共享数据 失败总结------强制删除 kubectl delete pod pod-emptydir --force --grace-period0 2 hostPath存储卷
hostPath卷将 node 节点的文件系统中的文件或目录挂载到集群中。 hostPath可以实现持久存储但是在node节点故障时也会导致数据的丢失。
apiVersion: v1
kind: Pod
metadata:name: pod-hostpathnamespace: default
spec:containers:- name: myappimage: soscscs/myapp:v1#定义容器挂载内容volumeMounts:#使用的存储卷名称如果跟下面volume字段name值相同则表示使用volume的这个存储卷- name: html#挂载至容器中哪个目录mountPath: /usr/share/nginx/html#读写挂载方式默认为读写模式falsereadOnly: false#volumes字段定义了paues容器关联的宿主机或分布式文件系统存储卷volumes:#存储卷名称- name: html#路径为宿主机存储路径hostPath:#在宿主机上目录的路径path: /data/pod/volume1#定义类型这表示如果宿主机没有此目录则会自动创建type: DirectoryOrCreate ①在 node01 节点上创建挂载目录
mkdir -p /data/pod/volume1
echo node01.kgc.com /data/pod/volume1/index.html ② 在 node02 节点上创建挂载目录
mkdir -p /data/pod/volume1
echo node02.kgc.com /data/pod/volume1/index.html ③ 创建 Pod 资源 vim pod-hostpath.yaml
apiVersion: v1
kind: Pod
metadata:name: pod-hostpathnamespace: default
spec:containers:- name: myappimage: ikubernetes/myapp:v1#定义容器挂载内容volumeMounts:#使用的存储卷名称如果跟下面volume字段name值相同则表示使用volume的这个存储卷- name: html#挂载至容器中哪个目录mountPath: /usr/share/nginx/html#读写挂载方式默认为读写模式falsereadOnly: false #代表了可读可查都可以进行#volumes字段定义了paues容器关联的宿主机或分布式文件系统存储卷volumes:#存储卷名称- name: html#路径为宿主机存储路径hostPath:#在宿主机上目录的路径path: /data/pod/volume1#定义类型这表示如果宿主机没有此目录则会自动创建type: DirectoryOrCreate
④ 在master上检测一下curl kubectl apply -f pod-hostpath.yaml 访问测试 kubectl get pods -o wide 注意若启动不run 就重启一下 特点
直接访问主机文件系统 HostPath存储卷允许Pod直接访问主机节点上的文件系统提供了对主机存储的直接访问权限。
读写权限 Pod可以对HostPath上的文件进行读写操作这为一些需要在容器内进行文件操作的应用提供了便利。
节点依赖性 Pod使用HostPath时会依赖节点上的具体路径这可能导致在不同节点上部署相同Pod时出现问题因为节点之间的文件系统路径可能不同。
共享资源多个Pod可以共享同一个HostPath但要小心避免数据冲突或竞争条件 作用
主机文件操作 适用于需要在Pod内进行主机文件系统操作的场景例如读取或写入主机上的特 定文件。
数据共享 多个Pod可以共享同一个HostPath这在一些需要多个Pod之间共享数据的情况下可 能很有用。
特殊需求 用于满足一些特殊需求例如某些应用需要在容器内直接操作主机上的某些文件。 需要注意的是由于HostPath存储卷的使用可能涉及到权限和安全性的考虑一般情况下建议慎重使用并确保在生产环境中采取适当的安全措施
3 nfs共享存储卷 注意只是共享存储没有存储能力pod可以跨node节点共享数据 NAS存储设备 NFS 才能共享出去
GFS--自动搭 ceph---第三方 NAS---第三方
云端存储oss s3 SLB LB CDN AWS
① 在stor01节点上安装nfs并配置nfs服务
在stor01节点上安装nfs并配置nfs服务
mkdir /data/volumes -p
chmod 777 /data/volumes
vim /etc/exports
/data/volumes 192.168.10.0/24(rw,no_root_squash)systemctl start rpcbind
systemctl start nfsshowmount -e
Export list for stor01:
/data/volumes 192.168.10.0/24 做映射 ② master节点操作 kind: Pod
vim pod-nfs-vol.yaml
apiVersion: v1
metadata:name: pod-vol-nfsnamespace: default
spec:containers:- name: myappimage: ikubernetes/myapp:v1volumeMounts:- name: htmlmountPath: /usr/share/nginx/htmlvolumes:- name: htmlnfs:path: /data/volumesserver: stor01 apiVersion: v1
kind: Pod
metadata:name: pod-nfsnamespace: default
spec:containers:- name: myappimage: soscscs/myapp:v1volumeMounts:- name: ky35mountPath: /usr/share/nginx/htmlvolumes:- name: ky35nfs:path: /data/volumesserver: 192.168.11.14 kubectl apply -f pod-nfs-vol.yaml kubectl get pods -o wide ③ 在nfs服务器上创建index.html
cd /data/volumes
vim index.html
h1 nfs stor01/h1 ④ master节点操作 ⑤ 删除nfs相关pod再重新创建可以得到数据的持久化存储 kubectl delete -f demo03.yaml kubectl delete -f pod-nfs-vol.yaml 失败总结 特点
共享性 NFS存储卷允许多个Pod在集群中共享同一个NFS服务器上的存储空间。这使得多个应 用程序可以访问和操作相同的数据促进了数据共享和协作。
持久性 NFS存储卷提供了持久化的存储解决方案数据存储在NFS服务器上并且在Pod重新启 动或迁移时仍然可用。这对于需要长期保存数据的应用程序和服务非常有用。
可扩展性 NFS存储卷可以轻松地扩展以满足应用程序的需求。通过在NFS服务器上添加更多的 存储空间或者增加NFS服务器的数量可以扩展存储容量和性能。
灵活性 使用NFS存储卷可以将存储与Pod分离从而使得Pod可以在不同的节点上迁移而不会丢 失数据。这种灵活性使得在Kubernetes集群中部署和管理应用程序变得更加容易。
用途
简化管理 NFS存储卷可以通过Kubernetes的PV和PVC对象进行声明和管理而无需手动管理存 储配置。这简化了存储管理的流程并提高了部署和维护的效率。
适用范围广泛 NFS存储卷适用于许多不同类型的应用程序和场景包括数据库、文件共享、日 志存储等。它提供了一种通用的存储解决方案适用于各种不同的业务需求。 4 挂载存储总结
emptypir :可以实现Pod中的容器之间共享数据但是存储卷不能持久化数据且会随着pod 生命周结束而一起删除
hostpath可以实现持久化存储使用node节点的目录或文件挂载到容器但是存储空间会受到弄得节点单机限制node节点故障数据会丢失poa跨节点不能共享数据
nfs可以实现持久化存储使用nfs将存储设别空间挂载到容器中pod可以跨node节点共享数据
二 PVC 和 PV
PV 全称叫做 Persistent Volume持久化存储卷。它是用来描述或者说用来定义一个存储卷的这个通常都是由运维工程师来定义。
PVC 的全称是 Persistent Volume Claim是持久化存储的请求。它是用来描述希望使用什么样的或者说是满足什么条件的 PV 存储。
1 PVC 的使用逻辑
在 Pod 中定义一个存储卷该存储卷类型为 PVC定义的时候直接指定大小PVC 必须与对应的 PV 建立关系PVC 会根据配置的定义去 PV 申请而 PV 是由存储空间创建出来的。PV 和 PVC 是 Kubernetes 抽象出来的一种存储资源。
上面介绍的PV和PVC模式是需要运维人员先创建好PV然后开发人员定义好PVC进行一对一的Bond但是如果PVC请求成千上万那么就需要创建成千上万的PV对于运维人员来说维护成本很高Kubernetes提供一种自动创建PV的机制叫StorageClass它的作用就是创建PV的模板。
2 创建 StorageClass
需要定义 PV 的属性比如存储类型、大小等另外创建这种 PV 需要用到的存储插件比如 Ceph 等。 有了这两部分信息Kubernetes 就能够根据用户提交的 PVC找到对应的 StorageClass然后 Kubernetes 就会调用 StorageClass 声明的存储插件自动创建需要的 PV 并进行绑定。 存储 存储工程师运维PV k8s 管理员运维PVC 用户维护
PV是集群中的资源 PVC是对这些资源的请求也是对资源的索引检查。 3 PV和PVC之间的相互作用遵循这个生命周期 Provisioning配置--- Binding绑定--- Using使用--- Releasing释放 --- Recycling回收 Provisioning即 PV 的创建可以直接创建 PV静态方式也可以使用 StorageClass 动态 创建 Binding将 PV 分配给 PVC
UsingPod 通过 PVC 使用该 Volume并可以通过准入控制StorageProtection1.9及以前版本 为PVCProtection 阻止删除正在使用的 PVC ReleasingPod 释放 Volume 并删除 PVC
Reclaiming回收 PV可以保留 PV 以便下次使用也可以直接从云存储中删除
4 根据这 5 个阶段PV 的状态有以下 4 种
Available可用表示可用状态还未被任何 PVC 绑定Bound已绑定表示 PV 已经绑定到 PVCReleased已释放表示 PVC 被删掉但是资源尚未被集群回收Failed失败表示该 PV 的自动回收失败
5 一个PV从创建到销毁的具体流程
1 一个PV创建完后状态会变成Available等待被PVC绑定。 2 一旦被PVC邦定PV的状态会变成Bound就可以被定义了相应PVC的Pod使用。 3 Pod使用完后会释放PVPV的状态变成Released。 4 变成Released的PV会根据定义的回收策略做相应的回收工作。
6 回收策略Retain、Delete和Recycle。
Retain就是保留现场K8S集群什么也不做等待用户手动去处理PV里的数据处理完后再手 动删除PV。
Delete策略K8S会自动删除该PV及里面的数据。
Recycle方式K8S会将PV里的数据删除然后把PV的状态变成Available又可以被新的PVC绑 定使用。
三 回收策略 kubectl explain pv.spec #查看pv定义的规格 kubectl explain pv #查看pv的定义方式
FIELDS:apiVersion: v1kind: PersistentVolumemetadata: #由于 PV 是集群级别的资源即 PV 可以跨 namespace 使用所以 PV 的 metadata 中不用配置 namespacename: speckubectl explain pv.spec #查看pv定义的规格
spce:nfs:定义存储类型path:定义挂载卷路径server:定义服定义访问模型务器名称accessModes:有以下三种访问模型以列表的方式存在也就是说可以定义多个访问模式 * * *- ReadWriteOnce #RWO存储可读可写但只支持被单个 Pod 挂载- ReadOnlyMany #ROX存储可以以只读的方式被多个 Pod 挂载- ReadWriteMany #RWX存储可以以读写的方式被多个 Pod 共享 注官网
#nfs 支持全部三种iSCSI 不支持 ReadWriteManyiSCSI 就是在 IP 网络上运行 SCSI 协议的一种网络存储技术HostPath 不支持 ReadOnlyMany 和 ReadWriteMany。capacity:定义存储能力一般用于设置存储空间storage: 2Gi 指定大小storageClassName: 自定义存储类名称此配置用于绑定具有相同类别的PVC和PVpersistentVolumeReclaimPolicy: Retain #回收策略Retain/Delete/Recycle * * *
#Retain保留当删除与之绑定的PVC时候这个PV被标记为releasedPVC与PV解绑但还没有执行回收策略且之前的数据依然保存在该PV上但是该PV不可用需要手动来处理这些数据并删除该PV。
#Delete删除删除与PV相连的后端存储资源只有 AWS EBS, GCE PD, Azure Disk 和 Cinder 支持
#Recycle回收删除数据效果相当于执行了 rm -rf /thevolume/* 只有 NFS 和 HostPath 支持kubectl explain pvc #查看PVC的定义方式
KIND: PersistentVolumeClaim
VERSION: v1
FIELDS:apiVersion stringkind string metadata Objectspec Object
nfs 支持全部三种
iSCSI 不支持 ReadWriteManyiSCSI 就是在 IP 网络上运行 SCSI 协议的一种网络存储技术HostPath 不支持 ReadOnlyMany 和 ReadWriteMany。
capacity: 定义存储能力一般用于设置存储空间 storage: 2Gi 指定大小 storageClassName: 自定义存储类名称此配置用于绑定具有相同类别的PVC和PV persistentVolumeReclaimPolicy: Retain #回收策略Retain/Delete/Recycle
Retain保留当删除与之绑定的PVC时候这个PV被标记为releasedPVC与PV解绑但还没有执行回收策略且之前的数据依然保存在该PV上但是该PV不可用需要手动来处理这些数据并删除该PV。Delete删除删除与PV相连的后端存储资源只有 AWS EBS, GCE PD, Azure Disk 和 Cinder 支持Recycle回收删除数据效果相当于执行了 rm -rf /thevolume/* 只有 NFS 和 HostPath 支持 kubectl explain pv.spec #查看pv定义的规格 PV和PVC中的spec关键字段要匹配
比如存储storage大小、访问模式accessModes、存储类名称storageClassName
kubectl explain pvc.spec
spec:accessModes: 定义访问模式必须是PV的访问模式的子集resources:requests:storage: 定义申请资源的大小storageClassName: 定义存储类名称此配置用于绑定具有相同类别的PVC和PV
四 NFS使用PV和PVC---静态 结论只能创建一些简单的 官方文档
https://kubernetes.io/zh-cn/docs/tasks/configure-pod-container/configure-persistent-volume-storage/#create-a-persistentvolume
1 配置nfs存储 mkdir v{1,2,3,4,5} vim /etc/exports /data/volumes/v1 192.168.10.0/24(rw,no_root_squash) /data/volumes/v2 192.168.10.0/24(rw,no_root_squash) /data/volumes/v3 192.168.10.0/24(rw,no_root_squash) /data/volumes/v4 192.168.10.0/24(rw,no_root_squash) /data/volumes/v5 192.168.10.0/24(rw,no_root_squash) exportfs -arv showmount -e 2 定义PV
这里定义5个PV并且定义挂载的路径以及访问模式还有PV划分的大小。
vim pv-demo.yaml
apiVersion: v1
kind: PersistentVolume
metadata:name: pv001labels:name: pv001
spec:nfs:path: /data/volumes/v1server:stor01 accessModes: [ReadWriteMany,ReadWriteOnce]capacity:storage: 1Gi
---
apiVersion: v1
kind: PersistentVolume
metadata:name: pv002labels:name: pv002
spec:nfs:path: /data/volumes/v2server: stor01accessModes: [ReadWriteOnce]capacity:storage: 2Gi
---
apiVersion: v1
kind: PersistentVolume
metadata:name: pv003labels:name: pv003
spec:nfs:path: /data/volumes/v3server: stor01accessModes: [ReadWriteMany,ReadWriteOnce]capacity:storage: 2Gi
---
apiVersion: v1
kind: PersistentVolume
metadata:name: pv004labels:name: pv004
spec:nfs:path: /data/volumes/v4server: stor01accessModes: [ReadWriteMany,ReadWriteOnce]capacity:storage: 4Gi
---
apiVersion: v1
kind: PersistentVolume
metadata:name: pv005labels:name: pv005
spec:nfs:path: /data/volumes/v5server: stor01accessModes: [ReadWriteMany,ReadWriteOnce]capacity:storage: 5Gi术语解析
配置文件解析PersistentVolumeClaim (PVC)apiVersion: 指定了 Kubernetes API 的版本这里是 v1。
kind: 资源类型这里是 PersistentVolumeClaim表示一个存储卷声明。
metadata: 包含资源的元数据这里定义了 PVC 的名称为 mypvc。
spec: 规格定义部分。
accessModes: 定义了 PVC 的访问模式这里是 ReadWriteMany意味着存储卷可以被多个节点同时以读写方式挂载。
resources: 定义了资源请求。
requests: 指定了存储资源的请求量这里是 2Gi。
PodapiVersion: 指定 Kubernetes API 的版本这里也是 v1。
kind: 资源类型这里是 Pod。
metadata: 包含资源的元数据这里定义了 Pod 的名称为 pod-vol-pvc。
spec: 规格定义部分描述了 Pod 的具体配置。
containers: 容器数组每个对象定义了一个容器的配置。name: 容器的名称这里是 myapp。
image: 容器的镜像这里使用的是 ikubernetes/myapp:v1。
volumeMounts: 定义了容器内的挂载点。
name: 卷的引用名称这里是 html。
mountPath: 容器内的挂载路径这里是 /usr/share/nginx/html。
volumes: 定义了 Pod 级别的存储卷。name: 卷的名称与 volumeMounts 中的引用名称相匹配这里是 html。persistentVolumeClaim: 指定了卷的来源是一个 PVC。claimName: 引用 PVC 的名称这里是 mypvc。
3 定义PVC
这里定义了pvc的访问模式为多路读写该访问模式必须在前面pv定义的访问模式之中。定义PVC申请的大小为2Gi此时PVC会自动去匹配多路读写且大小为2Gi的PV匹配成功获取PVC的状态即为Bound
apiVersion: v1
kind: PersistentVolumeClaim
metadata:name: mypvcnamespace: default
spec:accessModes: [ReadWriteMany]resources:requests:storage: 2Gi apiVersion: v1
kind: Pod
metadata:name: pod-vol-pvcnamespace: default
spec:containers:- name: myappimage: ikubernetes/myapp:v1volumeMounts:- name: htmlmountPath: /usr/share/nginx/htmlvolumes:- name: htmlpersistentVolumeClaim:claimName: mypvc 4 测试访问
在存储服务器上创建index.html并写入数据通过访问Pod进行查看可以获取到相应的页面。 cd /data/volumes/v3/ echo welcome to use pv3 index.html 术语解析
PersistentVolumeClaim (PVC)apiVersion: 指定了 Kubernetes API 的版本这里是 v1。
kind: 资源类型这里是 PersistentVolumeClaim表示一个存储卷声明。
metadata: 包含资源的元数据这里定义了 PVC 的名称为 mypvc。
spec: 规格定义部分。
accessModes: 定义了 PVC 的访问模式这里是 ReadWriteMany意味着存储卷可以被多个节点同时以读写方式挂载。
resources: 定义了资源请求。
requests: 指定了存储资源的请求量这里是 2Gi。
PodapiVersion: 指定 Kubernetes API 的版本这里也是 v1。
kind: 资源类型这里是 Pod。
metadata: 包含资源的元数据这里定义了 Pod 的名称为 pod-vol-pvc。
spec: 规格定义部分描述了 Pod 的具体配置。
containers: 容器数组每个对象定义了一个容器的配置。name: 容器的名称这里是 myapp。
image: 容器的镜像这里使用的是 ikubernetes/myapp:v1。
volumeMounts: 定义了容器内的挂载点。
name: 卷的引用名称这里是 html。
mountPath: 容器内的挂载路径这里是 /usr/share/nginx/html。
volumes: 定义了 Pod 级别的存储卷。name: 卷的名称与 volumeMounts 中的引用名称相匹配这里是 html。persistentVolumeClaim: 指定了卷的来源是一个 PVC。claimName: 引用 PVC 的名称这里是 mypvc。
步骤
静态创建PV的步骤准备好存储设备和共享目录
准备创建PV资源的配置文件定义访问模式(ReadWriteOnce、ReadOnlyMany、ReadWriteMany、ReadWriteMany)、存储空间大小、回收策略Retain、Recycle、Delete、存储设备类型、storageClassName等
准备创建PVC资源的配置文件定义访问模式(必要条件必须是PV支持的访问模式)、存储空间大小(默认就近选择大于等于指定大小的PV)、storageClassName等来绑定PV
创建Pod资源挂载PVC存储卷定义卷类型为persistentVolumeClaim并在容器配置中定义存储卷挂载点路径 五 搭建 StorageClass NFS实现 NFS 的动态 PV 创建 成千上万数据存储就需要用动态资源去创建 Kubernetes 本身支持的动态 PV 创建不包括 NFS所以需要使用外部存储卷插件分配PV。
https://kubernetes.io/zh/docs/concepts/storage/storage-classes/
卷插件称为 Provisioner存储分配器
NFS 使用的是 nfs-client这个外部PV。Provisioner用于指定 Volume 插件的类型包括内置插件如 kubernetes.io/aws-ebs和外部插件如 exte卷插件会使用已经配置好的 NFS 服务器自动创建 rnal-storage 提供的 ceph.com/cephfs。
内置插件kubernetes.io/aws-ebs 是用于 AWS Elastic Block StoreEBS的内置插件。它能够动态地创建和管理 AWS EBS 存储。外部插件 : ceph.com/cephfs这是 Ceph 文件系统的外部插件。此外nfs-client 也是一个外部插件用于与 NFS 服务器集成实现动态创建 PV。1 在stor01节点上安装nfs并配置nfs服务
mkdir /opt/k8s
chmod 777 /opt/k8s/vim /etc/exports
/opt/k8s 192.168.10.0/24(rw,no_root_squash,sync)systemctl restart nfs 2 创建 Service Account
用来管理 NFS Provisioner 在 k8s 集群中运行的权限设置 nfs-client 对 PVPVCStorageClass 等的规则 vim nfs-client-rbac.yaml 创建 Service Account 账户用来管理 NFS Provisioner 在 k8s 集群中运行的权限 apiVersion: v1
kind: ServiceAccount
metadata:name: nfs-client-provisioner
---
#创建集群角色
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:name: nfs-client-provisioner-clusterrole
rules:- apiGroups: []resources: [persistentvolumes]verbs: [get, list, watch, create, delete]- apiGroups: []resources: [persistentvolumeclaims]verbs: [get, list, watch, update]- apiGroups: [storage.k8s.io]resources: [storageclasses]verbs: [get, list, watch]- apiGroups: []resources: [events]verbs: [list, watch, create, update, patch]- apiGroups: []resources: [endpoints]verbs: [create, delete, get, list, watch, patch, update]
---
#集群角色绑定
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:name: nfs-client-provisioner-clusterrolebinding
subjects:
- kind: ServiceAccountname: nfs-client-provisionernamespace: default
roleRef:kind: ClusterRolename: nfs-client-provisioner-clusterroleapiGroup: rbac.authorization.k8s.io 3 使用 Deployment 来创建 NFS Provisioner
NFS Provisione(即 nfs-client)有两个功能一个是在 NFS 共享目录下创建挂载点(volume)另一个则是将 PV 与 NFS 的挂载点建立关联。
由于 1.20 版本启用了 selfLink所以 k8s 1.20 版本通过 nfs provisioner 动态生成pv会报错解决方法如下
vim /etc/kubernetes/manifests/kube-apiserver.yaml
spec:containers:- command:- kube-apiserver- --feature-gatesRemoveSelfLinkfalse #添加这一行- --advertise-address192.168.10.19
......kubectl apply -f /etc/kubernetes/manifests/kube-apiserver.yaml
kubectl delete pods kube-apiserver -n kube-system
kubectl get pods -n kube-system | grep apiserver 4 创建 NFS Provisioner 注意需要在两个节点加载镜像才行 vim nfs-client-provisioner.yaml
kind: Deployment
apiVersion: apps/v1
metadata:name: nfs-client-provisioner
spec:replicas: 1selector:matchLabels:app: nfs-client-provisionerstrategy:type: Recreatetemplate:metadata:labels:app: nfs-client-provisionerspec:serviceAccountName: nfs-client-provisioner #指定Service Account账户containers:- name: nfs-client-provisionerimage: quay.io/external_storage/nfs-client-provisioner:latestimagePullPolicy: IfNotPresentvolumeMounts:- name: nfs-client-rootmountPath: /persistentvolumesenv:- name: PROVISIONER_NAMEvalue: nfs-storage #配置provisioner的Name确保该名称与StorageClass资源中的provisioner名称保持一致- name: NFS_SERVERvalue: stor01 #配置绑定的nfs服务器- name: NFS_PATHvalue: /opt/k8s #配置绑定的nfs服务器目录volumes: #申明nfs数据卷- name: nfs-client-rootnfs:server: stor01path: /opt/k8s 注意一直在创建中 是因为另外两个节点要加载镜像 5 创建 StorageClass负责建立 PVC 并调用 NFS provisioner 进行预定的工作并让 PV 与 PVC 建立关联
vim nfs-client-storageclass.yaml
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:name: nfs-client-storageclass
provisioner: nfs-storage #这里的名称要和provisioner配置文件中的环境变量PROVISIONER_NAME保持一致
parameters:archiveOnDelete: false #false表示在删除PVC时不会对数据进行存档即删除数据 kubectl apply -f nfs-client-storageclass.yaml: 通过 Kubernetes 的命令行工具 kubectl 应用或创建nfs-client-storageclass.yaml 文件中定义的资源这里是一个 StorageClass。
kubectl get storageclass: 通过 kubectl 获取当前 Kubernetes 集群中所有的 StorageClass 列表。这可以用于确认上一步的 StorageClass 是否成功创建。6 创建 PVC 和 Pod 测试
vim test-pvc-pod.yaml
apiVersion: v1
kind: PersistentVolumeClaim
metadata:name: test-nfs-pvc
spec:accessModes:- ReadWriteManystorageClassName: nfs-client-provisioner #关联StorageClass对象resources:requests:storage: 1Gi
---
apiVersion: v1
kind: Pod
metadata:name: test-storageclass-pod
spec:containers:- name: busyboximage: busybox:latestimagePullPolicy: IfNotPresentcommand:- /bin/sh- -cargs:- sleep 3600volumeMounts:- name: nfs-pvcmountPath: /mntrestartPolicy: Nevervolumes:- name: nfs-pvcpersistentVolumeClaim:claimName: test-nfs-pvc #与PVC名称保持一致 7 PVC 通过 StorageClass 自动申请到空间
kubectl get pvc 查看 NFS 服务器上是否生成对应的目录自动创建的 PV 会以 ${namespace}-${pvcName}-${pvName} 的目录格式放到 NFS 服务器上
ls /opt/k8s/
default-test-nfs-pvc-pvc-11670f39-782d-41b8-a842-eabe1859a456//进入 Pod 在挂载目录 /mnt 下写一个文件然后查看 NFS 服务器上是否存在该文件
kubectl exec -it test-storageclass-pod sh
/ # cd /mnt/
/mnt # echo this is test file test.txt//发现 NFS 服务器上存在说明验证成功
cat /opt/k8s/test.txt8 发现 NFS 服务器上存在说明验证成功 文章转载自: http://www.morning.rwbh.cn.gov.cn.rwbh.cn http://www.morning.nhzzn.cn.gov.cn.nhzzn.cn http://www.morning.jxmjr.cn.gov.cn.jxmjr.cn http://www.morning.dbphz.cn.gov.cn.dbphz.cn http://www.morning.npcxk.cn.gov.cn.npcxk.cn http://www.morning.xnrgb.cn.gov.cn.xnrgb.cn http://www.morning.qnbgk.cn.gov.cn.qnbgk.cn http://www.morning.wfpmt.cn.gov.cn.wfpmt.cn http://www.morning.ltksw.cn.gov.cn.ltksw.cn http://www.morning.zwyuan.com.gov.cn.zwyuan.com http://www.morning.fqyxb.cn.gov.cn.fqyxb.cn http://www.morning.wnjbn.cn.gov.cn.wnjbn.cn http://www.morning.qmkyp.cn.gov.cn.qmkyp.cn http://www.morning.kxxld.cn.gov.cn.kxxld.cn http://www.morning.xhxsr.cn.gov.cn.xhxsr.cn http://www.morning.qgcfb.cn.gov.cn.qgcfb.cn http://www.morning.pdwny.cn.gov.cn.pdwny.cn http://www.morning.cwtrl.cn.gov.cn.cwtrl.cn http://www.morning.kgrwh.cn.gov.cn.kgrwh.cn http://www.morning.cmrfl.cn.gov.cn.cmrfl.cn http://www.morning.brsgw.cn.gov.cn.brsgw.cn http://www.morning.tjndb.cn.gov.cn.tjndb.cn http://www.morning.rjljb.cn.gov.cn.rjljb.cn http://www.morning.dnconr.cn.gov.cn.dnconr.cn http://www.morning.lnbyk.cn.gov.cn.lnbyk.cn http://www.morning.dnmzl.cn.gov.cn.dnmzl.cn http://www.morning.pjjkz.cn.gov.cn.pjjkz.cn http://www.morning.zzgtdz.cn.gov.cn.zzgtdz.cn http://www.morning.mdjtk.cn.gov.cn.mdjtk.cn http://www.morning.kzdgz.cn.gov.cn.kzdgz.cn http://www.morning.xptkl.cn.gov.cn.xptkl.cn http://www.morning.ntyks.cn.gov.cn.ntyks.cn http://www.morning.rfxyk.cn.gov.cn.rfxyk.cn http://www.morning.srkwf.cn.gov.cn.srkwf.cn http://www.morning.mrttc.cn.gov.cn.mrttc.cn http://www.morning.xiaobaixinyong.cn.gov.cn.xiaobaixinyong.cn http://www.morning.lgsfb.cn.gov.cn.lgsfb.cn http://www.morning.ljmbd.cn.gov.cn.ljmbd.cn http://www.morning.kqzxk.cn.gov.cn.kqzxk.cn http://www.morning.nzwp.cn.gov.cn.nzwp.cn http://www.morning.zpzys.cn.gov.cn.zpzys.cn http://www.morning.divocn.com.gov.cn.divocn.com http://www.morning.mpsnb.cn.gov.cn.mpsnb.cn http://www.morning.zdkzj.cn.gov.cn.zdkzj.cn http://www.morning.jygsq.cn.gov.cn.jygsq.cn http://www.morning.xzkgp.cn.gov.cn.xzkgp.cn http://www.morning.qnftc.cn.gov.cn.qnftc.cn http://www.morning.3dcb8231.cn.gov.cn.3dcb8231.cn http://www.morning.khfk.cn.gov.cn.khfk.cn http://www.morning.fkcjs.cn.gov.cn.fkcjs.cn http://www.morning.tznlz.cn.gov.cn.tznlz.cn http://www.morning.bmtkp.cn.gov.cn.bmtkp.cn http://www.morning.ftync.cn.gov.cn.ftync.cn http://www.morning.fqsxf.cn.gov.cn.fqsxf.cn http://www.morning.jbxfm.cn.gov.cn.jbxfm.cn http://www.morning.gfznl.cn.gov.cn.gfznl.cn http://www.morning.pdmml.cn.gov.cn.pdmml.cn http://www.morning.pwfwk.cn.gov.cn.pwfwk.cn http://www.morning.hwbmn.cn.gov.cn.hwbmn.cn http://www.morning.zxfdq.cn.gov.cn.zxfdq.cn http://www.morning.zqbrd.cn.gov.cn.zqbrd.cn http://www.morning.srndk.cn.gov.cn.srndk.cn http://www.morning.xjmpg.cn.gov.cn.xjmpg.cn http://www.morning.nsyzm.cn.gov.cn.nsyzm.cn http://www.morning.nmnhs.cn.gov.cn.nmnhs.cn http://www.morning.lfjmp.cn.gov.cn.lfjmp.cn http://www.morning.hbxnb.cn.gov.cn.hbxnb.cn http://www.morning.rybr.cn.gov.cn.rybr.cn http://www.morning.zbpqq.cn.gov.cn.zbpqq.cn http://www.morning.dschz.cn.gov.cn.dschz.cn http://www.morning.bflwj.cn.gov.cn.bflwj.cn http://www.morning.ltcnd.cn.gov.cn.ltcnd.cn http://www.morning.myfwb.cn.gov.cn.myfwb.cn http://www.morning.kllzy.com.gov.cn.kllzy.com http://www.morning.sfrw.cn.gov.cn.sfrw.cn http://www.morning.slkqd.cn.gov.cn.slkqd.cn http://www.morning.wfysn.cn.gov.cn.wfysn.cn http://www.morning.rxhs.cn.gov.cn.rxhs.cn http://www.morning.wmmjw.cn.gov.cn.wmmjw.cn http://www.morning.gsjw.cn.gov.cn.gsjw.cn