Kubernetes发布策略介绍


在 Kubernetes中,有不同的发布更新的方式,有必要选择正确的策略。以便应用程序更新期间使产品基础架构可靠,尽量对用户产生影响。

Kubernetes的发布策略,主流有下面三种:

1.重建更新(Recreate)—停止旧版本部署新版本

spec:
  replicas: 3
  strategy:
    type: Recreate

2.滚动更新(rolling-update)—一个接一个地以滚动更新方式发布新版本

3.蓝绿更新—新版本与旧版本一起存在,然后切换流量

4.灰度更新(canary—将新版本面向一部分用户发布,然后继续全量发布

重建更新

优点

1.应用状态全部更新。  
更新deployment是先全部删除所有pod,然后重建以新的img为标签的deployment。    

缺点

1.停机时间取决于应用程序的关闭和启动消耗的时间  

滚动更新

spec:
  replicas: 3 #总共副本数为3
  strategy:
    type: RollingUpdate #滚动更新为默认更新策略
    rollingUpdate:
      maxSurge: 2        # 一次可以添加多少个Pod
      maxUnavailable: 1  # 滚动更新期间,最多个不可用Pod数。
      #maxUnavailable设置为0可以完全确保在滚动更新期间服务不受影响,还可以使用百分比的值来进行设置。

优点

1.版本在实例之间缓慢替换 每次拉起成功后才能算是添加可用pod 

2.rollout/rollback 可能需要一定时间  

3.一次性更新完所有老版本  

缺点

1.无法控制流量  

蓝绿更新

优点

1.实时部署/回滚  
2.避免版本问题,因为一次更改是整个应用的改变  
3.可用根据副本数进行一定的比例进行流量控制  

缺点

1.需要两倍的资源  
2.在发布到生产之前,应该对整个应用进行适当的测试  
3.多版本共存

蓝绿更新有两种模式:

1.动态模式

描述: 例如部署服务SSO对应svc的标签选择器为app: sso,根据多个deployment永远一样的标签,但是拥有不同的docker image版本。通过不同版本的pod副本数量,影响svc选中pod的比重。
从而影响流量的选择。

apiVersion: v1
kind: Service
metadata:
  name: sso
  labels:
    app: sso
spec:
  type: NodePort
  ports:
  - name: http
    port: 80
    targetPort: http
  selector:
    app: sso        #这里选择app为sso的deployment标签作为后端真实实例
    ```
  然后升级前存在的v2019.6.23版本的deployment
```yaml
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
  name:sso-v2019623
spec:
  replicas: 10
  template:
    metadata:
      labels:
        app: sso
        version: "v2019.6.23"
      annotations:
        prometheus.io/scrape: "true"
        prometheus.io/port: "32111"
    spec:
      containers:
      - name: sso
        image: docker.sklinux.com/xx/sso:v2019.6.23
        env:
        - name: VERSION
          value: "v2019.6.23"
        ports: 
        - containerPort: 80
        - containerPort: 32111

现在要插入一个v2019.6.24版本,流量接入为10%。则deployment部署文件是:

apiVersion: extensions/v1beta1
kind: Deployment
metadata:
  name:sso-sso-v2019624
spec:
  replicas: 1 #副本数 为1,新版本为1,老版本为10,总副本数为11。大约9%的流量会到这个版本
  template:
    metadata:
      labels:
        app: sso #标签app=sso,会被上面sso的svc选中并流量转发过来。
        version: "v2019.6.24"
      annotations:
        prometheus.io/scrape: "true"
        prometheus.io/port: "32111"
    spec:
      containers:
      - name: sso
        image: docker.sklinux.com/xx/sso:v2019.6.24
        env:
        - name: VERSION
          value: "v2019.6.24"
        ports: 
        - containerPort: 80
        - containerPort: 32111

根据观察v2019.6.24的运行情况。可以逐渐加大新版本的副本数,并减少老版本副本数。
不断收敛后,可以将sso-v2019.6.23下线。
调整副本为:

kubectl patch deployment sso-v2019624 -p '{"spec":{"selector":{"replicas":"10"}}}'  
kubectl patch deployment sso-v2019623 -p '{"spec":{"selector":{"replicas":"1"}}}'

总结:此模式,是一个标签下面多个deploymen,每个deployment拥有相同的一组标签,供SVC选择调度。这种模式的特点是svc固定标签选择,动态增加、删除不同的deployment组,达到更新的目的。 回滚:删除新的deployment即可
特点: SVC不变,deployment变,可以更加副本数量控制流量

2.静态整切模式

描述:

例如部署服务SSO对应svc的标签选择器为app: sso以及version: v2019.6.23,后端部署一个标签为app:sso和version: v2019.6.23的deployment。

当需要发布新的版本时,增加一组标签为 app:sso 和 version: v2019.6.24的deployment。

然后,更新SVC的version标签值为 v2019.6.24,从流量全部切换到新的deployment。如果需要保留老版本,可以不删除老的deployment。
回滚:将SVC的version标签改为老标签
特点: SVC改变,deployment也要改变。流量版本切换是整体切换,无流量控制

灰度更新

优点

1.部分用户获取新版本
2.方便错误和性能监控  
3.快速回滚  

缺点

1.发布较慢
2.流量精准控制,但资源很浪费(99%A / 1%B = 99 Pod A,1 Pod B)  

在服务网格的帮助下,灰度更新可用更好的支持多版本路由与流量切换

如果你对新功能的发布没有信心,建议使用金丝雀发布的策略