Skip to content

Latest commit

 

History

History
127 lines (83 loc) · 4.73 KB

upgrade-a-tidb-cluster.md

File metadata and controls

127 lines (83 loc) · 4.73 KB
title summary category
滚动升级 Kubernetes 上的 TiDB 集群
介绍如何滚动升级 Kubernetes 上的 TiDB 集群。
how-to

滚动升级 Kubernetes 上的 TiDB 集群

滚动更新 TiDB 集群时,会按 PD、TiKV、TiDB 的顺序,串行删除 Pod,并创建新版本的 Pod,当新版本的 Pod 正常运行后,再处理下一个 Pod。

滚动升级过程会自动处理 PD、TiKV 的 Leader 迁移与 TiDB 的 DDL Owner 迁移。因此,在多节点的部署拓扑下(最小环境:PD * 3、TiKV * 3、TiDB * 2),滚动更新 TiKV、PD 不会影响业务正常运行。

对于有连接重试功能的客户端,滚动更新 TiDB 同样不会影响业务。对于无法进行重试的客户端,滚动更新 TiDB 则会导致连接到被关闭节点的数据库连接失效,造成部分业务请求失败。对于这类业务,推荐在客户端添加重试功能或在低峰期进行 TiDB 的滚动升级操作。

滚动更新可以用于升级 TiDB 版本,也可以用于更新集群配置。

通过 TidbCluster CR 升级

如果 TiDB 集群是直接通过 TidbCluster CR 部署的或者通过 Helm 方式部署的然后又切换到了 TidbCluster CR 管理,可以通过下面步骤升级 TiDB 集群。

升级 TiDB 版本

  1. 修改集群的 TidbCluster CR 中各组件的镜像配置。

    正常情况下,集群内的各组件应该使用相同版本,所以一般修改 spec.version 即可,如果要为集群内不同组件设置不同的版本,可以修改 spec.<pd/tidb/tikv/pump/tiflash/ticdc>.version

    version 字段格式如下:

    • spec.version,格式为 imageTag,例如 v3.1.0
    • spec.<pd/tidb/tikv/pump/tiflash/ticdc>.version,格式为 imageTag,例如 v3.1.0

    {{< copyable "shell-regular" >}}

    kubectl edit tc ${cluster_name} -n ${namespace}
  2. 查看升级进度:

    {{< copyable "shell-regular" >}}

    watch kubectl -n ${namespace} get pod -o wide

    当所有 Pod 都重建完毕进入 Running 状态后,升级完成。

强制升级 TiDB 集群

如果 PD 集群因为 PD 配置错误、PD 镜像 tag 错误、NodeAffinity 等原因不可用,TiDB 集群扩缩容升级 TiDB 版本更新 TiDB 集群配置这三种操作都无法成功执行。

这种情况下,可使用 force-upgrade 强制升级集群以恢复集群功能。 首先为集群设置 annotation

{{< copyable "shell-regular" >}}

kubectl annotate --overwrite tc ${cluster_name} -n ${namespace} tidb.pingcap.com/force-upgrade=true

然后修改 PD 相关配置,确保 PD 进入正常状态。

警告:

PD 集群恢复后,必须执行下面命令禁用强制升级功能,否则下次升级过程可能会出现异常:

{{< copyable "shell-regular" >}}

kubectl annotate tc ${cluster_name} -n ${namespace} tidb.pingcap.com/force-upgrade-

通过 Helm 升级

如果选择继续用 Helm 管理集群,可以参考下面步骤升级 TiDB 集群。

升级 TiDB 版本

  1. 修改集群的 values.yaml 文件中的 tidb.imagetikv.imagepd.image 的值为新版本镜像;

  2. 执行 helm upgrade 命令进行升级:

    {{< copyable "shell-regular" >}}

    helm upgrade ${release_name} pingcap/tidb-cluster -f values.yaml --version=${chart_version}
  3. 查看升级进度:

    {{< copyable "shell-regular" >}}

    watch kubectl -n ${namespace} get pod -o wide

    当所有 Pod 都重建完毕进入 Running 状态后,升级完成。

强制升级 TiDB 集群

如果 PD 集群因为 PD 配置错误、PD 镜像 tag 错误、NodeAffinity 等原因不可用,TiDB 集群扩缩容升级 TiDB 版本更新 TiDB 集群配置这三种操作都无法成功执行。

这种情况下,可使用 force-upgrade(TiDB Operator 版本 > v1.0.0-beta.3 )强制升级集群以恢复集群功能。 首先为集群设置 annotation

{{< copyable "shell-regular" >}}

kubectl annotate --overwrite tc ${release_name} -n ${namespace} tidb.pingcap.com/force-upgrade=true

然后执行对应操作中的 helm upgrade 命令:

{{< copyable "shell-regular" >}}

helm upgrade ${release_name} pingcap/tidb-cluster -f values.yaml --version=${chart_version}

警告:

PD 集群恢复后,必须执行下面命令禁用强制升级功能,否则下次升级过程可能会出现异常:

{{< copyable "shell-regular" >}}

kubectl annotate tc ${release_name} -n ${namespace} tidb.pingcap.com/force-upgrade-