automation-suite
2022.4
false
- 概述
- 要求
- 安装
- 安装后
- 集群管理
- 监控和警示
- 迁移和升级
- 自动化:在线升级
- 自动化:离线升级
- 手动:在线升级
- 手动:离线升级
- 回滚错误
- 将 Longhorn 物理磁盘迁移到 LVM
- 从 Canal 迁移到 Cilium CNI
- 将 Ceph 从 16.2.6 降级到 15.2.9
- 迁移选项
- B) 单租户迁移
- 特定于产品的配置
- 最佳实践和维护
- 故障排除
- 无法获取沙盒映像
- Pod 未显示在 ArgoCD 用户界面中
- Redis 探测器失败
- RKE2 服务器无法启动
- 在 UiPath 命名空间中找不到密码
- 初始安装后,ArgoCD 应用程序进入“进行中”状态
- MongoDB Pod 处于 CrashLoopBackOff 状态或在删除后处于“等待 PVC 配置”状态
- 意外错误:不一致;手动运行 fsck
- 集群还原后 MongoDB 或业务应用程序降级
- 缺少 Self-heal-operator 和 Sf-k8-utils 存储库
- 集群还原或回滚后服务不正常
- RabbitMQ Pod 卡在 CrashLoopBackOff 中
- Prometheus 处于 CrashLoopBackoff 状态,并出现内存不足 (OOM) 错误
- 监控仪表板中缺少 Ceph-rook 指标
- Pod 无法在代理环境中与 FQDN 通信
- 使用 Automation Suite 诊断工具
- 使用 Automation Suite 支持捆绑包
- 探索日志
将 Ceph 从 16.2.6 降级到 15.2.9
重要 :
请注意此内容已使用机器翻译进行了部分本地化。
新发布内容的本地化可能需要 1-2 周的时间才能完成。
Automation Suite 安装指南
上次更新日期 2024年12月16日
将 Ceph 从 16.2.6 降级到 15.2.9
Automation Suite 在集群中捆绑 Ceph 对象存储,以存储 Orchestrator 中的 NuGet 订阅源、AI Center 中的数据集等文件。
Automation Suite 2021.10.3 和 2021.10.4 随附 Ceph 对象存储 16.2.6。 此 Ceph 版本引入了一个可能损坏数据的 问题 。 因此,Ceph 已 正式召回 16.2.6 版 ,直到该问题在新版本中得到解决。
在升级到较新的 Automation Suite 版本之前,您必须确保 Ceph 问题不会影响您的集群及其存储的数据。 为此,需要从 Ceph 16.2.6 降级到 15.2.9,这是一个稳定版本。
无法将 Ceph 从 16.2.6 直接降级到 15.2.9,在升级到新的 Automation Suite 版本时,我们会为您执行一系列操作:
- 备份 Ceph 数据;
- 销毁 Ceph 集群版本 16.2.6;
- 重新创建 Ceph 集群版本 15.2.9;
- 上传所有已备份的 Ceph 数据。
要在升级到新的 Automation Suite 版本之前备份 Ceph 数据,您需要一个临时文件夹。 该文件夹必须足够大,才能存储所有 Ceph 数据。 要确定 Ceph 数据备份所需的临时文件夹的大小,请运行以下命令:
ceph_object_size=$(kubectl -n rook-ceph exec deploy/rook-ceph-tools -- ceph status --format json | jq -r '.pgmap.data_bytes')
echo "You need '$(numfmt --to=iec-i $ceph_object_size)' storage space"
ceph_object_size=$(kubectl -n rook-ceph exec deploy/rook-ceph-tools -- ceph status --format json | jq -r '.pgmap.data_bytes')
echo "You need '$(numfmt --to=iec-i $ceph_object_size)' storage space"
在升级 Automation Suite 之前,您还必须设置
TMP_CEPH_BACKUP_PATH
变量。 要创建文件夹并设置TMP_CEPH_BACKUP_PATH
,请运行以下命令:
# replace "/path/to/backup/ceph" with actual path where you will going to take backup mkdir -p /path/to/backup/ceph export TMP_CEPH_BACKUP_PATH="/path/to/backup/ceph"
# replace "/path/to/backup/ceph" with actual path where you will going to take backup mkdir -p /path/to/backup/ceph export TMP_CEPH_BACKUP_PATH="/path/to/backup/ceph"
注意: 确保将上一个命令中的
/path/to/backup/ceph
替换为正确的 Ceph 路径。
有关其他步骤,请按照升级文档进行操作。