- 概要
- 要件
- インストール
- インストール後
- クラスターの管理
- 監視とアラート機能
- 移行とアップグレード
- 製品固有の設定
- ベストプラクティスとメンテナンス
- トラブルシューティング
- インストール時にサービスをトラブルシューティングする方法
- クラスターをアンインストールする方法
- オフライン成果物をクリーンアップしてディスク領域を改善する方法
- Redis データをクリアする方法
- Istio ログを有効化する方法
- ログを手動でクリーンアップする方法
- sf-logs バンドルに保存されている古いログをクリーンアップする方法
- AI Center のストリーミング ログを無効化する方法
- 失敗した Automation Suite インストールをデバッグする方法
- アップグレード後に古いインストーラーからイメージを削除する方法
- Longhorn スナップショットを自動的にクリーンアップする方法
- NIC チェックサムオフロードを無効にする方法
- RHEL 8.4 OS でオフライン インストールを実行できない
- バンドルのダウンロード中のエラー
- バイナリがないため、オフライン インストールが失敗する
- オフライン インストールでの証明書の問題
- Longhorn のセットアップ中に最初のインストールが失敗する
- SQL 接続文字列の検証エラー
- selinux iscsid モジュールの前提条件の確認が失敗する
- Azure ディスクが SSD としてマークされない
- 証明書の更新後のエラー
- OS のアップグレード後に Automation Suite が動作しない
- Automation Suite で Backlog_wait_time を 1 に設定する必要がある
- ワークロードの準備ができていないためボリュームをマウントできない
- インストールおよびアップグレード中に RKE2 が失敗する
- 管理ポータルのタイムアウト期間を設定する
- 基になるディレクトリ接続を更新する
- 移行後にログインできない
- Kinit: Cannot Find KDC for Realm <AD Domain> While Getting Initial Credentials
- kinit: Keytab contains no suitable keys for *** while getting initial credentials
- GSSAPI operation failed with error: An invalid status code was supplied (Client's credentials have been revoked).
- Alarm received for failed kerberos-tgt-update job
- SSPI Provider: Server not found in Kerberos database
- Login Failed for User <ADDOMAIN><aduser>.Reason: The Account Is Disabled.
- ArgoCD へのログインに失敗した
- サンドボックス イメージを取得できない
- ポッドが ArgoCD UI に表示されない
- Redis プローブの障害
- RKE2 サーバーの起動に失敗する
- UiPath 名前空間でシークレットが見つからない
- 初期インストール後、ArgoCD アプリが Progressing ステートになる
- MongoDB ポッドが CrashLoopBackOff になるか、削除後に PVC プロビジョニングの保留中になる
- Unexpected inconsistency; run fsck manually
- クラスターの復元後に MongoDB またはビジネス アプリケーションの機能が低下する
- self-heal-operator および sf-k8-utils リポジトリが見つからない
- クラスターの復元またはロールバック後にサービスが異常になる
- RabbitMQ ポッドが CrashLoopBackOff でスタックする
- Prometheus が CrashloopBackoff ステートでメモリ不足 (OOM) エラーを伴う
- 監視ダッシュボードに Ceph-rook メトリックが表示されない
- Automation Suite 診断ツールを使用する
- Automation Suite サポート バンドル ツールを使用する
- ログを確認する
クラスターをバックアップおよび復元する
Automation Suite では、バックアップと復元の機能がサポートされており、さまざまなシナリオにおいてデータが失われるのを防ぎます。インストール後にいつでもバックアップを構成できます。
バックアップと復元の機能を使用するには、NFS サーバー、バックアップ クラスター、復元クラスターを有効化する必要があります。これらの概念は以下のセクションで定義されています。
NFS サーバー – バックアップ データを保存し、復元を容易にするサーバーです。NFS サーバーは任意のマシン、または、クラウド プロバイダーが提供する PaaS サービス上でセットアップできます。Windows ベースの NFS および Azure BLOB ベースの NFS はサポートされませんので、ご注意ください。
バックアップ クラスター – Automation Suite をインストールするために設定したクラスター。このクラスターでバックアップを有効化します。
復元クラスターは、バックアップ クラスターのすべてのデータを復元するクラスターです。このクラスターが、復元プロセスの完了後に Automation Suite を実行する新しいクラスターになります。
/datadisk
内のクラスター内ストレージの一部として保存されるデータが含まれます。
ただし、SQL データベースなどの外部データ ソースのバックアップは有効化されません。外部データ ソースのバックアップは、別途有効化する必要があります。
- 新しいノードへのアクセスを許可するように NFS サーバーを構成します。詳細については、「ノードに NFS マウント ポイントのアクセスを許可する」をご覧ください。
-
新しいサーバー ノードのバックアップを有効化します。
バックアップと復元の機能を設定するには、次の要件を満たす必要があります。
- Linux では NFSv4 を使用する必要があります。
- NFS サーバーは、バックアップおよび復元クラスターの外部でホストされた別個のマシンに設定する必要があります。
- NFS サーバーと、バックアップおよび復元クラスターとの間に10 ミリ秒を超える往復時間 (RTT) のレイテンシがあってはなりません。
- バックアップするクラスターと NFS サーバーは同じリージョンにある必要があります。
-
NFS サーバーは、次のハードウェア要件を満たす必要があります。
CPU
RAM
ディスク
4 (v-)CPU
16 GiB
10 TiB の SSD (1100 IOPS)
- NFS サーバーには、すべてのクラスター ノードから到達できる必要があります。
-
NFS サーバーと、バックアップ クラスター内のすべてのノードで、以下のポートを有効化する必要があります。クラスターを復元する場合、復元クラスターのすべてのノードで同じポートを開く必要があります。
ポート
プロトコル
目的
2049
TCP
NFS サーバーとバックアップおよび復元クラスター間の双方向通信。
これは、NFS サーバーが実行されるポートです。
111
TCP
NFS サーバーとバックアップおよび復元クラスター間の双方向通信。
このポートは、NFS サーバーとバックアップと復元クラスター間の rpcbind に使用されます。
backup.json
というファイルで構成する必要があります。
そのためには、以下の手順に従ってください。
-
backup.json
という名前のファイルを作成します。{ "backup": { "etcdBackupPath": "PLACEHOLDER", "nfs": { "endpoint": "PLACEHOLDER", "mountpath": "PLACEHOLDER" } }, "backup_interval": "15" }
{ "backup": { "etcdBackupPath": "PLACEHOLDER", "nfs": { "endpoint": "PLACEHOLDER", "mountpath": "PLACEHOLDER" } }, "backup_interval": "15" } -
次のフィールド定義に基づいてファイルに入力します。
パラメーター
構成
backup.etcdBackupPath
バックアップ データが保存される NFS サーバー上の相対パスです。クラスターの名前を指定できます。
例:cluster0
backup.nfs.endpoint
NFS サーバーのエンドポイント (IP アドレスまたは DNS 名) です。これは、NFS マシンの FQDN または IP アドレスです。エンドポイントにプロトコルが存在してはなりません。
例:nfs.automationsuite.mycompany.com
、20.224.01.66
backup.nfs.mountpath
NFS サーバーのパス (エンドポイント) です。これは、クラスターのバックアップを保存するためのディスクが接続されている場所です。
例:/asbackup
backup_interval
バックアップの時間間隔 (分単位)。この間隔は、2 つの連続するバックアップ間のリード タイムです。復元できるのは最後に成功したバックアップのみであるため、この間隔は慎重に決定する必要があります。バックアップ間隔は最短で 15 分に設定できます。
重要:- バックアップ間隔が短すぎると (例: 30 分)、バックアップ操作の頻度が高くなりすぎ、強制的に、直前の 30 分間にバックアップされたデータのみが保存されます。同様に、バックアップ間隔が 1 週間の場合、前回のバックアップから障害発生時までの間のデータが失われる可能性があります。したがって、バックアップ間隔は、回復ポイントの目標 (RPO) の要件に沿ったものにすることをお勧めします。
- 外部 SQL Server のバックアップを設定する際には、クラスターのバックアップ間隔を考慮する必要があります。外部 SQL Server と Automation Suite クラスターの両方に同じ間隔を設定することをお勧めします。
- クラスター内でバックアップを有効化すると、バックアップ間隔に関係なく、Automation Suite によって即座にバックアップがトリガーされます。その後、次のバックアップのスケジュールがバックアップ間隔に基づいて設定されます。
- バックアップを確認するには、NFS サーバーにログインし、パス
/backup.nfs.mountpath/backup.etcdBackupPath
に移動します。例:/asbackup/cluster0
Alert Manager
、Prometheus
、Docker Registry
、MongoDB
、RabbitMQ
、Ceph Objectstore
、Insights
など、一部だけです。
restore.json
というファイルで指定する必要があります。
そのためには、以下の手順に従ってください。
-
restore.json
という名前のファイルを作成します。{ "restore": { "etcdRestorePath": "PLACEHOLDER", "nfs": { "endpoint": "PLACEHOLDER", "mountpath": "PLACEHOLDER" } } }
{ "restore": { "etcdRestorePath": "PLACEHOLDER", "nfs": { "endpoint": "PLACEHOLDER", "mountpath": "PLACEHOLDER" } } } -
次のフィールド定義に基づいてファイルに入力します。
パラメーター
構成
restore.etcdRestorePath
データの復元元となる NFS サーバー上のパスです。backup.json
でbackup.etcBackupPath
に指定した名前と同じでなければなりません。例:cluster0
restore.nfs.endpoint
NFS サーバーのエンドポイントです。これは、NFS マシンの FQDN または IP アドレスになります。エンドポイントにプロトコルが存在してはなりません。
例:nfs.automationsuite.mycompany.com
、20.224.01.66
restore.nfs.mountpath
NFS サーバーのマウント パス。これは、クラスターのバックアップを保存するためのディスクが接続されている場所です。
例:/asbackup