- Vue d'ensemble (Overview)
- Prérequis
- Installation
- Questions et réponses : modèles de déploiement
- Téléchargement des packages d’installation
- install-uipath.sh parameters
- Activation du module complémentaire Redis High Availability Add-on pour le cluster
- Fichier de configuration de Document Understanding
- Ajout d'un nœud d'agent dédié avec prise en charge GPU
- Connexion de l'application Task Mining
- Ajout d'un nœud d'agent dédié pour Task Mining
- Post-installation
- Administration du cluster
- Gestion des produits
- Sauvegarder et restaurer le cluster
- Surveillance et alerte
- Migration et mise à niveau
- Mode d'évaluation à nœud unique en ligne
- Mode d'évaluation à nœud unique hors ligne
- Mode de production en ligne multi-nœuds compatible haute disponibilité
- Mode de production hors ligne multi-nœuds compatible haute disponibilité
- Migration d'un disque physique Longhorn vers LVM
- Rétrogradation de Ceph de la version 16.2.6 à la version 15.2.9
- Options de migration :
- B) Migration à locataire unique
- Configuration spécifique au produit
- Bonnes pratiques et maintenance
- Résolution des problèmes
- Comment résoudre les problèmes des services lors de l'installation
- Comment désinstaller le cluster
- Comment nettoyer les artefacts hors ligne pour améliorer l'espace disque
- Comment désactiver TLS 1.0 et 1.1
- Comment activer la journalisation Istio
- Comment nettoyer manuellement les journaux
- Comment nettoyer les anciens journaux stockés dans le compartiment sf-logs
- Comment déboguer les installations d'Automation Suite ayant échoué
- Comment désactiver le déchargement de la somme de contrôle txt
- Impossible d'exécuter une installation hors ligne sur le système d'exploitation RHEL 8.4
- Erreur lors du téléchargement du bundle
- L'installation hors ligne échoue en raison d'un fichier binaire manquant
- Problème de certificat dans l'installation hors ligne
- Erreur de validation de la chaîne de connexion SQL
- Échec après la mise à jour du certificat
- Automation Suite requiert que Backlog_wait_time soit défini sur 1
- Impossible de se connecter après la migration
- Définition d'un délai d'expiration pour les portails de gestion
- Mettre à jour les connexions du répertoire sous-jacent
- kinit : Impossible de trouver le KDC pour le domaine <AD Domain> lors de l'obtention des informations d'identification initiales
- Kinit : Keytab ne contient aucune clé appropriée pour *** lors de l'obtention des informations d'identification initiales
- L'opération GSSAPI a échoué en raison de l'erreur suivante : un code d'état non valide a été fourni (les informations d'identification du client ont été révoquées).
- La connexion a échoué pour l'utilisateur <ADDOMAIN><aduser>.Raison : Le compte est désactivé.
- Alarme reçue pour l'échec de la tâche Kerberos-tgt-update
- Fournisseur SSPI : serveur introuvable dans la base de données Kerberos
- Impossible d'obtenir l'image du bac à sable
- Les pods ne s'affichent pas dans l'interface utilisateur ArgoCD
- Échec de la sonde Redis
- Le serveur RKE2 ne démarre pas
- Secret introuvable dans l'espace de noms UiPath
- ArgoCD passe à l'état Progression (Progressing) après la première installation
- INCOHÉRENCE INATTENDUE ; EXÉCUTER fsck MANUELLEMENT
- L’opérateur d’auto-guérison et le référentiel Sf-k8-utils manquants
- MongoDB ou applications métier dégradées après la restauration du cluster
- Services défectueux après la restauration ou la restauration du cluster
- Document Understanding n'est pas affiché sur la barre de gauche d'Automation Suite
- État Échec (Failed) lors de la création d'une session de labellisation des données
- État Échec (Failed) lors de la tentative de déploiement d'une compétence ML
- La tâche de migration échoue dans ArgoCD
- La reconnaissance de l'écriture manuscrite avec l'Extracteur de formulaires intelligents (Intelligent Form Extractor) ne fonctionne pas
- Utilisation de l'outil de diagnostic d'Automation Suite
- Utilisation du pack d'assistance Automation Suite
- Explorer les journaux

Guide d'installation d'Automation Suite
Pour utiliser la fonctionnalité de sauvegarde et de restauration, vous devez activer un serveur NFS, le cluster de sauvegarde et le cluster de restauration. Tous les trois sont définis ci-dessous.
Le serveur NFS est le serveur qui stocke les données de sauvegarde et facilite la restauration. Vous pouvez configurer le serveur NFS sur n'importe quelle machine ou un service PaaS proposé par les fournisseurs Cloud. Notez que nous ne prenons pas en charge NFS basé sur Windows et NFS basé sur blob Azure.
Le cluster de sauvegarde est l'endroit où Automation Suite est installé. Il s'agit du cluster que vous avez configuré lors de l'installation.
Le cluster de restauration est le cluster dans lequel vous souhaitez restaurer toutes les données du cluster de sauvegarde. Ce cluster devient le nouveau cluster dans lequel vous exécutez Automation Suite une fois la restauration terminée.
Les étapes suivantes montrent comment configurer les trois.
- Cette étape n'activera pas une sauvegarde pour une sauvegarde de source de données externe (SQL Server). Vous devez activer la sauvegarde de la source de données externe séparément.
- Nous ne prenons pas en charge la sauvegarde et la restauration entre différentes zones.
- Le serveur NFS doit être accessible à partir de tous les nœuds de cluster (clusters de sauvegarde et de restauration).
- Le cluster que vous souhaitez sauvegarder et le serveur NFS doivent se trouver dans la même région.
- Avant la restauration du cluster, assurez-vous de désactiver la sauvegarde comme décrit dans Désactivation de la sauvegarde du cluster
-
Assurez-vous d'activer les ports suivants :
Port
Protocole
Source
Destination
Objectif
Prérequis
2049,111TCP
Serveur NFS
Tous les nœuds du cluster de sauvegarde
Synchronisation des données entre le cluster de sauvegarde et le serveur NFS
Cette communication doit être autorisée depuis le serveur NFS vers le nœud de cluster de sauvegarde avant d'exécuter Étape 2 : activation de la sauvegarde du cluster.
2049,111TCP
Tous les nœuds du cluster de sauvegarde
Serveur NFS
Synchronisation des données entre le cluster de sauvegarde et le serveur NFS
Cette communication doit être autorisée depuis le nœud du cluster de sauvegarde vers le serveur NFS avant d'exécuter l'Étape 2 : Activation de la sauvegarde du cluster.
2049,111TCP
Serveur NFS
Tous les nœuds du cluster de restauration
Synchronisation des données entre le serveur NFS et le cluster de restauration
Cette communication doit être autorisée à partir du serveur NFS pour restaurer le nœud du cluster avant d'exécuter l'Étape 3 : Configuration du cluster de restauration.
2049,111TCP
Tous les nœuds du cluster de restauration
Serveur NFS
Synchronisation des données entre le cluster de sauvegarde et le serveur NFS
Cette communication doit être autorisée depuis le serveur NFS vers le nœud de cluster de sauvegarde avant l'exécution de l'Étape 3 : Configuration du cluster de restauration.
Prérequis
Le serveur NFS doit répondre aux exigences suivantes :
-
Vous pouvez configurer le serveur NFS sur n'importe quelle machine et sur n'importe quel système d'exploitation de votre choix, ou bien utiliser n'importe quel service PaaS proposé par les fournisseurs Cloud. Notez que nous ne prenons pas en charge NFS basé sur Windows et NFS basé sur blob Azure.
-
La version du serveur NFS doit être NFSv4 sous Linux.
-
Le serveur NFS doit s'exécuter en dehors du cluster de sauvegarde et du cluster de restauration.
-
La taille du disque du serveur NFS doit être supérieure à la taille du disque de données du nœud de serveur principal.
Consultez la configuration matérielle requise pour plus de détails.
Étape 1.1 : Installation des bibliothèques NFS
nfs-utils sur le nœud que vous prévoyez d'utiliser comme serveur NFS.
dnf install nfs-utils -y
systemctl start nfs-server.service
systemctl enable nfs-server.servicednf install nfs-utils -y
systemctl start nfs-server.service
systemctl enable nfs-server.serviceÉtape 1.2 : Configurer le chemin de montage
Configurez le chemin de montage que vous souhaitez exposer à partir du serveur NFS.
chown -R nobody: "/datadisk"
chmod -R 777 "/datadisk"
systemctl restart nfs-utils.servicechown -R nobody: "/datadisk"
chmod -R 777 "/datadisk"
systemctl restart nfs-utils.serviceÉtape 1.3 : Désactivation du pare-feu
Firewalld est une bibliothèque de sécurité qui gère les règles de mise en réseau et de pare-feu.
Consultez la documentation officielle de Firewalld pour plus de détails.
Pour désactiver Firewalld, exécutez la commande suivante.
systemctl stop firewalld
systemctl disable firewalldsystemctl stop firewalld
systemctl disable firewalldÉtape 1.4 : Autoriser l'accès du chemin de montage NFS à tous les nœuds de sauvegarde et de restauration
/etc/exports et ajoutez une entrée pour le nom de domaine complet de chaque nœud (serveur et agent) à la fois pour le cluster de sauvegarde et le cluster de restauration.
Vous trouverez ci-dessous un exemple d'ajout d'une entrée, où l'entrée ci-dessous spécifie le nom de domaine complet d'une machine et les autorisations correspondantes sur cette machine :
echo "/datadisk sfdev1868610-d053997f-node.eastus.cloudapp.azure.com(rw,sync,no_all_squash,root_squash)" >> /etc/exports
echo "/datadisk sfdev1868610-d053997f-node.eastus.cloudapp.azure.com(rw,sync,no_all_squash,root_squash)" >> /etc/exports
Exécutez ensuite la commande suivante pour exporter le chemin d'installation :
exportfs -arv
exportfs -sexportfs -arv
exportfs -s- Assurez-vous d'avoir suivi l'étape Prérequis de l'environnement.
- Assurez-vous de sauvegarder le fichier
cluster_config.jsonutilisé pour l'installation. - Cette étape n'activera pas la sauvegarde pour une sauvegarde de source de données externe (telle que SQL Server). Vous devez activer la sauvegarde de la source de données externe séparément.
- Il n'est pas recommandé de réduire l'intervalle de sauvegarde à moins de 15 minutes.
- Automation Suite ne sauvegarde pas tous les volumes persistants, tels que les volumes attachés au pipeline d'entraînement dans AI Center. Une sauvegarde est créée uniquement pour quelques volumes persistants tels que
Alert Manager,Prometheus,Docker Registry,MongoDB,RabbitMQ,Ceph ObjectstoreetInsights.
backup.json. Assurez-vous de le remplir en fonction des définitions de champs ci-dessous.
Backup.json
{
"backup": {
"etcdBackupPath": "PLACEHOLDER",
"nfs": {
"endpoint": "PLACEHOLDER",
"mountpath": "PLACEHOLDER"
}
},
"backup_interval": "15"
}{
"backup": {
"etcdBackupPath": "PLACEHOLDER",
"nfs": {
"endpoint": "PLACEHOLDER",
"mountpath": "PLACEHOLDER"
}
},
"backup_interval": "15"
}backup.etcdBackupPath: le chemin d’accès relatif où les données de sauvegarde seront stockées sur le serveur NFSbackup.nfs.endpoint: le point de terminaison du serveur NFS (adresse IP ou nom DNS)backup.nfs.mountpath: le chemin d’accès sur le serveur NFS (point de terminaison)backup_interval— L'intervalle de temps de sauvegarde en minutes.
/datadisk/backup/cluster0 sur le serveur NFS :
{
"backup": {
"etcdBackupPath": "cluster0",
"nfs": {
"endpoint": "20.224.01.66",
"mountpath": "/datadisk"
}
}
}{
"backup": {
"etcdBackupPath": "cluster0",
"nfs": {
"endpoint": "20.224.01.66",
"mountpath": "/datadisk"
}
}
}Étape 2.1 : Activer la sauvegarde sur le nœud principal du cluster
Pour activer la sauvegarde sur le nœud principal du cluster, exécutez la commande suivante :
./install-uipath.sh -i backup.json -o output.json -b --accept-license-agreement
./install-uipath.sh -i backup.json -o output.json -b --accept-license-agreement
Étape 2.2 : Activer la sauvegarde sur les nœuds secondaires du cluster
Pour activer la sauvegarde sur les nœuds secondaires du cluster, exécutez la commande suivante sur le nœud de l'agent :
./install-uipath.sh -i backup.json -o output.json -b -j server --accept-license-agreement./install-uipath.sh -i backup.json -o output.json -b -j server --accept-license-agreementÉtape 2.3 : Activation de la sauvegarde sur les nœuds de l'agent du cluster
Pour activer la sauvegarde sur les nœuds d'agent du cluster, exécutez la commande suivante :
./install-uipath.sh -i backup.json -o output.json -b -j agent --accept-license-agreement./install-uipath.sh -i backup.json -o output.json -b -j agent --accept-license-agreement- Assurez-vous que la sauvegarde est désactivée avant de restaurer le cluster. Voir Désactivation de la sauvegarde du cluster.
- Assurez-vous que les packages wget, unzip, jq sont disponibles sur tous les nœuds de restauration.
- Assurez-vous d'avoir suivi l'étape Prérequis de l'environnement.
- Toutes les sources de sources de données externes doivent être identiques (SQL Server).
- Redémarrez le serveur NFS avant la restauration du cluster. Exécutez la commande suivante sur le nœud du serveur NFS :
systemctl restart nfs-server.
Configuration requise pour le cluster de restauration
- Le cluster de restauration doit avoir le même
fqdnque le cluster de sauvegarde. - Le cluster de restauration doit avoir le même nombre de nœuds
serveretagentque celui du cluster de sauvegarde. -
Le cluster de restauration doit avoir les mêmes ressources de nœuds
serveretagentque le cluster de sauvegarde, comme indiqué ci-dessous :- Configuration matérielle pour le CPU
- Configuration matérielle pour la mémoire
- Configuration matérielle pour l'espace disque
-
Nom d'hôte du nœud
Type d'installation
Instructions d'installation
Prérequis
Mode d'évaluation à nœud unique en ligne
Téléchargez uniquement le zipsf-installeret fournissezchmod -R 755 <sf_installer_folder>au dossier extrait.
chmod -R 755 <sf_installer_folder>vers le dossier extrait.Mode d'évaluation à nœud unique hors ligne
Téléchargez uniquement le zipsf-installeretsf-infra-bundle.tar.gz.chmod -R 755 <sf_installer_folder>vers le dossier extrait.Mode de production en ligne multi-nœuds compatible haute disponibilité
Téléchargez uniquement le zipsf-installeret fournissezchmod -R 755 <sf_installer_folder>au dossier extrait.
Mode de production hors ligne multi-nœuds compatible haute disponibilité
Téléchargez uniquement le zipsf-installeretsf-infra-bundle.tar.gz.chmod -R 755 <sf_installer_folder>vers le dossier extrait.Créez un fichier et nommez-lerestore.json. Assurez-vous de le remplir en fonction des définitions de champs suivantes.
Restore.json
{
"fixed_rke_address": "PLACEHOLDER",
"gpu_support": false,
"fqdn": "PLACEHOLDER",
"rke_token": "PLACEHOLDER",
"restore": {
"etcdRestorePath": "PLACEHOLDER",
"nfs": {
"endpoint": "PLACEHOLDER",
"mountpath": "PLACEHOLDER"
}
},
"infra": {
"docker_registry": {
"username": "PLACEHOLDER",
"password": "PLACEHOLDER"
}
}
}{
"fixed_rke_address": "PLACEHOLDER",
"gpu_support": false,
"fqdn": "PLACEHOLDER",
"rke_token": "PLACEHOLDER",
"restore": {
"etcdRestorePath": "PLACEHOLDER",
"nfs": {
"endpoint": "PLACEHOLDER",
"mountpath": "PLACEHOLDER"
}
},
"infra": {
"docker_registry": {
"username": "PLACEHOLDER",
"password": "PLACEHOLDER"
}
}
}fqdn– Le nom de domaine complet de l'équilibreur de charge pour le mode de production multi-nœuds compatible haute disponibilité ou le nom de domaine complet de la machine pour le mode d'évaluation à nœud uniquefixed_rke_address— Le nom de domaine complet de l'équilibreur de charge s'il en existe un, sinon le nom de domaine complet du premier nœud du serveur de restauration. Utilisé pour équilibrer la charge de l'enregistrement des nœuds et de la requête de l'API kube.gpu_support— Utiliseztrueoufalsepour activer ou désactiver la prise en charge du GPU pour le cluster (à utiliser si vous avez des nœuds d'agent avec des GPU).rke_token— Il s'agit d'une clé secrète pré-partagée, spécifique au cluster. Elle devrait être la même que le cluster de sauvegarde et peut être trouvée dans le fichiercluster_config.json. Elle est nécessaire pour tous les nœuds rejoignant le cluster.restore.etcdRestorePath— Chemin d'accès où les données de sauvegarde sont stockées pour le cluster dans le serveur NFS. Configuré à la sauvegarde avecetcdBackupPath.restore.nfs.endpoint– Point de terminaison du serveur NFS.restore.nfs.mountpath— Chemin de montage du serveur NFS.infra.docker_registry.username— Nom d'utilisateur que vous avez défini dans le cluster de sauvegarde. Il se trouve dans le fichiercluster_config.jsonet est nécessaire pour le registre docker.infra.docker_registry.password— Le mot de passe que vous avez défini dans le cluster de sauvegarde. Il se trouve dans le fichiercluster_config.jsonet est nécessaire pour l'installation du registre docker.
Installation en ligne
Étape 3.1 : Restauration de etcd sur le nœud principal du cluster
etcd sur le nœud principal du cluster, exécutez la commande suivante :
./install-uipath.sh -i restore.json -o output.json -r --accept-license-agreement --install-type online./install-uipath.sh -i restore.json -o output.json -r --accept-license-agreement --install-type onlineÉtape 3.2 : Restauration de etcd sur les nœuds secondaires du cluster
etcd sur les nœuds secondaires du cluster, exécutez la commande suivante :
./install-uipath.sh -i restore.json -o output.json -r -j server --accept-license-agreement --install-type online./install-uipath.sh -i restore.json -o output.json -r -j server --accept-license-agreement --install-type onlineÉtape 3.3 : Restauration de etcd sur les nœuds d'agent du cluster
etcd sur les nœuds d'agent du cluster, exécutez la commande suivante :
./install-uipath.sh -i restore.json -o output.json -r -j agent --accept-license-agreement --install-type online./install-uipath.sh -i restore.json -o output.json -r -j agent --accept-license-agreement --install-type onlineÉtape 3.4 : Désactivation du mode maintenance
etcd terminée, assurez-vous de désactiver le mode de maintenance :
/path/to/old-installer/configureUiPathAS.sh disable-maintenance-mode/path/to/old-installer/configureUiPathAS.sh disable-maintenance-modePour vérifier que le mode maintenance est désactivé, exécutez la commande suivante :
/path/to/old-installer/configureUiPathAS.sh is-maintenance-enabled/path/to/old-installer/configureUiPathAS.sh is-maintenance-enabledÉtape 3.5 : Exécution de la restauration de volume sur le nœud principal
etcd terminée, exécutez la restauration du volume sur le nœud principal à l'aide de la commande suivante :
./install-uipath.sh -i restore.json -o output.json -r --volume-restore --accept-license-agreement --install-type online./install-uipath.sh -i restore.json -o output.json -r --volume-restore --accept-license-agreement --install-type onlineÉtape 3.6 : installation du certificat de cluster Automation Suite sur le nœud principal de restauration
sudo ./configureUiPathAS.sh tls-cert get --outpath /opt/
cp /opt/ca.crt /etc/pki/ca-trust/source/anchors/
update-ca-trustsudo ./configureUiPathAS.sh tls-cert get --outpath /opt/
cp /opt/ca.crt /etc/pki/ca-trust/source/anchors/
update-ca-trustActivation d'AI Center sur le cluster restauré
Après avoir restauré un cluster Automation Suite avec AI Center™ activé, suivez les étapes de la procédure Activation d'AI Center sur le cluster restauré .
Installation hors ligne
Étape 3.1 : Restauration de etcd sur le nœud principal du cluster
etcd sur le nœud principal du cluster, exécutez la commande suivante :
./install-uipath.sh -i restore.json -o output.json -r --offline-bundle "/uipath/sf-infra-bundle.tar.gz" --offline-tmp-folder /uipath --install-offline-prereqs --accept-license-agreement --install-type offline./install-uipath.sh -i restore.json -o output.json -r --offline-bundle "/uipath/sf-infra-bundle.tar.gz" --offline-tmp-folder /uipath --install-offline-prereqs --accept-license-agreement --install-type offlineÉtape 3.2 : Restauration de etcd sur les nœuds secondaires du cluster
./install-uipath.sh -i restore.json -o output.json -r -j server --offline-bundle "/uipath/sf-infra-bundle.tar.gz" --offline-tmp-folder /uipath --install-offline-prereqs --accept-license-agreement --install-type offline
./install-uipath.sh -i restore.json -o output.json -r -j server --offline-bundle "/uipath/sf-infra-bundle.tar.gz" --offline-tmp-folder /uipath --install-offline-prereqs --accept-license-agreement --install-type offline
Étape 3.3 : Restauration de etcd sur les nœuds d'agent du cluster
etcd sur les nœuds d'agent du cluster, exécutez la commande suivante :
./install-uipath.sh -i restore.json -o output.json -r -j agent --offline-bundle "/uipath/sf-infra-bundle.tar.gz" --offline-tmp-folder /uipath --install-offline-prereqs --accept-license-agreement --install-type offline
./install-uipath.sh -i restore.json -o output.json -r -j agent --offline-bundle "/uipath/sf-infra-bundle.tar.gz" --offline-tmp-folder /uipath --install-offline-prereqs --accept-license-agreement --install-type offline
Étape 3.4 : Désactivation du mode maintenance
etcd terminée, assurez-vous de désactiver le mode de maintenance :
/path/to/old-installer/configureUiPathAS.sh disable-maintenance-mode/path/to/old-installer/configureUiPathAS.sh disable-maintenance-modePour vérifier que le mode maintenance est désactivé, exécutez la commande suivante :
/path/to/old-installer/configureUiPathAS.sh is-maintenance-enabled/path/to/old-installer/configureUiPathAS.sh is-maintenance-enabledÉtape 3.5 : Exécution de la restauration de volume sur le nœud principal
etcd terminée, exécutez la restauration du volume sur le nœud principal à l'aide de la commande suivante :
./install-uipath.sh -i restore.json -o ./output.json -r --volume-restore --accept-license-agreement --install-type offline./install-uipath.sh -i restore.json -o ./output.json -r --volume-restore --accept-license-agreement --install-type offlineÉtape 3.6 : installation du certificat de cluster Automation Suite sur le nœud principal de restauration
sudo ./configureUiPathAS.sh tls-cert get --outpath /opt/
cp /opt/ca.crt /etc/pki/ca-trust/source/anchors/
update-ca-trustsudo ./configureUiPathAS.sh tls-cert get --outpath /opt/
cp /opt/ca.crt /etc/pki/ca-trust/source/anchors/
update-ca-trustActivation d'AI Center sur le cluster restauré
Après avoir restauré un cluster Automation Suite avec AI Center™ activé, suivez les étapes de la procédure Activation d'AI Center sur le cluster restauré .
backup_interval. La désactivation de la sauvegarde du cluster entraînera une perte de données créée entre la dernière exécution planifiée et le moment où vous avez désactivé la sauvegarde.
Pour désactiver la sauvegarde, exécutez les commandes suivantes dans cet ordre :
Mise à jour du serveur NFS
Pour mettre à jour le serveur NFS, procédez comme suit :
- Réexécutez les étapes suivantes :
- Mettez à jour les informations du serveur NFS, puis incluez le nouveau
nfs.endpointdans les fichiersbackup.jsonetrestore.json.
Ajout d'un nouveau nœud au cluster
Pour ajouter un nouveau nœud au cluster, réexécutez les étapes suivantes :
Restauration Redis
La restauration Redis échoue lors de l'exécution de la restauration, vous devez donc exécuter quelques étapes supplémentaires.
Suivez les étapes de la section Résolution des problèmes.
orchestratorpods.
Le pod Insights Looker ne démarre pas après la restauration
Vous pouvez résoudre ce problème en supprimant le pod Looker de l'application Insights dans l'interface utilisateur d'ArgoCD. Le déploiement créera un nouveau pod qui devrait démarrer avec succès.
- Terminologie
- Prérequis de l'environnement
- Étape 1 : Configuration du serveur NFS externe
- Prérequis
- Étape 1.1 : Installation des bibliothèques NFS
- Étape 1.2 : Configurer le chemin de montage
- Étape 1.3 : Désactivation du pare-feu
- Étape 1.4 : Autoriser l'accès du chemin de montage NFS à tous les nœuds de sauvegarde et de restauration
- Étape 2 : Activer la sauvegarde du cluster
- Backup.json
- Étape 2.1 : Activer la sauvegarde sur le nœud principal du cluster
- Étape 2.2 : Activer la sauvegarde sur les nœuds secondaires du cluster
- Étape 2.3 : Activation de la sauvegarde sur les nœuds de l'agent du cluster
- Étape 3 : Configuration du cluster de restauration
- Configuration requise pour le cluster de restauration
- Restore.json
- Installation en ligne
- Installation hors ligne
- Désactivation de la sauvegarde du cluster
- Configurations supplémentaires
- Mise à jour du serveur NFS
- Ajout d'un nouveau nœud au cluster
- Problèmes connus
- Restauration Redis
- Le pod Insights Looker ne démarre pas après la restauration