- Vue d'ensemble (Overview)
- Prérequis
- Installation
- Questions et réponses : modèles de déploiement
- Téléchargement des packages d’installation
- install-uipath.sh parameters
- Activation du module complémentaire Redis High Availability Add-on pour le cluster
- Fichier de configuration de Document Understanding
- Ajout d'un nœud d'agent dédié avec prise en charge GPU
- Connexion de l'application Task Mining
- Ajout d'un nœud d'agent dédié pour Task Mining
- Post-installation
- Administration du cluster
- Gestion des produits
- Sauvegarder et restaurer le cluster
- Surveillance et alerte
- Migration et mise à niveau
- Mode d'évaluation à nœud unique en ligne
- Mode d'évaluation à nœud unique hors ligne
- Mode de production en ligne multi-nœuds compatible haute disponibilité
- Mode de production hors ligne multi-nœuds compatible haute disponibilité
- Migration d'un disque physique Longhorn vers LVM
- Rétrogradation de Ceph de la version 16.2.6 à la version 15.2.9
- Options de migration :
- B) Migration à locataire unique
- Configuration spécifique au produit
- Bonnes pratiques et maintenance
- Résolution des problèmes
- Comment résoudre les problèmes des services lors de l'installation
- Comment désinstaller le cluster
- Comment nettoyer les artefacts hors ligne pour améliorer l'espace disque
- Comment désactiver TLS 1.0 et 1.1
- Comment activer la journalisation Istio
- Comment nettoyer manuellement les journaux
- Comment nettoyer les anciens journaux stockés dans le compartiment sf-logs
- Comment déboguer les installations d'Automation Suite ayant échoué
- Comment désactiver le déchargement de la somme de contrôle txt
- Impossible d'exécuter une installation hors ligne sur le système d'exploitation RHEL 8.4
- Erreur lors du téléchargement du bundle
- L'installation hors ligne échoue en raison d'un fichier binaire manquant
- Problème de certificat dans l'installation hors ligne
- Erreur de validation de la chaîne de connexion SQL
- Échec après la mise à jour du certificat
- Automation Suite requiert que Backlog_wait_time soit défini sur 1
- Impossible de se connecter après la migration
- Définition d'un délai d'expiration pour les portails de gestion
- Mettre à jour les connexions du répertoire sous-jacent
- kinit : Impossible de trouver le KDC pour le domaine <AD Domain> lors de l'obtention des informations d'identification initiales
- Kinit : Keytab ne contient aucune clé appropriée pour *** lors de l'obtention des informations d'identification initiales
- L'opération GSSAPI a échoué en raison de l'erreur suivante : un code d'état non valide a été fourni (les informations d'identification du client ont été révoquées).
- La connexion a échoué pour l'utilisateur <ADDOMAIN><aduser>.Raison : Le compte est désactivé.
- Alarme reçue pour l'échec de la tâche Kerberos-tgt-update
- Fournisseur SSPI : serveur introuvable dans la base de données Kerberos
- Impossible d'obtenir l'image du bac à sable
- Les pods ne s'affichent pas dans l'interface utilisateur ArgoCD
- Échec de la sonde Redis
- Le serveur RKE2 ne démarre pas
- Secret introuvable dans l'espace de noms UiPath
- ArgoCD passe à l'état Progression (Progressing) après la première installation
- INCOHÉRENCE INATTENDUE ; EXÉCUTER fsck MANUELLEMENT
- L’opérateur d’auto-guérison et le référentiel Sf-k8-utils manquants
- MongoDB ou applications métier dégradées après la restauration du cluster
- Services défectueux après la restauration ou la restauration du cluster
- Document Understanding n'est pas affiché sur la barre de gauche d'Automation Suite
- État Échec (Failed) lors de la création d'une session de labellisation des données
- État Échec (Failed) lors de la tentative de déploiement d'une compétence ML
- La tâche de migration échoue dans ArgoCD
- La reconnaissance de l'écriture manuscrite avec l'Extracteur de formulaires intelligents (Intelligent Form Extractor) ne fonctionne pas
- Utilisation de l'outil de diagnostic d'Automation Suite
- Utilisation du pack d'assistance Automation Suite
- Explorer les journaux
Sauvegarder et restaurer le cluster
Pour utiliser la fonctionnalité de sauvegarde et de restauration, vous devez activer un serveur NFS, le cluster de sauvegarde et le cluster de restauration. Tous les trois sont définis ci-dessous.
Le serveur NFS est le serveur qui stocke les données de sauvegarde et facilite la restauration. Vous pouvez configurer le serveur NFS sur n'importe quelle machine ou un service PaaS proposé par les fournisseurs Cloud. Notez que nous ne prenons pas en charge NFS basé sur Windows et NFS basé sur blob Azure.
Le cluster de sauvegarde est l'endroit où Automation Suite est installé. Il s'agit du cluster que vous avez configuré lors de l'installation.
Le cluster de restauration est le cluster dans lequel vous souhaitez restaurer toutes les données du cluster de sauvegarde. Ce cluster devient le nouveau cluster dans lequel vous exécutez Automation Suite une fois la restauration terminée.
Les étapes suivantes montrent comment configurer les trois.
- Cette étape n'activera pas une sauvegarde pour une sauvegarde de source de données externe (SQL Server). Vous devez activer la sauvegarde de la source de données externe séparément.
- Nous ne prenons pas en charge la sauvegarde et la restauration entre différentes zones.
- Le serveur NFS doit être accessible à partir de tous les nœuds de cluster (clusters de sauvegarde et de restauration).
- Le cluster que vous souhaitez sauvegarder et le serveur NFS doivent se trouver dans la même région.
- Avant la restauration du cluster, assurez-vous de désactiver la sauvegarde comme décrit dans Désactivation de la sauvegarde du cluster
-
Assurez-vous d'activer les ports suivants :
Port
Protocole
Source
Destination
Objectif
Prérequis
2049
,111
TCP
Serveur NFS
Tous les nœuds du cluster de sauvegarde
Synchronisation des données entre le cluster de sauvegarde et le serveur NFS
Cette communication doit être autorisée depuis le serveur NFS vers le nœud de cluster de sauvegarde avant d'exécuter Étape 2 : activation de la sauvegarde du cluster.
2049
,111
TCP
Tous les nœuds du cluster de sauvegarde
Serveur NFS
Synchronisation des données entre le cluster de sauvegarde et le serveur NFS
Cette communication doit être autorisée depuis le nœud du cluster de sauvegarde vers le serveur NFS avant d'exécuter l'Étape 2 : Activation de la sauvegarde du cluster.
2049
,111
TCP
Serveur NFS
Tous les nœuds du cluster de restauration
Synchronisation des données entre le serveur NFS et le cluster de restauration
Cette communication doit être autorisée à partir du serveur NFS pour restaurer le nœud du cluster avant d'exécuter l'Étape 3 : Configuration du cluster de restauration.
2049
,111
TCP
Tous les nœuds du cluster de restauration
Serveur NFS
Synchronisation des données entre le cluster de sauvegarde et le serveur NFS
Cette communication doit être autorisée depuis le serveur NFS vers le nœud de cluster de sauvegarde avant l'exécution de l'Étape 3 : Configuration du cluster de restauration.
Le serveur NFS doit répondre aux exigences suivantes :
-
Vous pouvez configurer le serveur NFS sur n'importe quelle machine et sur n'importe quel système d'exploitation de votre choix, ou bien utiliser n'importe quel service PaaS proposé par les fournisseurs Cloud. Notez que nous ne prenons pas en charge NFS basé sur Windows et NFS basé sur blob Azure.
-
La version du serveur NFS doit être NFSv4 sous Linux.
-
Le serveur NFS doit s'exécuter en dehors du cluster de sauvegarde et du cluster de restauration.
-
La taille du disque du serveur NFS doit être supérieure à la taille du disque de données du nœud de serveur principal.
Consultez la configuration matérielle requise pour plus de détails.
nfs-utils
sur le nœud que vous prévoyez d'utiliser comme serveur NFS.
dnf install nfs-utils -y
systemctl start nfs-server.service
systemctl enable nfs-server.service
dnf install nfs-utils -y
systemctl start nfs-server.service
systemctl enable nfs-server.service
Configurez le chemin de montage que vous souhaitez exposer à partir du serveur NFS.
chown -R nobody: "/datadisk"
chmod -R 777 "/datadisk"
systemctl restart nfs-utils.service
chown -R nobody: "/datadisk"
chmod -R 777 "/datadisk"
systemctl restart nfs-utils.service
Firewalld est une bibliothèque de sécurité qui gère les règles de mise en réseau et de pare-feu.
Consultez la documentation officielle de Firewalld pour plus de détails.
Pour désactiver Firewalld, exécutez la commande suivante.
systemctl stop firewalld
systemctl disable firewalld
systemctl stop firewalld
systemctl disable firewalld
Étape 1.4 : Autoriser l'accès du chemin de montage NFS à tous les nœuds de sauvegarde et de restauration
/etc/exports
et ajoutez une entrée pour le nom de domaine complet de chaque nœud (serveur et agent) à la fois pour le cluster de sauvegarde et le cluster de restauration.
Vous trouverez ci-dessous un exemple d'ajout d'une entrée, où l'entrée ci-dessous spécifie le nom de domaine complet d'une machine et les autorisations correspondantes sur cette machine :
echo "/datadisk sfdev1868610-d053997f-node.eastus.cloudapp.azure.com(rw,sync,no_all_squash,root_squash)" >> /etc/exports
echo "/datadisk sfdev1868610-d053997f-node.eastus.cloudapp.azure.com(rw,sync,no_all_squash,root_squash)" >> /etc/exports
Exécutez ensuite la commande suivante pour exporter le chemin d'installation :
exportfs -arv
exportfs -s
exportfs -arv
exportfs -s
- Assurez-vous d'avoir suivi l'étape Prérequis de l'environnement.
- Assurez-vous de sauvegarder le fichier
cluster_config.json
utilisé pour l'installation. - Cette étape n'activera pas la sauvegarde pour une sauvegarde de source de données externe (telle que SQL Server). Vous devez activer la sauvegarde de la source de données externe séparément.
- Il n'est pas recommandé de réduire l'intervalle de sauvegarde à moins de 15 minutes.
- Automation Suite ne sauvegarde pas tous les volumes persistants, tels que les volumes attachés au pipeline d'entraînement dans AI Center. Une sauvegarde est créée uniquement pour quelques volumes persistants tels que
Alert Manager
,Prometheus
,Docker Registry
,MongoDB
,RabbitMQ
,Ceph Objectstore
etInsights
.
backup.json
. Assurez-vous de le remplir en fonction des définitions de champs ci-dessous.
{
"backup": {
"etcdBackupPath": "PLACEHOLDER",
"nfs": {
"endpoint": "PLACEHOLDER",
"mountpath": "PLACEHOLDER"
}
},
"backup_interval": "15"
}
{
"backup": {
"etcdBackupPath": "PLACEHOLDER",
"nfs": {
"endpoint": "PLACEHOLDER",
"mountpath": "PLACEHOLDER"
}
},
"backup_interval": "15"
}
backup.etcdBackupPath
: le chemin d’accès relatif où les données de sauvegarde seront stockées sur le serveur NFSbackup.nfs.endpoint
: le point de terminaison du serveur NFS (adresse IP ou nom DNS)backup.nfs.mountpath
: le chemin d’accès sur le serveur NFS (point de terminaison)backup_interval
— L'intervalle de temps de sauvegarde en minutes.
/datadisk/backup/cluster0
sur le serveur NFS :
{
"backup": {
"etcdBackupPath": "cluster0",
"nfs": {
"endpoint": "20.224.01.66",
"mountpath": "/datadisk"
}
}
}
{
"backup": {
"etcdBackupPath": "cluster0",
"nfs": {
"endpoint": "20.224.01.66",
"mountpath": "/datadisk"
}
}
}
Pour activer la sauvegarde sur le nœud principal du cluster, exécutez la commande suivante :
./install-uipath.sh -i backup.json -o output.json -b --accept-license-agreement
./install-uipath.sh -i backup.json -o output.json -b --accept-license-agreement
Pour activer la sauvegarde sur les nœuds secondaires du cluster, exécutez la commande suivante sur le nœud de l'agent :
./install-uipath.sh -i backup.json -o output.json -b -j server --accept-license-agreement
./install-uipath.sh -i backup.json -o output.json -b -j server --accept-license-agreement
Pour activer la sauvegarde sur les nœuds d'agent du cluster, exécutez la commande suivante :
./install-uipath.sh -i backup.json -o output.json -b -j agent --accept-license-agreement
./install-uipath.sh -i backup.json -o output.json -b -j agent --accept-license-agreement
- Assurez-vous que la sauvegarde est désactivée avant de restaurer le cluster. Voir Désactivation de la sauvegarde du cluster.
- Assurez-vous que les packages wget, unzip, jq sont disponibles sur tous les nœuds de restauration.
- Assurez-vous d'avoir suivi l'étape Prérequis de l'environnement.
- Toutes les sources de sources de données externes doivent être identiques (SQL Server).
- Redémarrez le serveur NFS avant la restauration du cluster. Exécutez la commande suivante sur le nœud du serveur NFS :
systemctl restart nfs-server
.
- Le cluster de restauration doit avoir le même
fqdn
que le cluster de sauvegarde. - Le cluster de restauration doit avoir le même nombre de nœuds
server
etagent
que celui du cluster de sauvegarde. -
Le cluster de restauration doit avoir les mêmes ressources de nœuds
server
etagent
que le cluster de sauvegarde, comme indiqué ci-dessous :- Configuration matérielle pour le CPU
- Configuration matérielle pour la mémoire
- Configuration matérielle pour l'espace disque
-
Nom d'hôte du nœud
Type d'installation
Instructions d'installation
Prérequis
Mode d'évaluation à nœud unique en ligne
Téléchargez uniquement le zipsf-installer
et fournissezchmod -R 755 <sf_installer_folder>
au dossier extrait.
chmod -R 755 <sf_installer_folder>
vers le dossier extrait.Mode d'évaluation à nœud unique hors ligne
Téléchargez uniquement le zipsf-installer
etsf-infra-bundle.tar.gz
.chmod -R 755 <sf_installer_folder>
vers le dossier extrait.Mode de production en ligne multi-nœuds compatible haute disponibilité
Téléchargez uniquement le zipsf-installer
et fournissezchmod -R 755 <sf_installer_folder>
au dossier extrait.
Mode de production hors ligne multi-nœuds compatible haute disponibilité
Téléchargez uniquement le zipsf-installer
etsf-infra-bundle.tar.gz
.chmod -R 755 <sf_installer_folder>
vers le dossier extrait.Créez un fichier et nommez-lerestore.json
. Assurez-vous de le remplir en fonction des définitions de champs suivantes.
{
"fixed_rke_address": "PLACEHOLDER",
"gpu_support": false,
"fqdn": "PLACEHOLDER",
"rke_token": "PLACEHOLDER",
"restore": {
"etcdRestorePath": "PLACEHOLDER",
"nfs": {
"endpoint": "PLACEHOLDER",
"mountpath": "PLACEHOLDER"
}
},
"infra": {
"docker_registry": {
"username": "PLACEHOLDER",
"password": "PLACEHOLDER"
}
}
}
{
"fixed_rke_address": "PLACEHOLDER",
"gpu_support": false,
"fqdn": "PLACEHOLDER",
"rke_token": "PLACEHOLDER",
"restore": {
"etcdRestorePath": "PLACEHOLDER",
"nfs": {
"endpoint": "PLACEHOLDER",
"mountpath": "PLACEHOLDER"
}
},
"infra": {
"docker_registry": {
"username": "PLACEHOLDER",
"password": "PLACEHOLDER"
}
}
}
fqdn
– Le nom de domaine complet de l'équilibreur de charge pour le mode de production multi-nœuds compatible haute disponibilité ou le nom de domaine complet de la machine pour le mode d'évaluation à nœud uniquefixed_rke_address
— Le nom de domaine complet de l'équilibreur de charge s'il en existe un, sinon le nom de domaine complet du premier nœud du serveur de restauration. Utilisé pour équilibrer la charge de l'enregistrement des nœuds et de la requête de l'API kube.gpu_support
— Utiliseztrue
oufalse
pour activer ou désactiver la prise en charge du GPU pour le cluster (à utiliser si vous avez des nœuds d'agent avec des GPU).rke_token
— Il s'agit d'une clé secrète pré-partagée, spécifique au cluster. Elle devrait être la même que le cluster de sauvegarde et peut être trouvée dans le fichiercluster_config.json
. Elle est nécessaire pour tous les nœuds rejoignant le cluster.restore.etcdRestorePath
— Chemin d'accès où les données de sauvegarde sont stockées pour le cluster dans le serveur NFS. Configuré à la sauvegarde avecetcdBackupPath
.restore.nfs.endpoint
– Point de terminaison du serveur NFS.restore.nfs.mountpath
— Chemin de montage du serveur NFS.infra.docker_registry.username
— Nom d'utilisateur que vous avez défini dans le cluster de sauvegarde. Il se trouve dans le fichiercluster_config.json
et est nécessaire pour le registre docker.infra.docker_registry.password
— Le mot de passe que vous avez défini dans le cluster de sauvegarde. Il se trouve dans le fichiercluster_config.json
et est nécessaire pour l'installation du registre docker.
Étape 3.1 : Restauration de etcd
sur le nœud principal du cluster
etcd
sur le nœud principal du cluster, exécutez la commande suivante :
./install-uipath.sh -i restore.json -o output.json -r --accept-license-agreement --install-type online
./install-uipath.sh -i restore.json -o output.json -r --accept-license-agreement --install-type online
Étape 3.2 : Restauration de etcd
sur les nœuds secondaires du cluster
etcd
sur les nœuds secondaires du cluster, exécutez la commande suivante :
./install-uipath.sh -i restore.json -o output.json -r -j server --accept-license-agreement --install-type online
./install-uipath.sh -i restore.json -o output.json -r -j server --accept-license-agreement --install-type online
Étape 3.3 : Restauration de etcd
sur les nœuds d'agent du cluster
etcd
sur les nœuds d'agent du cluster, exécutez la commande suivante :
./install-uipath.sh -i restore.json -o output.json -r -j agent --accept-license-agreement --install-type online
./install-uipath.sh -i restore.json -o output.json -r -j agent --accept-license-agreement --install-type online
Étape 3.4 : Désactivation du mode maintenance
etcd
terminée, assurez-vous de désactiver le mode de maintenance :
/path/to/old-installer/configureUiPathAS.sh disable-maintenance-mode
/path/to/old-installer/configureUiPathAS.sh disable-maintenance-mode
Pour vérifier que le mode maintenance est désactivé, exécutez la commande suivante :
/path/to/old-installer/configureUiPathAS.sh is-maintenance-enabled
/path/to/old-installer/configureUiPathAS.sh is-maintenance-enabled
Étape 3.5 : Exécution de la restauration de volume sur le nœud principal
etcd
terminée, exécutez la restauration du volume sur le nœud principal à l'aide de la commande suivante :
./install-uipath.sh -i restore.json -o output.json -r --volume-restore --accept-license-agreement --install-type online
./install-uipath.sh -i restore.json -o output.json -r --volume-restore --accept-license-agreement --install-type online
Étape 3.6 : installation du certificat de cluster Automation Suite sur le nœud principal de restauration
sudo ./configureUiPathAS.sh tls-cert get --outpath /opt/
cp /opt/ca.crt /etc/pki/ca-trust/source/anchors/
update-ca-trust
sudo ./configureUiPathAS.sh tls-cert get --outpath /opt/
cp /opt/ca.crt /etc/pki/ca-trust/source/anchors/
update-ca-trust
Activation d'AI Center sur le cluster restauré
Après avoir restauré un cluster Automation Suite avec AI Center™ activé, suivez les étapes de la procédure Activation d'AI Center sur le cluster restauré .
Étape 3.1 : Restauration de etcd
sur le nœud principal du cluster
etcd
sur le nœud principal du cluster, exécutez la commande suivante :
./install-uipath.sh -i restore.json -o output.json -r --offline-bundle "/uipath/sf-infra-bundle.tar.gz" --offline-tmp-folder /uipath --install-offline-prereqs --accept-license-agreement --install-type offline
./install-uipath.sh -i restore.json -o output.json -r --offline-bundle "/uipath/sf-infra-bundle.tar.gz" --offline-tmp-folder /uipath --install-offline-prereqs --accept-license-agreement --install-type offline
Étape 3.2 : Restauration de etcd
sur les nœuds secondaires du cluster
./install-uipath.sh -i restore.json -o output.json -r -j server --offline-bundle "/uipath/sf-infra-bundle.tar.gz" --offline-tmp-folder /uipath --install-offline-prereqs --accept-license-agreement --install-type offline
./install-uipath.sh -i restore.json -o output.json -r -j server --offline-bundle "/uipath/sf-infra-bundle.tar.gz" --offline-tmp-folder /uipath --install-offline-prereqs --accept-license-agreement --install-type offline
Étape 3.3 : Restauration de etcd
sur les nœuds d'agent du cluster
etcd
sur les nœuds d'agent du cluster, exécutez la commande suivante :
./install-uipath.sh -i restore.json -o output.json -r -j agent --offline-bundle "/uipath/sf-infra-bundle.tar.gz" --offline-tmp-folder /uipath --install-offline-prereqs --accept-license-agreement --install-type offline
./install-uipath.sh -i restore.json -o output.json -r -j agent --offline-bundle "/uipath/sf-infra-bundle.tar.gz" --offline-tmp-folder /uipath --install-offline-prereqs --accept-license-agreement --install-type offline
Étape 3.4 : Désactivation du mode maintenance
etcd
terminée, assurez-vous de désactiver le mode de maintenance :
/path/to/old-installer/configureUiPathAS.sh disable-maintenance-mode
/path/to/old-installer/configureUiPathAS.sh disable-maintenance-mode
Pour vérifier que le mode maintenance est désactivé, exécutez la commande suivante :
/path/to/old-installer/configureUiPathAS.sh is-maintenance-enabled
/path/to/old-installer/configureUiPathAS.sh is-maintenance-enabled
Étape 3.5 : Exécution de la restauration de volume sur le nœud principal
etcd
terminée, exécutez la restauration du volume sur le nœud principal à l'aide de la commande suivante :
./install-uipath.sh -i restore.json -o ./output.json -r --volume-restore --accept-license-agreement --install-type offline
./install-uipath.sh -i restore.json -o ./output.json -r --volume-restore --accept-license-agreement --install-type offline
Étape 3.6 : installation du certificat de cluster Automation Suite sur le nœud principal de restauration
sudo ./configureUiPathAS.sh tls-cert get --outpath /opt/
cp /opt/ca.crt /etc/pki/ca-trust/source/anchors/
update-ca-trust
sudo ./configureUiPathAS.sh tls-cert get --outpath /opt/
cp /opt/ca.crt /etc/pki/ca-trust/source/anchors/
update-ca-trust
Activation d'AI Center sur le cluster restauré
Après avoir restauré un cluster Automation Suite avec AI Center™ activé, suivez les étapes de la procédure Activation d'AI Center sur le cluster restauré .
backup_interval
. La désactivation de la sauvegarde du cluster entraînera une perte de données créée entre la dernière exécution planifiée et le moment où vous avez désactivé la sauvegarde.
Pour désactiver la sauvegarde, exécutez les commandes suivantes dans cet ordre :
Pour mettre à jour le serveur NFS, procédez comme suit :
- Réexécutez les étapes suivantes :
- Mettez à jour les informations du serveur NFS, puis incluez le nouveau
nfs.endpoint
dans les fichiersbackup.json
etrestore.json
.
Pour ajouter un nouveau nœud au cluster, réexécutez les étapes suivantes :
La restauration Redis échoue lors de l'exécution de la restauration, vous devez donc exécuter quelques étapes supplémentaires.
Suivez les étapes de la section Résolution des problèmes.
orchestrator
pods.
- Terminologie
- Prérequis de l'environnement
- Étape 1 : Configuration du serveur NFS externe
- Prérequis
- Étape 1.1 : Installation des bibliothèques NFS
- Étape 1.2 : Configurer le chemin de montage
- Étape 1.3 : Désactivation du pare-feu
- Étape 1.4 : Autoriser l'accès du chemin de montage NFS à tous les nœuds de sauvegarde et de restauration
- Étape 2 : Activer la sauvegarde du cluster
- Backup.json
- Étape 2.1 : Activer la sauvegarde sur le nœud principal du cluster
- Étape 2.2 : Activer la sauvegarde sur les nœuds secondaires du cluster
- Étape 2.3 : Activation de la sauvegarde sur les nœuds de l'agent du cluster
- Étape 3 : Configuration du cluster de restauration
- Configuration requise pour le cluster de restauration
- Restore.json
- Installation en ligne
- Installation hors ligne
- Désactivation de la sauvegarde du cluster
- Configurations supplémentaires
- Mise à jour du serveur NFS
- Ajout d'un nouveau nœud au cluster
- Problèmes connus
- Restauration Redis
- Le pod Insights Looker ne démarre pas après la restauration