automation-suite
2023.4
false
- Vue d'ensemble (Overview)
- Prérequis
- Installation
- Questions et réponses : modèles de déploiement
- Configuration des machines
- Configuration du magasin d'objets externe
- Configuration d'un registre Docker externe
- Configurer l'équilibreur de charge
- Configuration du DNS
- Configuration de Microsoft SQL Server
- Configuration des certificats
- Installation de production en ligne multi-nœuds compatible haute disponibilité
- Installation de production hors ligne multi-nœuds compatible haute disponibilité
- Disaster Recovery - Installation du cluster secondaire
- Téléchargement des packages d'installation
- install-uipath.sh parameters
- Activation du module complémentaire Redis High Availability Add-on pour le cluster
- Fichier de configuration de Document Understanding
- Ajout d'un nœud d'agent dédié avec prise en charge GPU
- Ajout d'un nœud d'agent dédié pour Task Mining
- Connexion de l'application Task Mining
- Ajout d'un nœud d'agent dédié pour les Automation Suite Robots
- Post-installation
- Administration du cluster
- Gestion des produits
- Premiers pas avec le portail d'administration du cluster
- Migration d'un magasin d'objets d'un volume persistant vers des disques bruts
- Migration des données entre les librairies
- Migration d'un magasin d'objets intégré au cluster vers un magasin d'objets externe
- Basculer vers le cluster secondaire
- Disaster Recovery : exécution d'opérations post-installation
- Conversion d'une installation existante en configuration multi-sites
- Directives sur la mise à niveau d'un déploiement actif/passif
- Directives pour la sauvegarde et la restauration d'un déploiement actif/passif
- Surveillance et alerte
- Migration et mise à niveau
- Chemins de mise à niveau Automation Suite
- Automatisée : mise à niveau en ligne
- Automatisée : mise à niveau hors ligne
- Manuel : mise à niveau en ligne
- Manuel : mise à niveau hors ligne
- Annulation en cas d'erreur
- Migration d'un disque physique Longhorn vers LVM
- Migration de Canal vers Cilium CNI
- Rétrogradation de Ceph de la version 16.2.6 à la version 15.2.9
- Options de migration :
- Étape 1 : Déplacement des données d'organisation Identity d'installation autonome vers Automation Suite
- Étape 2 : Restauration de la base de données du produit autonome
- Étape 3 : Sauvegarder la base de données de la plate-forme dans Automation Suite
- Étape 4 : Fusion des organisations dans Automation Suite
- Étape 5 : Mise à jour des chaînes de connexion du produit migré
- Étape 6 : migration de la version autonome d’Insights
- Étape 7 : suppression du locataire par défaut
- B) Migration à locataire unique
- Configuration spécifique au produit
- Remappage des ID d’organisation
- Migration des données Looker vers Automation Suite
- Effectuer la maintenance de la base de données Insights
- Configurer les règles de journalisation
- Rotation des informations d’identification de stockage d’objets blob
- Désactivation de l'utilisation d'URL pré-signées lors du téléchargement de données vers le stockage Amazon S3
- Configuration de la sécurité de l'application de processus
- Configurer une authentification Kerberos avec l’authentification MSSQL de base pour Process Mining
- Bonnes pratiques et maintenance
- Résolution des problèmes
- Comment résoudre les problèmes des services lors de l'installation
- Comment désinstaller le cluster
- Comment nettoyer les artefacts hors ligne pour améliorer l'espace disque
- Comment effacer les données Redis
- Comment activer la journalisation Istio
- Comment nettoyer manuellement les journaux
- Comment nettoyer les anciens journaux stockés dans le compartiment sf-logs
- Comment désactiver les journaux de diffusion pour AI Center
- Comment déboguer les installations d'Automation Suite ayant échoué
- Comment supprimer des images de l’ancien programme d’installation après la mise à niveau
- Comment nettoyer automatiquement les instantanés Longhorn
- Comment désactiver le déchargement de la somme de contrôle txt
- Comment définir manuellement le niveau de journalisation d’ArgoCD sur Info
- Comment générer la valeur pull_secret_value encodée pour les registres externes
- Comment résoudre les chiffrements faibles dans TLS 1.2
- Impossible d'exécuter une installation hors ligne sur le système d'exploitation RHEL 8.4
- Erreur lors du téléchargement du bundle
- L'installation hors ligne échoue en raison d'un fichier binaire manquant
- Problème de certificat dans l'installation hors ligne
- La première installation échoue lors de la configuration de Longhorn
- Erreur de validation de la chaîne de connexion SQL
- Échec de la vérification des prérequis pour le module selinux iscsid
- Disque Azure non marqué comme SSD
- Échec après la mise à jour du certificat
- L'antivirus provoque des problèmes d'installation
- Automation Suite ne fonctionne pas après la mise à niveau du système d'exploitation
- Automation Suite requiert que backlog_wait_time soit défini sur 0
- Nœud GPU affecté par l'indisponibilité des ressources
- Volume impossible à monter car il n'est pas prêt pour les charges de travail
- Échec de la collecte du journal du pack d'assistance
- Échec de la mise à niveau du nœud unique à l’étape Fabric
- Cluster défectueux après la mise à niveau automatisée à partir de la version 2021.10
- Échec de la mise à niveau en raison d’un Ceph défectueux
- RKE2 ne démarre pas en raison d'un problème d'espace
- Échec de la validation SQL lors de la mise à niveau
- Le pod d'instantané-contrôleur-crds dans l'état CrashLoopBackOff après la mise à niveau
- Échec du chargement ou du téléchargement des données dans l'objectstore
- Le redimensionnement de la PVC ne répare pas Ceph
- Échec du redimensionnement du PVC
- Échec du redimensionnement du PVC objectstore
- Rook Ceph ou pod Looker bloqué dans l'état Init
- Erreur de pièce jointe du volume Ensembles d'états.
- Échec de la création de volumes persistants
- Correctif de récupération du stockage
- La sauvegarde a échoué en raison de l’erreur TropInstantanés (TooManySnapshots)
- Toutes les répliques Longhorn sont défaillantes
- Définition d'un délai d'expiration pour les portails de gestion
- Mettre à jour les connexions du répertoire sous-jacent
- L'authentification ne fonctionne pas après la migration
- kinit : Impossible de trouver le KDC pour le domaine <AD Domain> lors de l'obtention des informations d'identification initiales
- Kinit : Keytab ne contient aucune clé appropriée pour *** lors de l'obtention des informations d'identification initiales
- L'opération GSSAPI a échoué en raison d'un code de statut non valide
- Alarme reçue pour l'échec de la tâche Kerberos-tgt-update
- Fournisseur SSPI : serveur introuvable dans la base de données Kerberos
- La connexion a échoué pour l'utilisateur AD en raison d'un compte désactivé
- Échec de connexion à ArgoCD
- Impossible d'obtenir l'image du bac à sable
- Les pods ne s'affichent pas dans l'interface utilisateur ArgoCD
- Échec de la sonde Redis
- Le serveur RKE2 ne démarre pas
- Secret introuvable dans l'espace de noms UiPath
- ArgoCD passe à l'état Progression (Progressing) après la première installation
- Problèmes d'accès au compte ArgoCD en lecture seule
- Pods MongoDB en mode CrashLoopBackOff ou enregistrement PVC en attente après suppression
- Services défectueux après la restauration ou l'annulation du cluster
- Pods bloqués dans Init:0/X
- Prometheus en état CrashloopBackoff avec erreur de mémoire insuffisante (OOM)
- Métriques Ceph-rook manquantes dans les tableaux de bord de surveillance
- Les pods ne peuvent pas communiquer avec le nom de domaine complet dans un environnement proxy
- Document Understanding n'est pas affiché sur la barre de gauche d'Automation Suite
- État Échec (Failed) lors de la création d'une session de labellisation des données
- État Échec (Failed) lors de la tentative de déploiement d'une compétence ML
- La tâche de migration échoue dans ArgoCD
- La reconnaissance de l'écriture manuscrite avec l'Extracteur de formulaires intelligents (Intelligent Form Extractor) ne fonctionne pas
- Exécution de la haute disponibilité avec Process Mining
- Échec de l’ingestion de Process Mining lors de la connexion à l’aide de Kerberos
- Impossible de se connecter à la base de données AutomationSuite_ProcessMining_Authentication à l'aide d'une chaîne de connexion au format pyodbc
- L'installation d'airflow échoue avec sqlalchemy.exc.ArgumentError: impossible d'analyser l'URL rfc1738 de la chaîne ''
- Comment ajouter une règle de table d'adresse IP pour utiliser le port SQL Server 1433
- Utilisation de l'outil de diagnostic d'Automation Suite
- Utilisation du pack d'assistance Automation Suite
- Explorer les journaux
Migration des données Looker vers Automation Suite
Important :
Veuillez noter que ce contenu a été localisé en partie à l’aide de la traduction automatique.
La localisation du contenu nouvellement publié peut prendre 1 à 2 semaines avant d’être disponible.
Guide d'installation d'Automation Suite sur Linux
Dernière mise à jour 16 déc. 2024
Migration des données Looker vers Automation Suite
Utilisez cette procédure pour migrer les données Looker d'Insights Standalone vers Insights Automation Suite.
- Ouvrez un client SSH et exécutez la commande suivante pour vous authentifier.
ssh <username>@<hostname>
ssh <username>@<hostname>
- Créez une sauvegarde.
image=$(sudo docker container inspect looker-container -f '{{ .Image }}') backupPath="$HOME/insights/backup" && mkdir "$backupPath" -p sudo docker run -u root --rm --platform linux --volumes-from looker-container -v "$backupPath":/backup "$image" bash -c "tar cvf /backup/looker_backup.tar --absolute-names /app/workdir/.db /mnt/lookerfiles /app/workdir/looker.key"
image=$(sudo docker container inspect looker-container -f '{{ .Image }}') backupPath="$HOME/insights/backup" && mkdir "$backupPath" -p sudo docker run -u root --rm --platform linux --volumes-from looker-container -v "$backupPath":/backup "$image" bash -c "tar cvf /backup/looker_backup.tar --absolute-names /app/workdir/.db /mnt/lookerfiles /app/workdir/looker.key"Remarque : À partir de la version 2022.10, lelooker.key
est inclus dans la sauvegarde de la migration.
- Quittez le SSH.
exit
exit - Copiez les fichiers sur la machine locale à l'aide du Protocole de copie sécurisée (SCP).
scp <username>@<hostname>:~\insights\backup\looker_backup.tar <path-to-download-dir>
scp <username>@<hostname>:~\insights\backup\looker_backup.tar <path-to-download-dir>
- Téléchargez le fichier
kubeconfig
. La capture d'écran suivante montre un modèle de déploiement Azure pour Automation Suite. - Ouvrez un client SSH et exécutez la commande suivante pour obtenir le nom du pod Insights Looker
$Env:KUBECONFIG="C:\Users\username\Downloads\output.yaml" # path to the optput.yaml kubectl get pods -n uipath
$Env:KUBECONFIG="C:\Users\username\Downloads\output.yaml" # path to the optput.yaml kubectl get pods -n uipath -
Le pod Insights Looker est maintenant répertorié (par exemple,
insights-insightslooker-c987df55c-gngqd
). - Définissez un nom de variable pour le pod Insights Looker.
$PodName = "insights-insightslooker-74db798bc5-dt68p"
$PodName = "insights-insightslooker-74db798bc5-dt68p" - Créez une sauvegarde pour les données Automation Suite.
Le fichier de sauvegarde sera stocké sur une machine disposant d'une console où la commande est lancée.
Veillez à bien supprimer la sauvegarde créée, car celle-ci contient des informations sensibles.
kubectl cp ${PodName}:/app/workdir/.db/ .\sf_db_backup -n uipath -c insightslooker kubectl cp ${PodName}:/mnt/lookerfiles/ .\sf_lookerfiles_backup -n uipath -c insightslooker
kubectl cp ${PodName}:/app/workdir/.db/ .\sf_db_backup -n uipath -c insightslooker kubectl cp ${PodName}:/mnt/lookerfiles/ .\sf_lookerfiles_backup -n uipath -c insightslooker - Décompressez le fichier TAR du serveur Insights Linux.
7z x .\looker_backup.tar -olooker_backup # looker_backup is the output folder
7z x .\looker_backup.tar -olooker_backup # looker_backup is the output folder - (Requis sous condition si le mot de passe d’Automation Suite est différent de celui utilisé dans le modèle de déploiement autonome) Modifiez les fichiers ci-dessous avant la migration et mettez à jour l’URL et/ou le mot de passe dans les fichiers looker.log et looker.script.
Ouvrez
sf_db_backup/looker.log
et recherchezhost_url
pour trouver la chaîne qui commence parhttps://
.RecherchezINSERT INTO "CREDENTIALS_EMAIL" VALUES(1,1,'admin@uipath.com'
danssf_db_backup/looker.log
.Copiez la chaîne qui commence par$2a$12$
et écrasez toutes les occurrences danslooker_backup/app/.db/looker.log
.Remarque :- Désactivez regex dans l'éditeur si vous ne trouvez pas ces lignes.
- S'il existe plusieurs occurrences de
INSERT INTO "CREDENTIALS_EMAIL" VALUES(1,1,'admin@uipath.com'
, vous devez toutes les mettre à jour.
- Remplacez le répertoire de travail par le dossier
looker_backup
. Dans ce dossier, vous verrez deux sous-dossiers nommésapp
etmnt
.cd looker_backup
cd looker_backup - Copiez les fichiers dans le pod Insights Looker, puis redémarrez le déploiement.
kubectl cp .\app\workdir ${PodName}:/app -n uipath -c insightslooker kubectl cp .\mnt\lookerfiles ${PodName}:/mnt -n uipath -c insightslooker kubectl rollout restart statefulset insights-insightslooker -n uipath
kubectl cp .\app\workdir ${PodName}:/app -n uipath -c insightslooker kubectl cp .\mnt\lookerfiles ${PodName}:/mnt -n uipath -c insightslooker kubectl rollout restart statefulset insights-insightslooker -n uipath