- Vue d'ensemble (Overview)
- Prérequis
- Installation
- Questions et réponses : modèles de déploiement
- Configuration des machines
- Configuration du magasin d'objets externe
- Configuration d'un registre Docker externe
- Configurer l'équilibreur de charge
- Configuration du DNS
- Configuration de Microsoft SQL Server
- Configuration des certificats
- Installation de production en ligne multi-nœuds compatible haute disponibilité
- Installation de production hors ligne multi-nœuds compatible haute disponibilité
- Disaster Recovery - Installation du cluster secondaire
- Téléchargement des packages d'installation
- install-uipath.sh parameters
- Activation du module complémentaire Redis High Availability Add-on pour le cluster
- Fichier de configuration de Document Understanding
- Ajout d'un nœud d'agent dédié avec prise en charge GPU
- Ajout d'un nœud d'agent dédié pour Task Mining
- Connexion de l'application Task Mining
- Ajout d'un nœud d'agent dédié pour les Automation Suite Robots
- Post-installation
- Administration du cluster
- Gestion des produits
- Premiers pas avec le portail d'administration du cluster
- Migration d'un magasin d'objets d'un volume persistant vers des disques bruts
- Migration des données entre les librairies
- Migration d'un magasin d'objets intégré au cluster vers un magasin d'objets externe
- Basculer vers le cluster secondaire
- Disaster Recovery : exécution d'opérations post-installation
- Conversion d'une installation existante en configuration multi-sites
- Directives sur la mise à niveau d'un déploiement actif/passif
- Directives pour la sauvegarde et la restauration d'un déploiement actif/passif
- Surveillance et alerte
- Migration et mise à niveau
- Chemins de mise à niveau Automation Suite
- Automatisée : mise à niveau en ligne
- Automatisée : mise à niveau hors ligne
- Manuel : mise à niveau en ligne
- Manuel : mise à niveau hors ligne
- Annulation en cas d'erreur
- Migration d'un disque physique Longhorn vers LVM
- Migration de Canal vers Cilium CNI
- Rétrogradation de Ceph de la version 16.2.6 à la version 15.2.9
- Options de migration :
- Étape 1 : Déplacement des données d'organisation Identity d'installation autonome vers Automation Suite
- Étape 2 : Restauration de la base de données du produit autonome
- Étape 3 : Sauvegarder la base de données de la plate-forme dans Automation Suite
- Étape 4 : Fusion des organisations dans Automation Suite
- Étape 5 : Mise à jour des chaînes de connexion du produit migré
- Étape 6 : migration de la version autonome d’Insights
- Étape 7 : suppression du locataire par défaut
- B) Migration à locataire unique
- Configuration spécifique au produit
- Rotation des informations d’identification de stockage d’objets blob
- Désactivation de l'utilisation d'URL pré-signées lors du téléchargement de données vers le stockage Amazon S3
- Configuration de la sécurité de l'application de processus
- Configurer une authentification Kerberos avec l’authentification MSSQL de base pour Process Mining
- Bonnes pratiques et maintenance
- Résolution des problèmes
- Comment résoudre les problèmes des services lors de l'installation
- Comment désinstaller le cluster
- Comment nettoyer les artefacts hors ligne pour améliorer l'espace disque
- Comment effacer les données Redis
- Comment activer la journalisation Istio
- Comment nettoyer manuellement les journaux
- Comment nettoyer les anciens journaux stockés dans le bundle sf-logs
- Comment désactiver les journaux de diffusion pour AI Center
- Comment déboguer les installations d'Automation Suite ayant échoué
- Comment supprimer des images de l’ancien programme d’installation après la mise à niveau
- Comment nettoyer automatiquement les instantanés Longhorn
- Comment désactiver le déchargement de la somme de contrôle txt
- Comment définir manuellement le niveau de journalisation d’ArgoCD sur Info
- Comment générer la valeur pull_secret_value encodée pour les registres externes
- Comment résoudre les chiffrements faibles dans TLS 1.2
- Impossible d'exécuter une installation hors ligne sur le système d'exploitation RHEL 8.4
- Erreur lors du téléchargement du bundle
- L'installation hors ligne échoue en raison d'un fichier binaire manquant
- Problème de certificat dans l'installation hors ligne
- La première installation échoue lors de la configuration de Longhorn
- Erreur de validation de la chaîne de connexion SQL
- Échec de la vérification des prérequis pour le module selinux iscsid
- Disque Azure non marqué comme SSD
- Échec après la mise à jour du certificat
- L'antivirus provoque des problèmes d'installation
- Automation Suite ne fonctionne pas après la mise à niveau du système d'exploitation
- Automation Suite requiert que backlog_wait_time soit défini sur 0
- Nœud GPU affecté par l'indisponibilité des ressources
- Volume impossible à monter car il n'est pas prêt pour les charges de travail
- Échec de la mise à niveau du nœud unique à l’étape Fabric
- Cluster défectueux après la mise à niveau automatisée à partir de la version 2021.10
- Échec de la mise à niveau en raison d’un Ceph défectueux
- RKE2 ne démarre pas en raison d'un problème d'espace
- Échec de la validation SQL lors de la mise à niveau
- Échec du chargement ou du téléchargement des données dans l'objectstore
- Le redimensionnement de la PVC ne répare pas Ceph
- Échec du redimensionnement du PVC
- Échec du redimensionnement du PVC objectstore
- Rook Ceph ou pod Looker bloqué dans l'état Init
- Erreur de pièce jointe du volume Ensembles d'états.
- Échec de la création de volumes persistants
- Correctif de récupération du stockage
- La sauvegarde a échoué en raison de l’erreur TropInstantanés (TooManySnapshots)
- Toutes les répliques Longhorn sont défaillantes
- Définition d'un délai d'expiration pour les portails de gestion
- Mettre à jour les connexions du répertoire sous-jacent
- L'authentification ne fonctionne pas après la migration
- kinit : Impossible de trouver le KDC pour le domaine <AD Domain> lors de l'obtention des informations d'identification initiales
- Kinit : Keytab ne contient aucune clé appropriée pour *** lors de l'obtention des informations d'identification initiales
- L'opération GSSAPI a échoué en raison d'un code de statut non valide
- Alarme reçue pour l'échec de la tâche Kerberos-tgt-update
- Fournisseur SSPI : serveur introuvable dans la base de données Kerberos
- La connexion a échoué pour l'utilisateur AD en raison d'un compte désactivé
- Échec de connexion à ArgoCD
- Impossible d'obtenir l'image du bac à sable
- Les pods ne s'affichent pas dans l'interface utilisateur ArgoCD
- Échec de la sonde Redis
- Le serveur RKE2 ne démarre pas
- Secret introuvable dans l'espace de noms UiPath
- ArgoCD passe à l'état Progression (Progressing) après la première installation
- Problèmes d'accès au compte ArgoCD en lecture seule
- Pods MongoDB en mode CrashLoopBackOff ou enregistrement PVC en attente après suppression
- Services défectueux après la restauration ou l'annulation du cluster
- Pods bloqués dans Init:0/X
- Prometheus en état CrashloopBackoff avec erreur de mémoire insuffisante (OOM)
- Métriques Ceph-rook manquantes dans les tableaux de bord de surveillance
- Document Understanding n'est pas affiché sur la barre de gauche d'Automation Suite
- État Échec (Failed) lors de la création d'une session de labellisation des données
- État Échec (Failed) lors de la tentative de déploiement d'une compétence ML
- La tâche de migration échoue dans ArgoCD
- La reconnaissance de l'écriture manuscrite avec l'Extracteur de formulaires intelligents (Intelligent Form Extractor) ne fonctionne pas
- Exécution de la haute disponibilité avec Process Mining
- Échec de l’ingestion de Process Mining lors de la connexion à l’aide de Kerberos
- Impossible de se connecter à la base de données AutomationSuite_ProcessMining_Authentication à l'aide d'une chaîne de connexion au format pyodbc
- L'installation d'airflow échoue avec sqlalchemy.exc.ArgumentError: impossible d'analyser l'URL rfc1738 de la chaîne ''
- Comment ajouter une règle de table d'adresse IP pour utiliser le port SQL Server 1433
- Utilisation de l'outil de diagnostic d'Automation Suite
- Utilisation de l'outil Automation Suite Support Bundle
- Explorer les journaux
Configuration des machines
- Pour éviter la perte de données, assurez-vous que l'infrastructure que vous utilisez ne supprime pas automatiquement les disques du cluster lors du redémarrage ou de l'arrêt du cluster. Si cette fonctionnalité est activée, veillez à la désactiver.
- Pour garantir une session SSH fluide et sans interruption, nous vous recommandons fortement de suivre les étapes décrites dans les Bonnes pratiques d’installation avant de configurer les disques et d’installer Automation Suite.
configureUiPathDisks.sh
. Pour plus de détails, consultez les sections suivantes.
Avant l'installation, vous devez partitionner et configurer le disque à l'aide de LVM, afin que sa taille puisse être modifiée facilement et sans aucune migration ou perte de données.
Partitionnement du disque
/var
. Par défaut, la partition var
ne se voit allouer que 8 Go d'espace.
- Le format de disque pris en charge est
ext4
ouxfs
. - Toutes les partitions doivent être créées à l'aide de LVM. Cela permet de s'assurer que les données du cluster peuvent résider sur un disque différent, mais qu'elles peuvent toujours être visualisées de manière cohérente. Cela aide également à étendre la taille de la partition à l'avenir sans risque de migration ou de perte de données.
- Tous les pods et les journaux d'application sont stockés dans le répertoire
/var/log/pods
. Assurez-vous que la capacité de ce répertoire est d'au moins 8 Gio. Nous vous recommandons également de configurerlogrotate
de façon à effectuer une rotation des journaux à un intervalle situé entre un jour et une semaine.
Pour le système d'exploitation RHEL OS, vous devez vous assurer que vous disposez des tailles de point de montage minimales suivantes sur la machine.
En ligne
Libellé du disque |
Partition |
Taille |
Objectif |
---|---|---|---|
Disque de cluster |
|
190 Gio |
Le dossier Rancher stocke les images et les couches de conteneurs |
|
56 Gio |
Le dossier Kubelet stocke les configurations de runtime Kubernetes telles que secrets, configmaps et emptyDir | |
|
10 Gio |
Binaire du programme d'installation | |
disque etcd |
|
16 Gio |
Base de données distribuée pour Kubernetes |
Bloquer le stockage |
|
512 Gio |
Bloquer l'abstraction de stockage |
Magasin d'objets (Objectstore)1 |
S/O |
512 Gio | Magasin d'objets en cluster |
Nous vous recommandons de ne pas utiliser le disque du système d’exploitation pour les finalités détaillées ci-dessus afin de vous assurer que les processus obtiennent leur juste partage de ressources.
Hors ligne
La configuration requise pour le mode hors connexion est la même que celle en ligne, à l'exception de la première machine sur laquelle vous exécutez l'installation, qui nécessite les conditions suivantes.
L'espace supplémentaire est nécessaire pour décompresser le bundle hors ligne.
Libellé du disque |
Partition |
Taille |
Objectif |
---|---|---|---|
Disque de cluster |
|
190 Gio |
Le dossier Rancher stocke les images et les couches de conteneurs |
|
56 Gio |
Le dossier Kubelet stocke les configurations de runtime Kubernetes telles que secrets, configmaps et emptyDir | |
|
10 Gio |
Binaire du programme d'installation | |
disque etcd |
|
16 Gio |
Base de données distribuée pour Kubernetes |
Bloquer le stockage |
|
512 Gio |
Bloquer l'abstraction de stockage |
Magasin d'objets (Objectstore)1 |
S/O | 512 Gio |
Magasin d'objets en cluster |
Disque de bundle UiPath |
|
512 Gio |
Bundle physiquement isolé |
Nous vous recommandons de ne pas utiliser le disque du système d’exploitation pour les finalités détaillées ci-dessus afin de vous assurer que les processus obtiennent leur juste partage de ressources.
Les disques de données et etcd doivent être des disques physiques distincts. Cela isole physiquement les données et le disque etcd des autres charges de travail et activités du cluster tout en améliorant les performances et la stabilité du cluster.
Consultez la section suivante pour plus de détails sur l'utilisation de l'exemple de script pour partitionner et configurer le disque avant l'installation.
Téléchargement du script
configureUiPathDisks.sh
pour configurer et partitionner le disque.
Pour obtenir des instructions de téléchargement, consultez configureUiPathDisks.sh.
Exécution du script
configureUiPathDisks.sh
aux fins suivantes :
- configurer les disques et les points de montage pour une nouvelle installation de cluster Automation Suite ;
- redimensionner le disque de données après l'installation.
Pour rendre le script exécutable, exécutez :
chmod +x ./configureUiPathDisks.sh
chmod +x ./configureUiPathDisks.sh
Pour plus de détails sur l'utilisation du script, exécutez :
sudo ./configureUiPathDisks.sh --help
sudo ./configureUiPathDisks.sh --help
***************************************************************************************
Utility to configure the disk for UiPath Automation Suite Installation.
Run this script to configure the disks on new machine or to extend the size of datadisk
Arguments
-n|--node-type NodeType, Possible values: agent, server. Default to server.
-i|--install-type Installation mode, Possible values: online, offline. Default to online.
-c|--cluster-disk-name Device to host rancher and kubelet. Ex: /dev/sdb.
-e|--etcd-disk-name Device to host etcd, Not required for agent node. Ex: /dev/sdb.
-R|--ceph-raw-disk-name Device to host ceph OSD, Not required for agent node. Ex: /dev/sdm
-l|--data-disk-name Device to host datadisk, Not required for agent node. Ex: /dev/sdc.
-b|--bundle-disk-name Device to host the uipath bundle.
Only required for offline installation on 1st server node.
-k|--robot-package-disk-name Device to host robot package cache folder
Only required for Automation Suite Robots dedicated node when 'packagecaching' is enabled
-P|--robot-package-path Path to robot package cache folder
(defaults to '/uipath_asrobots_package_cache' if not set)
-f|--complete-suite Installing complete product suite or any of these products:
aicenter, apps, taskmining, documentunderstanding.
This will configure the datadisk volume to be 2TiB instead of 512Gi.
-p|--primary-server Is this machine is first server machine? Applicable only for airgap install.
This is the machine on which UiPath AutomationSuite bundle will be installed.
Default to false.
-x|--extend-data-disk Extend the datadisk. Either attach new disk or resize the exiting datadisk.
-r|--resize Used in conjunction of with --extend-data-disk to resize the exiting volume,
instead of adding new volume.
-d|--debug Run in debug.
-h|--help Display help.
ExampleUsage:
configureUiPathDisks.sh --node-type server --install-type online \
--cluster-disk-name /dev/sdb --etcd-disk-name /dev/sdc \
--data-disk-name /dev/sdd
configureUiPathDisks.sh --data-disk-name /dev/sdh \
--extend-data-disk
***************************************************************************************
***************************************************************************************
Utility to configure the disk for UiPath Automation Suite Installation.
Run this script to configure the disks on new machine or to extend the size of datadisk
Arguments
-n|--node-type NodeType, Possible values: agent, server. Default to server.
-i|--install-type Installation mode, Possible values: online, offline. Default to online.
-c|--cluster-disk-name Device to host rancher and kubelet. Ex: /dev/sdb.
-e|--etcd-disk-name Device to host etcd, Not required for agent node. Ex: /dev/sdb.
-R|--ceph-raw-disk-name Device to host ceph OSD, Not required for agent node. Ex: /dev/sdm
-l|--data-disk-name Device to host datadisk, Not required for agent node. Ex: /dev/sdc.
-b|--bundle-disk-name Device to host the uipath bundle.
Only required for offline installation on 1st server node.
-k|--robot-package-disk-name Device to host robot package cache folder
Only required for Automation Suite Robots dedicated node when 'packagecaching' is enabled
-P|--robot-package-path Path to robot package cache folder
(defaults to '/uipath_asrobots_package_cache' if not set)
-f|--complete-suite Installing complete product suite or any of these products:
aicenter, apps, taskmining, documentunderstanding.
This will configure the datadisk volume to be 2TiB instead of 512Gi.
-p|--primary-server Is this machine is first server machine? Applicable only for airgap install.
This is the machine on which UiPath AutomationSuite bundle will be installed.
Default to false.
-x|--extend-data-disk Extend the datadisk. Either attach new disk or resize the exiting datadisk.
-r|--resize Used in conjunction of with --extend-data-disk to resize the exiting volume,
instead of adding new volume.
-d|--debug Run in debug.
-h|--help Display help.
ExampleUsage:
configureUiPathDisks.sh --node-type server --install-type online \
--cluster-disk-name /dev/sdb --etcd-disk-name /dev/sdc \
--data-disk-name /dev/sdd
configureUiPathDisks.sh --data-disk-name /dev/sdh \
--extend-data-disk
***************************************************************************************
En ligne
Pour configurer le disque dans une configuration en mode d'évaluation à nœud unique en ligne, exécutez la commande suivante sur la machine :
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk
Hors ligne
Dans une installation hors ligne, vous devez charger les images du produit dans le registre Docker. Pour cela, un stockage supplémentaire sous la forme d'un disque séparé est nécessaire pour héberger le bundle de produits UiPath.
Pour configurer le disque dans une configuration en mode d'évaluation à nœud unique hors ligne, exécutez la commande suivante sur la machine :
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk \
--bundle-disk-name name_of_uipath_bundle_disk \
--primary-server \
--install-type offline
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk \
--bundle-disk-name name_of_uipath_bundle_disk \
--primary-server \
--install-type offline
Vous pouvez augmenter la taille de stockage du magasin d'objets intégré au cluster en exécutant le script suivant :
./configureUiPathDisks.sh --ceph-raw-disk-name name_ceph_raw_disk
./configureUiPathDisks.sh --ceph-raw-disk-name name_ceph_raw_disk
Pour augmenter la taille de votre stockage intégré au cluster après l'installation, réexécutez la même commande.
Pour étendre le disque de données, vous pouvez attacher le nouveau disque physique ou redimensionner le disque existant.
Ajout d'un nouveau disque
Pour étendre le disque de données à l'aide du disque nouvellement attaché, exécutez la commande suivante sur la machine serveur :
./configureUiPathDisks.sh --data-disk-name name_of_data_disk \
--extend-data-disk
./configureUiPathDisks.sh --data-disk-name name_of_data_disk \
--extend-data-disk
Redimensionner le disque existant
Pour étendre le disque de données en redimensionnant un disque existant, exécutez la commande suivante sur la machine serveur :
./configureUiPathDisks.sh --extend-data-disk --resize
./configureUiPathDisks.sh --extend-data-disk --resize
La page suivante permet aux administrateurs Linux de gérer les paramètres au niveau du système d’exploitation et du noyau avant de procéder à une installation Automation Suite.
En général, ces paramètres sont gérés par un outil de configuration de gestion dédié, tel que Puppet. Assurez-vous que les modifications que vous apportez sont conformes au processus de contrôle de votre environnement, à des fins de cohérence et de documentation.
Veillez à ce que les étapes suivantes aient été effectuées avant de commencer l’installation, car des erreurs de configuration au niveau du système d’exploitation et du noyau peuvent entraîner des erreurs non intuitives. La vérification de chacun de ces paramètres permet souvent d’éviter ce genre d’erreurs.
Vous devez désactiver la mémoire d’échange avant d’installer Automation Suite. Il a été constaté que la mémoire d’échange provoquait des problèmes avec les charges de travail des conteneurs. Par ailleurs, les charges de travail d’Automation Suite ne bénéficient pas de l’utilisation de la mémoire d’échange, d’autant plus que Kubernetes optimise déjà l’utilisation de la mémoire.
sysctl
suivants sont requis sur la machine :
-
Activer le transfert IP
-
désactiver le filtrage par chemin inverse
Vous pouvez procéder à cela en exécutant la commande suivante :
cat <<EOF >>"/etc/sysctl.d/99-sysctl.conf"
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.ipv4.conf.all.rp_filter=0
EOF
cat <<EOF >>"/etc/sysctl.d/99-sysctl.conf"
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.ipv4.conf.all.rp_filter=0
EOF
nf-call-iptables
est nécessaire pour la plupart des déploiements Kubernetes. Kubernetes crée des réseaux virtuels internes au cluster. Cela permet à chaque pod d’avoir sa propre adresse IP, qui est utilisée conjointement avec les services de noms internes pour faciliter la communication de service à service. Le cluster ne fonctionne pas sans nf-call-iptables
activé. Pour plus de détails, consultez la documentation officielle de Kubernetes.
Exécutez la commande suivante afin d’appliquer les paramètres :
sysctl --system
sysctl --system
Si vous utilisez fapolicy, une politique spécifique à RKE2 est requise. Pour générer celle-ci, utilisez la commande suivante :
cat <<-EOF >>"/etc/fapolicyd/rules.d/69-rke2.rules"
allow perm=any all : dir=/var/lib/rancher/
allow perm=any all : dir=/opt/cni/
allow perm=any all : dir=/run/k3s/
allow perm=any all : dir=/var/lib/kubelet/
allow perm=any all : dir=/root/.local/share/helm
EOF
cat <<-EOF >>"/etc/fapolicyd/rules.d/69-rke2.rules"
allow perm=any all : dir=/var/lib/rancher/
allow perm=any all : dir=/opt/cni/
allow perm=any all : dir=/run/k3s/
allow perm=any all : dir=/var/lib/kubelet/
allow perm=any all : dir=/root/.local/share/helm
EOF
Veillez à ce que cette modification ait bien été communiquée à votre équipe Linux et que les procédures adéquates aient été appliquées en matière de gestion de la configuration.
noexec
et nosuid
ne doivent pas être définis concernant les disques utilisés pour le montage /var/lib/rancher
. L’outil de disque crée automatiquement ces montages sans passer par ces propriétés.
Si un administrateur Linux définit manuellement ces propriétés, l’instance ne sera plus opérationnelle.
Pour plus de détails sur la configuration du disque, consultez la section Prérequis pour le disque.
Assurez-vous que les ports suivants sont activés sur votre pare-feu pour chaque source.
Port |
Protocole |
Source |
Objectif |
Prérequis |
---|---|---|---|---|
|
TCP |
Jump Server / machine client |
Pour SSH (installation, débogage de la gestion du cluster) |
N'ouvrez pas ce port à Internet. Autorisez l'accès à la machine cliente ou au serveur de saut. |
|
TCP |
Installation hors ligne uniquement : requise pour l'envoi de notifications système par e-mail. | ||
|
TCP |
Tous les nœuds d'un cluster + équilibreur de charge |
Pour HTTPS (accès à Automation Suite) |
Ce port doit avoir une connectivité entrante et sortante à partir de tous les nœuds du cluster et de l'équilibreur de charge. |
|
TCP |
Installation hors ligne uniquement : requise pour l'envoi de notifications système par e-mail. | ||
|
TCP |
Tous les nœuds du cluster |
Utilisé par Cilium pour surveiller et gérer les plantages de pod. |
Ce port doit avoir une connectivité entrante et sortante à partir de tous les nœuds du cluster. |
Si vous avez activé Task Mining et enregistré un nœud Task Mining dédié et/ou enregistré un nœud dédié avec prise en charge GPU, assurez-vous qu'en plus de ce qui précède, les ports suivants sont activés sur votre pare-feu :
Port |
Protocole |
Source |
Objectif |
Prérequis |
---|---|---|---|---|
|
TCP |
Tous les nœuds du cluster |
port client etcd |
Ne doit pas être exposé à Internet. L'accès entre les nœuds devrait suffire pour une adresse IP privée. |
|
TCP |
Tous les nœuds du cluster |
port homologue etcd |
Ne doit pas être exposé à Internet. L'accès entre les nœuds devrait suffire pour une adresse IP privée. |
|
TCP |
Tous les nœuds du cluster |
Sert à accéder à l'API Kube via HTTPS ; requis pour la jonction de nœud |
Ce port doit avoir une connectivité entrante et sortante à partir de tous les nœuds du cluster. |
|
UDP |
Tous les nœuds du cluster |
Obligatoire pour Cilium. |
Ne doit pas être exposé à Internet. L'accès entre les nœuds devrait suffire pour une adresse IP privée. |
|
TCP |
Tous les nœuds d'un cluster + équilibreur de charge |
Sert à accéder à l’API Kube via HTTPS ; requis pour la jonction de nœud |
Ce port doit avoir une connectivité entrante et sortante à partir de tous les nœuds du cluster et de l'équilibreur de charge. |
|
TCP |
Tous les nœuds du cluster |
kubelet / serveur de métriques |
Ne doit pas être exposé à Internet. L'accès entre les nœuds devrait suffire pour une adresse IP privée. |
|
TCP |
Tous les nœuds du cluster |
Port NodePort pour la communication interne entre les nœuds d'un cluster |
Ne doit pas être exposé à Internet. L'accès entre les nœuds devrait suffire pour une adresse IP privée. |
6443
en dehors des limites du cluster est obligatoire s'il existe une connexion directe à l'API Kerberos.
9345
est utilisé par les nœuds pour découvrir les nœuds existants et joindre le cluster dans le déploiement multi-nœuds. Pour que les mécanismes de découverte haute disponibilité restent en cours d'exécution, nous vous recommandons de les exposer via l'équilibreur de charge avec une vérification de l'état.
Assurez-vous également que tous les nœuds sont connectés au serveur SQL.
N’exposez pas le SQL server sur l’un des ports réservés d’Istio, car cela pourrait entraîner des échecs de connexion.
Si vous avez configuré un pare-feu sur le réseau, assurez-vous que ces ports sont ouverts et autorisent le trafic conformément aux exigences mentionnées ci-dessus.
Pour installer et valider les packages RPM requis, vous pouvez utiliser l'un des outils suivants
- le programme d'installation manuel install-uipath.sh ; Dans les environnements en ligne, il installe et valide tous les packages RPM par défaut.
- le
installUiPathAS.sh
programme d'installation interactif. Il valide tous les packages RPM via le programme d'installationinstall-uipath.sh
. -
- pour valider les packages RPM, exécutez :
validateUiPathASReadiness.sh validate-packages
; - pour installer les packages RPM dans une installation en ligne, exécutez :
validateUiPathASReadiness.sh install-packages
; - pour installer les packages RPM dans une installation hors ligne, exécutez :
validateUiPathASReadiness.sh install-packages --install-type offline
.
- pour valider les packages RPM, exécutez :
Pour obtenir la liste des exigences des packages RPM, consultez Exigences matérielles et logicielles ( Hardware and software requirements).
Cette section explique comment activer FIPS 140-2 sur vos machines.
Vous pouvez activer FIPS sur vos machines virtuelles basées sur Red Hat Linux. Pour ce faire, procédez comme suit :
-
Activez FIPS en exécutant la commande suivante sur toutes vos machines avant de démarrer l'installation :
fips-mode-setup --enable
fips-mode-setup --enable -
Redémarrez vos machines et vérifiez si vous avez correctement activé FIPS en exécutant la commande suivante :
fips-mode-setup --check
fips-mode-setup --check
Pour plus de détails sur les étapes supplémentaires que vous devez suivre pour commencer à utiliser Automation Suite sur des machines FIPS 140-2, consultez les Meilleures pratiques de sécurité.
Pour configurer un proxy, vous devez effectuer des étapes de configuration supplémentaires lors de la configuration de votre environnement avec les prérequis et pendant la phase de configuration avancée de l'installation.
Les étapes suivantes sont requises lors de la configuration de votre environnement.
Nous ne prenons actuellement pas en charge le proxy HTTPS avec des certificats auto-signés. Assurez-vous d'utiliser un certificat public approuvé si vous configurez le proxy.
Assurez-vous que les règles suivantes sont activées sur votre groupe de sécurité réseau pour le réseau virtuel donné.
Source |
Destination |
Routage via proxy |
Port |
Description |
---|---|---|---|---|
Réseau virtuel |
SQL |
Non (No) |
Port SQL Server |
Requis pour SQL Server. |
Réseau virtuel |
Load balancer |
Non (No) |
|
Requis pour ajouter de nouveaux nœuds au cluster. |
Réseau virtuel |
Cluster (sous-réseau) |
Non (No) |
Tous les ports |
Requis pour la communication via une plage d'adresses IP privée. |
Réseau virtuel |
|
Non (No) |
|
Requis pour la connexion et l'utilisation du client ArgoCD pendant le déploiement. |
Réseau virtuel |
Proxy Server |
Oui (Yes) |
Tous les ports |
Requis pour acheminer le trafic vers le serveur proxy. |
Réseau virtuel |
NameServer |
Non (No) |
Tous les ports |
La plupart des services cloud tels qu'Azure et AWS l'utilisent pour récupérer les métadonnées de la machine virtuelle et la considèrent comme une adresse IP privée. |
Réseau virtuel |
MetaDataServer |
Non (No) |
Tous les ports |
La plupart des services cloud tels qu'Azure et AWS utilisent l'adresse IP
169.254.169.254 pour récupérer les métadonnées de la machine.
|
Lors de la configuration des nœuds, vous devez ajouter la configuration du proxy à chaque nœud faisant partie du cluster. Cette étape est nécessaire pour acheminer le trafic sortant du nœud via le serveur proxy.
-
Ajoutez la configuration suivante dans
/etc/environment
:http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>
http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server> -
Ajoutez la configuration suivante dans
/etc/wgetrc
:http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>
http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>Paramètres obligatoires
Description
http_proxy
Utilisé pour acheminer les requêtes sortantes HTTP à partir du nœud. Il doit s'agir du nom de domaine complet et du port du serveur proxy.
https_proxy
Utilisé pour acheminer les requêtes sortantes HTTPS à partir du nœud. Il doit s'agir du nom de domaine complet et du port du serveur proxy.
no_proxy
Liste d'hôtes séparés par des virgules et d'adresses IP que vous ne souhaitez pas acheminer via le serveur proxy. Il doit s'agir d'un sous-réseau privé, d'un hôte du serveur SQL, d'une adresse de serveur nommée et d'une adresse de serveur de métadonnées :alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>
named server address
– La plupart des services cloud tels qu'Azure et AWS l'utilisent pour résoudre la requête DNS.metadata server address
: La plupart des services cloud tels qu'Azure et AWS utilisent l'adresse IP169.254.169.254
pour récupérer les métadonnées de la machine.
Important :Si vous utilisez AI Center avec une installation Orchestrator externe, vous devez ajouter le domaine Orchestrator externe à la listeno_proxy
. -
Vérifiez si les paramètres de proxy sont correctement configurés en exécutant la commande suivante :
curl -v $HTTP_PROXY curl -v <fixed_rke_address>:9345
curl -v $HTTP_PROXY curl -v <fixed_rke_address>:9345Attention : Une fois que vous remplissez les conditions requises pour le serveur proxy, assurez-vous de poursuivre la configuration du proxy lors de l'installation. Suivez les étapes dans Facultatif : Configuration du serveur proxy pour vous assurer que le serveur proxy est correctement configuré.
- Configuration du disque
- Prérequis pour le disque
- Utiliser le script pour configurer le disque
- Configuration du disque pour une configuration en mode d'évaluation à nœud unique
- Configuration du disque magasin d'objets
- Extension de la post-installation du disque de données
- Validation des montages de disque
- Configurer les paramètres au niveau du noyau et du système d’exploitation
- Désactiver la mémoire d’échange
- Configuration des paramètres sysctl
- Configuration des paramètres fapolicy
- Configuration des paramètres noexec et nosuid
- Activation des ports
- Installation des packages RPM requis
- Facultatif : Activation de FIPS 140-2
- Facultatif : configuration du serveur proxy
- Étape 1 : Activation des ports sur le réseau virtuel
- Étape 2 : Ajouter une configuration de proxy à chaque nœud