Automation Suite
2022.10
False
Image de fond de la bannière
Guide d'installation d'Automation Suite
Dernière mise à jour 24 avr. 2024

Configuration des machines

Configurer les paramètres au niveau du noyau et du système d’exploitation

La page suivante permet aux administrateurs Linux de gérer les paramètres au niveau du système d’exploitation et du noyau avant de procéder à une installation Automation Suite.

En général, ces paramètres sont gérés par un outil de configuration de gestion dédié, tel que Puppet. Assurez-vous que les modifications que vous apportez sont conformes au processus de contrôle de votre environnement, à des fins de cohérence et de documentation.

Important :

Veillez à ce que les étapes suivantes aient été effectuées avant de commencer l’installation, car des erreurs de configuration au niveau du système d’exploitation et du noyau peuvent entraîner des erreurs non intuitives. La vérification de chacun de ces paramètres permet souvent d’éviter ce genre d’erreurs.

Configuration des paramètres sysctl

The following sysctl settings are required on the machine:
  • Activer le transfert IP

  • disable reverse path filtering

Vous pouvez procéder à cela en exécutant la commande suivante :

cat <<EOF >>"/etc/sysctl.d/99-sysctl.conf"
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.ipv4.conf.all.rp_filter=0
EOFcat <<EOF >>"/etc/sysctl.d/99-sysctl.conf"
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.ipv4.conf.all.rp_filter=0
EOF
Remarque : le nf-call-iptables est nécessaire pour la plupart des déploiements Kubernetes. Kubernetes crée des réseaux virtuels internes au cluster. Cela permet à chaque pod d’avoir sa propre adresse IP, qui est utilisée conjointement avec les services de noms internes pour faciliter la communication de service à service. Le cluster ne fonctionne pas sans nf-call-iptables activé. Pour plus de détails, consultez la documentation officielle de Kubernetes.

Configuration des paramètres fapolicy

Si vous utilisez fapolicy, une politique spécifique à RKE2 est requise. Pour générer celle-ci, utilisez la commande suivante :

cat <<-EOF >>"/etc/fapolicyd/rules.d/69-rke2.rules"
allow perm=any all : dir=/var/lib/rancher/
allow perm=any all : dir=/opt/cni/
allow perm=any all : dir=/run/k3s/
allow perm=any all : dir=/var/lib/kubelet/
EOFcat <<-EOF >>"/etc/fapolicyd/rules.d/69-rke2.rules"
allow perm=any all : dir=/var/lib/rancher/
allow perm=any all : dir=/opt/cni/
allow perm=any all : dir=/run/k3s/
allow perm=any all : dir=/var/lib/kubelet/
EOF
Remarque :

Veillez à ce que cette modification ait bien été communiquée à votre équipe Linux et que les procédures adéquates aient été appliquées en matière de gestion de la configuration.

Configuration des paramètres noexec et nosuid

Les ensembles noexec et nosuid ne doivent pas être définis concernant les disques utilisés pour le montage /var/lib/rancher. L’outil de disque crée automatiquement ces montages sans passer par ces propriétés.
Important :

Si un administrateur Linux définit manuellement ces propriétés, l’instance ne sera plus opérationnelle.

Pour plus de détails sur la configuration du disque, consultez la section Prérequis pour le disque.

Configuration du disque

Attention : Pour éviter la perte de données, assurez-vous que l'infrastructure que vous utilisez ne supprime pas automatiquement les disques du cluster lors du redémarrage ou de l'arrêt du cluster. Si cette fonctionnalité est activée, veillez à la désactiver.
Vous pouvez configurer et partitionner les disques à l'aide du script configureUiPathDisks.sh . Pour plus de détails, consultez les sections suivantes.

Prérequis pour le disque

Avant l'installation, vous devez partitionner et configurer le disque à l'aide de LVM, afin que sa taille puisse être modifiée facilement et sans aucune migration ou perte de données.

Partitionnement du disque

La structure de partitionnement par défaut sur les machines RHEL n'est pas adaptée à l'installation de Kubernetes. En effet, l'infrastructure Kubernetes est généralement installée sous la partition /var. Par défaut, la partition var ne se voit allouer que 8 Go d'espace.
Remarque :
  • Le format de disque pris en charge est ext4 ou xfs.
  • Toutes les partitions doivent être créées à l'aide de LVM. Cela permet de s'assurer que les données du cluster peuvent résider sur un disque différent, mais qu'elles peuvent toujours être visualisées de manière cohérente. Cela aide également à étendre la taille de la partition à l'avenir sans risque de migration ou de perte de données.
  • Tous les pods et les journaux d'application sont stockés dans le répertoire /var/log/pods. Assurez-vous que la capacité de ce répertoire est d'au moins 8 Gio. Nous vous recommandons également de configurer logrotate de façon à effectuer une rotation des journaux à un intervalle situé entre un jour et une semaine.

Pour le système d'exploitation RHEL OS, vous devez vous assurer que vous disposez des tailles de point de montage minimales suivantes sur la machine.

En ligne

Libellé du disque

Partition

Taille

Objectif

Disque de cluster

/var/lib/rancher

190 Gio

Le dossier Rancher stocke les images et les couches de conteneurs

/var/lib/kubelet

56 Gio

Le dossier Kubelet stocke les configurations de runtime Kubernetes telles que secrets, configmaps et emptyDir

/opt/UiPathAutomationSuite

20 GiB

Binaire du programme d'installation

disque etcd

/var/lib/rancher/rke2/server/db

16 Gio

Base de données distribuée pour Kubernetes

Bloquer le stockage

/datadisk512 Gio

Bloquer l'abstraction de stockage

Magasin d'objets (Objectstore)1

S/O

512 Gio

Magasin d'objets en cluster

1 Cela fait référence au magasin d'objets intégré au cluster et ne s'applique pas si vous utilisez un magasin d'objet externe.
Remarque :
Nous vous recommandons de ne pas utiliser le disque du système d’exploitation pour les finalités détaillées ci-dessus afin de vous assurer que les processus obtiennent leur juste partage de ressources.
Hors ligne
Remarque :

Les prérequis pour le mode hors connexion sont les mêmes que ceux pour le mode en ligne, à l'exception de la machine sur laquelle vous exécutez l'installation, qui nécessite les conditions suivantes.

L'espace supplémentaire est nécessaire pour décompresser le bundle hors ligne.

Libellé du disque

Partition

Taille

Objectif

Disque de cluster

/var/lib/rancher

190 Gio

Le dossier Rancher stocke les images et les couches de conteneurs

/var/lib/kubelet

56 Gio

Le dossier Kubelet stocke les configurations de runtime Kubernetes telles que secrets, configmaps et emptyDir

/opt/UiPathAutomationSuite

20 GiB

Binaire du programme d'installation

disque etcd

/var/lib/rancher/rke2/server/db

16 Gio

Base de données distribuée pour Kubernetes

Bloquer le stockage

/datadisk

512 Gio

Bloquer l'abstraction de stockage

Magasin d'objets (Objectstore)1

S/O

512 Gio

Magasin d'objets en cluster

Disque de bundle UiPath

/uipath512 Gio

Bundle physiquement isolé

1 Cela fait référence au magasin d'objets intégré au cluster et ne s'applique pas si vous utilisez un magasin d'objet externe.
Remarque :
Nous vous recommandons de ne pas utiliser le disque du système d’exploitation pour les finalités détaillées ci-dessus afin de vous assurer que les processus obtiennent leur juste partage de ressources.
Remarque :

Les disques de données et etcd doivent être des disques physiques distincts. Cela isole physiquement les données et les disques etcd des autres charges de travail et activités du cluster tout en améliorant les performances et la stabilité du cluster.

Consultez la section suivante pour plus de détails sur l'utilisation de l'exemple de script pour partitionner et configurer le disque avant l'installation.

Utiliser le script pour configurer le disque

Téléchargement du script

Remarque : Pour les installations hors ligne, vous devez effectuer cette étape sur une machine ayant accès à Internet et aux machines isolées sur lesquelles Automation Suite est déployée. Copiez les fichiers de la machine en ligne vers la première machine cible.
Vous pouvez utiliser le script configureUiPathDisks.sh pour configurer et partitionner le disque.

Pour obtenir des instructions de téléchargement, consultez configureUiPathDisks.sh.

Exécution du script

Vous pouvez utiliser le script configureUiPathDisks.sh aux fins suivantes :
  • configurer les disques et les points de montage pour une nouvelle installation de cluster Automation Suite ;
  • redimensionner le disque de données après l'installation.

Pour rendre le script exécutable, exécutez :

chmod +x ./configureUiPathDisks.shchmod +x ./configureUiPathDisks.sh

Pour plus de détails sur l'utilisation du script, exécutez :

sudo ./configureUiPathDisks.sh --help
***************************************************************************************
Utility to configure the disk for UiPath Automation Suite Installation.
Run this script to configure the disks on new machine or to extend the size of datadisk
Arguments
  -n|--node-type                  NodeType, Possible values: agent, server. Default to server.
  -i|--install-type               Installation mode, Possible values: online, offline. Default to online.
  -c|--cluster-disk-name          Device to host rancher and  kubelet. Ex: /dev/sdb.
  -e|--etcd-disk-name             Device to host etcd, Not required for agent node. Ex: /dev/sdb.
  -R|--ceph-raw-disk-name         Device to host ceph OSD, Not required for agent node. Ex: /dev/sdm
  -l|--data-disk-name             Device to host datadisk, Not required for agent node. Ex: /dev/sdc.
  -b|--bundle-disk-name           Device to host the uipath bundle.
                                    Only required for offline installation on 1st server node.
  -k|--robot-package-disk-name    Device to host robot package cache folder
                                    Only required for Automation Suite Robots dedicated node when 'packagecaching' is enabled
  -P|--robot-package-path         Path to robot package cache folder
                                    (defaults to '/uipath_asrobots_package_cache' if not set)
  -f|--complete-suite             Installing complete product suite or any of these products:
                                    aicenter, apps, taskmining, documentunderstanding.
                                    This will configure the datadisk volume to be 2TiB instead of 512Gi.
  -p|--primary-server             Is this machine is first server machine? Applicable only for airgap install.
                                    This is the machine on which UiPath AutomationSuite bundle will be installed.
                                    Default to false.
  -x|--extend-data-disk           Extend the datadisk. Either attach new disk or resize the exiting datadisk.
  -r|--resize                     Used in conjunction of with --extend-data-disk to resize the exiting volume,
                                    instead of adding new volume.
  -d|--debug                      Run in debug.
  -h|--help                       Display help.
ExampleUsage:
  configureUiPathDisks.sh --node-type server --install-type online \
    --cluster-disk-name /dev/sdb --etcd-disk-name /dev/sdc \
    --data-disk-name /dev/sdd
  configureUiPathDisks.sh --data-disk-name /dev/sdh \
    --extend-data-disk
***************************************************************************************sudo ./configureUiPathDisks.sh --help
***************************************************************************************
Utility to configure the disk for UiPath Automation Suite Installation.
Run this script to configure the disks on new machine or to extend the size of datadisk
Arguments
  -n|--node-type                  NodeType, Possible values: agent, server. Default to server.
  -i|--install-type               Installation mode, Possible values: online, offline. Default to online.
  -c|--cluster-disk-name          Device to host rancher and  kubelet. Ex: /dev/sdb.
  -e|--etcd-disk-name             Device to host etcd, Not required for agent node. Ex: /dev/sdb.
  -R|--ceph-raw-disk-name         Device to host ceph OSD, Not required for agent node. Ex: /dev/sdm
  -l|--data-disk-name             Device to host datadisk, Not required for agent node. Ex: /dev/sdc.
  -b|--bundle-disk-name           Device to host the uipath bundle.
                                    Only required for offline installation on 1st server node.
  -k|--robot-package-disk-name    Device to host robot package cache folder
                                    Only required for Automation Suite Robots dedicated node when 'packagecaching' is enabled
  -P|--robot-package-path         Path to robot package cache folder
                                    (defaults to '/uipath_asrobots_package_cache' if not set)
  -f|--complete-suite             Installing complete product suite or any of these products:
                                    aicenter, apps, taskmining, documentunderstanding.
                                    This will configure the datadisk volume to be 2TiB instead of 512Gi.
  -p|--primary-server             Is this machine is first server machine? Applicable only for airgap install.
                                    This is the machine on which UiPath AutomationSuite bundle will be installed.
                                    Default to false.
  -x|--extend-data-disk           Extend the datadisk. Either attach new disk or resize the exiting datadisk.
  -r|--resize                     Used in conjunction of with --extend-data-disk to resize the exiting volume,
                                    instead of adding new volume.
  -d|--debug                      Run in debug.
  -h|--help                       Display help.
ExampleUsage:
  configureUiPathDisks.sh --node-type server --install-type online \
    --cluster-disk-name /dev/sdb --etcd-disk-name /dev/sdc \
    --data-disk-name /dev/sdd
  configureUiPathDisks.sh --data-disk-name /dev/sdh \
    --extend-data-disk
***************************************************************************************

Configuration du disque pour une configuration en mode production multi-nœuds compatible haute disponibilité

En ligne

Nœuds de serveur

Pour configurer le disque dans une configuration en ligne en mode de production multi-nœuds compatible haute disponibilité, exécutez la commande suivante sur toutes les machines serveur :

./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --etcd-disk-name name_of_etcd_disk \
  --data-disk-name name_of_data_disk./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --etcd-disk-name name_of_etcd_disk \
  --data-disk-name name_of_data_disk
Nœuds d'agent

Pour configurer le disque dans une configuration en ligne en mode de production multi-nœuds compatible haute disponibilité, exécutez la commande suivante sur toutes les machines agent :

./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --node-type agent./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --node-type agent

Hors ligne

Premier nœud de serveur

Dans une installation hors ligne, vous devez charger les images du produit dans le registre Docker. Pour cela, un stockage supplémentaire sous la forme d'un disque séparé est nécessaire. Ce disque sera utilisé pour décompresser les bundles de produits et télécharger des images dans le registre docker. Il doit être présent uniquement sur une machine.

Définissez l'indicateur --primary-server sur l'une des machines serveur ou la machine sur laquelle le programme d'installation de Fabric et du service s'exécutera.

Pour configurer le disque dans une configuration en ligne en mode de production multi-nœuds compatible haute disponibilité, exécutez la commande suivante sur l'une des machines serveur :

./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --etcd-disk-name name_of_etcd_disk \
  --data-disk-name name_of_data_disk \
  --bundle-disk-name name_of_uipath_bundle_disk \
  --primary-server \
  --install-type offline./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --etcd-disk-name name_of_etcd_disk \
  --data-disk-name name_of_data_disk \
  --bundle-disk-name name_of_uipath_bundle_disk \
  --primary-server \
  --install-type offline
Nœuds de serveur supplémentaires
Sur les nœuds de serveur, vous n'avez pas besoin du disque de bundle. Par conséquent, vous n'avez pas besoin de fournir le --primary-server et le --bundle-disk-name.

Pour configurer le disque dans une configuration en ligne en mode de production multi-nœuds compatible haute disponibilité, exécutez la commande suivante sur les autres machines serveur :

./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --etcd-disk-name name_of_etcd_disk \
  --data-disk-name name_of_data_disk \
  --install-type offline./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --etcd-disk-name name_of_etcd_disk \
  --data-disk-name name_of_data_disk \
  --install-type offline
Nœuds d'agent
Sur les nœuds de serveur, vous n'avez pas besoin du disque de bundle. Par conséquent, vous n'avez pas besoin de fournir le --primary-server et le --bundle-disk-name.

Pour configurer le disque dans une configuration en ligne en mode de production multi-nœuds compatible haute disponibilité, exécutez la commande suivante sur les autres machines agent.

./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --node-type agent \
  --install-type offline./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --node-type agent \
  --install-type offline

Configuration du disque magasin d'objets

Vous pouvez augmenter la taille de stockage du magasin d'objets intégré au cluster en exécutant le script suivant :

./configureUiPathDisks.sh --ceph-raw-disk-name name_ceph_raw_disk./configureUiPathDisks.sh --ceph-raw-disk-name name_ceph_raw_disk
Remarque :
  • Un problème connu d’Azure marque à tort le disque Azure comme non-SSD. Si Azure est votre fournisseur Cloud et que vous souhaitez configurer le disque magasin d'objets, suivez les instructions dans Résolution des problèmes.

  • La mise à l'échelle verticale des disques existants n'est pas prise en charge. Pour augmenter la taille de votre stockage intégré au cluster après l'installation, ajoutez de nouveaux disques bruts.

Extension de la post-installation du disque de données

Pour étendre le disque de données, vous pouvez attacher le nouveau disque physique ou redimensionner le disque existant.

Ajout d'un nouveau disque

Pour étendre le disque de données à l'aide du disque nouvellement attaché, exécutez la commande suivante sur les machines serveur :

./configureUiPathDisks.sh --data-disk-name name_of_data_disk \
  --extend-data-disk./configureUiPathDisks.sh --data-disk-name name_of_data_disk \
  --extend-data-disk

Redimensionner le disque existant

Pour étendre le disque de données en redimensionnant le disque existant, exécutez la commande suivante sur les machines serveur :

./configureUiPathDisks.sh --extend-data-disk --resize./configureUiPathDisks.sh --extend-data-disk --resize

Validation des montages de disque

  1. Suivez les étapes suivantes pour valider que /etc/fstab est correctement configuré pour gérer le redémarrage du système.
    Remarque :
    Assurez-vous que les points de montage etcd et datadisk sont ajoutés dans le fichier fstab.
    Si vous avez une partition de disque distincte pour /var/lib/rancher et /var/lib/kubelet, alors fstab devrait également contenir ces deux dossiers. Assurez-vous également d'inclure l'option nofail dans ces entrées fstab afin qu'elle n'affecte pas le démarrage de la machine virtuelle en cas d'échec.
  2. Vérifiez que les disques sont montés correctement en exécutant la commande suivante :

    mount -afvmount -afv
  3. Vous devriez obtenir la réponse suivante :

    /datadisk                              : already mounted
    /var/lib/rancher/rke2/server/db        : already mounted
    /var/lib/rancher                       : already mounted
    /var/lib/kubelet                       : already mounted/datadisk                              : already mounted
    /var/lib/rancher/rke2/server/db        : already mounted
    /var/lib/rancher                       : already mounted
    /var/lib/kubelet                       : already mounted

Activation des ports

Assurez-vous que les ports suivants sont activés sur votre pare-feu pour chaque source.

Port

Protocole

Source

Objectif

Prérequis

22

TCP

Jump Server / machine client

Pour SSH (installation, débogage de la gestion du cluster)

N'ouvrez pas ce port à Internet. Autorisez l'accès à la machine cliente ou au serveur de saut.

80

TCP

 

Installation hors ligne uniquement : requise pour l'envoi de notifications système par e-mail.

 

443

TCP

Tous les nœuds d'un cluster + équilibreur de charge

Pour HTTPS (accès à Automation Suite)

Ce port doit avoir une connectivité entrante et sortante à partir de tous les nœuds du cluster et de l'équilibreur de charge.

587

TCP

 

Installation hors ligne uniquement : requise pour l'envoi de notifications système par e-mail.

 

2379

TCP

Tous les nœuds du cluster

port client etcd

Ne doit pas être exposé à Internet. L'accès entre les nœuds devrait suffire pour une adresse IP privée.

2380

TCP

Tous les nœuds du cluster

port homologue etcd

Ne doit pas être exposé à Internet. L'accès entre les nœuds devrait suffire pour une adresse IP privée.

6443

TCP

Tous les nœuds du cluster

Sert à accéder à l'API Kube via HTTPS ; requis pour la jonction de nœud

Ce port doit avoir une connectivité entrante et sortante à partir de tous les nœuds du cluster.

8472

UDP

Tous les nœuds du cluster

Requis pour Flannel (VXLAN)

Ne doit pas être exposé à Internet. L'accès entre les nœuds devrait suffire pour une adresse IP privée.

9090

TCP

Tous les nœuds du cluster

Utilisé par Cilium pour surveiller et gérer les plantages de pod.

Ce port doit avoir une connectivité entrante et sortante à partir de tous les nœuds du cluster.

9345

TCP

Tous les nœuds d'un cluster + équilibreur de charge

Sert à accéder à l’API Kube via HTTPS ; requis pour la jonction de nœud

Ce port doit avoir une connectivité entrante et sortante à partir de tous les nœuds du cluster et de l'équilibreur de charge.

10250

TCP

Tous les nœuds du cluster

kubelet / serveur de métriques

Ne doit pas être exposé à Internet. L'accès entre les nœuds devrait suffire pour une adresse IP privée.

30071

TCP

Tous les nœuds du cluster

Port NodePort pour la communication interne entre les nœuds d'un cluster

Ne doit pas être exposé à Internet. L'accès entre les nœuds devrait suffire pour une adresse IP privée.

Important :
L'exposition du port 6443 en dehors des limites du cluster est obligatoire s'il existe une connexion directe à l'API Kerberos.
Le port 9345 est utilisé par les nœuds pour découvrir les nœuds existants et joindre le cluster dans le déploiement multi-nœuds. Pour que les mécanismes de découverte haute disponibilité restent en cours d'exécution, nous vous recommandons de les exposer via l'équilibreur de charge avec une vérification de l'état.

Assurez-vous également que tous les nœuds sont connectés au serveur SQL.

N'exposez pas le serveur SQL sur l'un des ports réservés d'Istio, car cela pourrait entraîner des échecs de connexion.

Si vous avez configuré un pare-feu sur le réseau, assurez-vous que ces ports sont ouverts et autorisent le trafic conformément aux exigences mentionnées ci-dessus.

Installation des packages RPM requis

Pour installer et valider les packages RPM requis, vous pouvez utiliser l'un des outils suivants

  • le programme d'installation manuel install-uipath.sh ; Dans les environnements en ligne, il installe et valide tous les packages RPM par défaut.
  • le installUiPathAS.sh programme d'installation interactif. Il valide tous les packages RPM via le programme d'installation install-uipath.sh.
    • pour valider les packages RPM, exécutez : validateUiPathASReadiness.sh validate-packages ;
    • pour installer les packages RPM dans une installation en ligne, exécutez : validateUiPathASReadiness.sh install-packages ;
    • pour installer les packages RPM dans une installation hors ligne, exécutez : validateUiPathASReadiness.sh install-packages --install-type offline.

Pour obtenir la liste des exigences des packages RPM, consultez Exigences matérielles et logicielles ( Hardware and software requirements).

Facultatif : configuration du serveur proxy

Pour configurer un proxy, vous devez effectuer des étapes de configuration supplémentaires lors de la configuration de votre environnement avec les prérequis et pendant la phase de configuration avancée de l'installation.

Les étapes suivantes sont requises lors de la configuration de votre environnement.

Remarque : Nous ne prenons actuellement pas en charge le proxy HTTPS avec des certificats auto-signés. Assurez-vous d'utiliser un certificat public approuvé si vous configurez le proxy.

Étape 1 : Activation des ports sur le réseau virtuel

Assurez-vous que les règles suivantes sont activées sur votre groupe de sécurité réseau pour le réseau virtuel donné.

Source

Destination

Routage via proxy

Port

Description

Réseau virtuel

SQL

Non (No)

Port SQL Server

Requis pour SQL Server.

Réseau virtuel

Load balancer

Non (No)

9345

6443

Requis pour ajouter de nouveaux nœuds au cluster.

Réseau virtuel

Cluster (sous-réseau)

Non (No)

Tous les ports

Requis pour la communication via une plage d'adresses IP privée.

Réseau virtuel

alm.<fqdn>

Non (No)

443

Requis pour la connexion et l'utilisation du client ArgoCD pendant le déploiement.

Réseau virtuel

Proxy Server

Oui (Yes)

Tous les ports

Requis pour acheminer le trafic vers le serveur proxy.

Réseau virtuel

NameServer

Non (No)

Tous les ports

La plupart des services cloud tels qu'Azure et AWS l'utilisent pour récupérer les métadonnées de la machine virtuelle et la considèrent comme une adresse IP privée.

Réseau virtuel

MetaDataServer

Non (No)

Tous les ports

La plupart des services cloud tels qu'Azure et AWS utilisent l'adresse IP 169.254.169.254 pour récupérer les métadonnées de la machine.

Étape 2 : Ajouter une configuration de proxy à chaque nœud

Lors de la configuration des nœuds, vous devez ajouter la configuration du proxy à chaque nœud faisant partie du cluster. Cette étape est nécessaire pour acheminer le trafic sortant du nœud via le serveur proxy.

  1. Ajoutez la configuration suivante dans /etc/environment :
    http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>
  2. Ajoutez la configuration suivante dans /etc/wgetrc :
    http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>

    Paramètres obligatoires

    Description

    http_proxy

    Utilisé pour acheminer les requêtes sortantes HTTP à partir du nœud. Il doit s'agir du nom de domaine complet et du port du serveur proxy.

    https_proxy

    Utilisé pour acheminer les requêtes sortantes HTTPS à partir du nœud. Il doit s'agir du nom de domaine complet et du port du serveur proxy.

    no_proxy

    Liste d'hôtes séparés par des virgules et d'adresses IP que vous ne souhaitez pas acheminer via le serveur proxy. Il doit s'agir d'un sous-réseau privé, d'un hôte du serveur SQL, d'une adresse de serveur nommée et d'une adresse de serveur de métadonnées : alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address> .
    • metadata server address : La plupart des services cloud tels qu'Azure et AWS utilisent l'adresse IP 169.254.169.254 pour récupérer les métadonnées de la machine.
    • named server address – La plupart des services cloud tels qu'Azure et AWS l'utilisent pour résoudre la requête DNS.
    Important :
    Si vous utilisez AI Center avec une installation Orchestrator externe, vous devez ajouter le domaine Orchestrator externe à la liste no_proxy.
  3. Vérifiez si les paramètres de proxy sont correctement configurés en exécutant la commande suivante :

    curl -v $HTTP_PROXY
    curl -v <fixed_rke_address>:9345curl -v $HTTP_PROXY
    curl -v <fixed_rke_address>:9345
    Attention : Une fois que vous remplissez les conditions requises pour le serveur proxy, assurez-vous de poursuivre la configuration du proxy lors de l'installation. Suivez les étapes dans Facultatif : Configuration du serveur proxy pour vous assurer que le serveur proxy est correctement configuré.

Cette page vous a-t-elle été utile ?

Obtenez l'aide dont vous avez besoin
Formation RPA - Cours d'automatisation
Forum de la communauté UiPath
Logo Uipath blanc
Confiance et sécurité
© 2005-2024 UiPath. All rights reserved.