automation-suite
2021.10
false
Important :
Veuillez noter que ce contenu a été localisé en partie à l’aide de la traduction automatique.
UiPath logo, featuring letters U and I in white
Non pris en charge par l'assistance
Guide d'installation d'Automation Suite
Last updated 21 nov. 2024

Configuration des machines

Configuration du disque

Important :
  • Pour éviter la perte de données, assurez-vous que l'infrastructure que vous utilisez ne supprime pas automatiquement les disques du cluster lors du redémarrage ou de l'arrêt du cluster. Si cette fonctionnalité est activée, veillez à la désactiver.
  • Pour garantir une session SSH fluide et sans interruption, nous vous recommandons fortement de suivre les étapes décrites dans les Bonnes pratiques d’installation avant de configurer les disques et d’installer Automation Suite.
Vous pouvez configurer et partitionner les disques à l'aide du script configureUiPathDisks.sh . Pour plus de détails, consultez les sections suivantes.

Prérequis pour le disque

Avant l'installation, vous devez partitionner et configurer le disque à l'aide de LVM, afin que sa taille puisse être modifiée facilement et sans aucune migration ou perte de données.

Partitionnement du disque

La structure de partitionnement par défaut sur les machines RHEL n'est pas adaptée à l'installation de Kubernetes. En effet, l'infrastructure Kubernetes est généralement installée sous la partition /var. Par défaut, la partition var ne se voit allouer que 8 Go d'espace.
Remarque :
Le format de disque pris en charge est ext4 ou xfs.

Toutes les partitions doivent être créées à l'aide de LVM. Cela permet de s'assurer que les données du cluster peuvent résider sur un disque différent, mais qu'elles peuvent toujours être visualisées de manière cohérente. Cela aide également à étendre la taille de la partition à l'avenir sans risque de migration ou de perte de données.

Pour le système d'exploitation RHEL OS, vous devez vous assurer que vous disposez des tailles de point de montage minimales suivantes sur la machine.

En ligne

Libellé du disque

Partition

Taille

Objectif

Disque de cluster

/var/lib/rancher

190 Gio

Le dossier Rancher stocke les images et les couches de conteneurs

/var/lib/kubelet

56 Gio

Le dossier Kubelet stocke les configurations de runtime Kubernetes telles que secrets, configmaps et emptyDir

/opt/UiPathAutomationSuite

10 Gio

Binaire du programme d'installation

disque etcd

/var/lib/rancher/rke2/server/db

16 Gio

Base de données distribuée pour Kubernetes

DataDisk

/datadisk

512 Gio (installation de base)

Bloquer l'abstraction de stockage

2 Tio (installation complète)

Remarque :
Nous vous recommandons de ne pas utiliser le disque du système d’exploitation pour les finalités détaillées ci-dessus afin de vous assurer que les processus obtiennent leur juste partage de ressources.
Hors ligne
Remarque :

Les prérequis pour le mode hors connexion sont les mêmes que ceux pour le mode en ligne, à l'exception de la première machine sur laquelle vous exécutez l'installation, qui nécessite les conditions suivantes.

L'espace supplémentaire est nécessaire pour décompresser le bundle hors ligne.

Libellé du disque

Partition

Taille

Objectif

Disque de cluster

/var/lib/rancher

190 Gio

Le dossier Rancher stocke les images et les couches de conteneurs

/var/lib/kubelet

56 Gio

Le dossier Kubelet stocke les configurations de runtime Kubernetes telles que secrets, configmaps et emptyDir

/opt/UiPathAutomationSuite

10 Gio

Binaire du programme d'installation

disque etcd

/var/lib/rancher/rke2/server/db

16 Gio

Base de données distribuée pour Kubernetes

DataDisk

/datadisk

512 Gio (installation de base)

Bloquer l'abstraction de stockage

2 Tio (installation complète)

Disque de bundle UiPath

/uipath

512 Gio

Bundle physiquement isolé

Remarque :
Nous vous recommandons de ne pas utiliser le disque du système d’exploitation pour les finalités détaillées ci-dessus afin de vous assurer que les processus obtiennent leur juste partage de ressources.
Remarque :

Les disques de données et etcd doivent être des disques physiques distincts. Cela isole physiquement les données et les disques etcd des autres charges de travail et activités du cluster, tout en améliorant les performances et la stabilité du cluster.

Consultez la section suivante pour plus de détails sur l'utilisation de l'exemple de script pour partitionner et configurer le disque avant l'installation.

Utiliser le script pour configurer le disque

Téléchargement du script

Remarque : Pour les installations hors ligne, vous devez effectuer cette étape sur une machine ayant accès à Internet et aux machines isolées sur lesquelles Automation Suite est déployée. Copiez les fichiers de la machine en ligne vers la première machine cible.
Vous pouvez utiliser le script configureUiPathDisks.sh pour configurer et partitionner le disque.

Pour obtenir des instructions de téléchargement, consultez configureUiPathDisks.sh.

Exécution du script

Vous pouvez utiliser le script configureUiPathDisks.sh aux fins suivantes :
  • configurer les disques et les points de montage pour une nouvelle installation de cluster Automation Suite ;
  • redimensionner le disque de données après l'installation.

Pour rendre le script exécutable, exécutez :

chmod +x ./configureUiPathDisks.shchmod +x ./configureUiPathDisks.sh

Pour plus de détails sur l'utilisation du script, exécutez la commande suivante :

sudo ./configureUiPathDisks.sh --helpsudo ./configureUiPathDisks.sh --help
***************************************************************************************

Utility to configure the disk for UiPath Automation Suite Installation.
Run this script to configure the disks on new machine or to extend the size of datadisk

Arguments
  -n|--node-type                  NodeType, Possible values: agent, server. Default to server
  -i|--install-type               Installation mode, Possible values: online, offline. Default to online
  -c|--cluster-disk-name          Device to host rancher and  kubelet. Ex: /dev/sdb
  -e|--etcd-disk-name             Device to host etcd, Not required for agent node. Ex: /dev/sdb
  -l|--data-disk-name             Device to host datadisk, Not required for agent node. Ex: /dev/sdc
  -b|--bundle-disk-name           Device to host the uipath bundle. 
                                    Only required for offline installation on 1st server node 
  -f|--complete-suite             Installing complete product suite or any of these products: 
                                    aicenter, apps, taskmining, documentunderstanding. 
                                    This will configure the datadisk volume to be 2TiB instead of 512Gi.
  -p|--primary-server             Is this machine is first server machine? Applicable only for airgap install.
                                    This is the machine on which UiPath AutomationSuite bundle will be installed.
                                    Default to false
  -x|--extend-data-disk           Extend the datadisk. Either attach new disk or resize the exiting datadisk
  -r|--resize                     Used in conjunction of with --extend-data-disk to resize the exiting volume,
                                    instead of adding new volume               
  -d|--debug                      Run in debug
  -h|--help                       Display help

ExampleUsage:
  configureUiPathDisks.sh --node-type server --install-type online \
    --cluster-disk-name /dev/sdb --etcd-disk-name /dev/sdc \
    --data-disk-name /dev/sdd

  configureUiPathDisks.sh --data-disk-name /dev/sdh --extend-data-disk
******************************************************************************************************************************************************************************

Utility to configure the disk for UiPath Automation Suite Installation.
Run this script to configure the disks on new machine or to extend the size of datadisk

Arguments
  -n|--node-type                  NodeType, Possible values: agent, server. Default to server
  -i|--install-type               Installation mode, Possible values: online, offline. Default to online
  -c|--cluster-disk-name          Device to host rancher and  kubelet. Ex: /dev/sdb
  -e|--etcd-disk-name             Device to host etcd, Not required for agent node. Ex: /dev/sdb
  -l|--data-disk-name             Device to host datadisk, Not required for agent node. Ex: /dev/sdc
  -b|--bundle-disk-name           Device to host the uipath bundle. 
                                    Only required for offline installation on 1st server node 
  -f|--complete-suite             Installing complete product suite or any of these products: 
                                    aicenter, apps, taskmining, documentunderstanding. 
                                    This will configure the datadisk volume to be 2TiB instead of 512Gi.
  -p|--primary-server             Is this machine is first server machine? Applicable only for airgap install.
                                    This is the machine on which UiPath AutomationSuite bundle will be installed.
                                    Default to false
  -x|--extend-data-disk           Extend the datadisk. Either attach new disk or resize the exiting datadisk
  -r|--resize                     Used in conjunction of with --extend-data-disk to resize the exiting volume,
                                    instead of adding new volume               
  -d|--debug                      Run in debug
  -h|--help                       Display help

ExampleUsage:
  configureUiPathDisks.sh --node-type server --install-type online \
    --cluster-disk-name /dev/sdb --etcd-disk-name /dev/sdc \
    --data-disk-name /dev/sdd

  configureUiPathDisks.sh --data-disk-name /dev/sdh --extend-data-disk
***************************************************************************************

Configuration du disque pour une configuration en mode production multi-nœuds compatible haute disponibilité

En ligne

Nœuds de serveur

Pour configurer le disque dans une configuration en ligne en mode de production multi-nœuds compatible haute disponibilité, exécutez la commande suivante sur toutes les machines serveur :

./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --etcd-disk-name name_of_etcd_disk \
  --data-disk-name name_of_data_disk./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --etcd-disk-name name_of_etcd_disk \
  --data-disk-name name_of_data_disk
Nœuds d'agent

Pour configurer le disque dans une configuration en ligne en mode de production multi-nœuds compatible haute disponibilité, exécutez la commande suivante sur toutes les machines agent :

./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --node-type agent./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --node-type agent

Hors ligne

Premier nœud de serveur

Dans une installation hors ligne, vous devez charger les images du produit dans le registre Docker. Pour cela, un stockage supplémentaire sous la forme d'un disque séparé est nécessaire. Ce disque sera utilisé pour décompresser les bundles de produits et télécharger des images dans le registre docker. Il doit être présent uniquement sur la première machine.

Définissez l'indicateur --primary-server sur la première machine serveur ou la machine sur laquelle le programme d'installation de Fabric et du service s'exécutera.

Pour configurer le disque dans une configuration hors ligne en mode de production multi-nœuds compatible haute disponibilité, exécutez la commande suivante sur la première machine serveur :

./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --etcd-disk-name name_of_etcd_disk \
  --data-disk-name name_of_data_disk \
  --bundle-disk-name name_of_uipath_bundle_disk \
  --primary-server \
  --install-type offline./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --etcd-disk-name name_of_etcd_disk \
  --data-disk-name name_of_data_disk \
  --bundle-disk-name name_of_uipath_bundle_disk \
  --primary-server \
  --install-type offline
Nœuds de serveur supplémentaires
Sur les nœuds de serveur, vous n'avez pas besoin du disque de bundle. Par conséquent, vous n'avez pas besoin de fournir le --primary-server et le --bundle-disk-name.

Pour configurer le disque dans une configuration en ligne en mode de production multi-nœuds compatible haute disponibilité, exécutez la commande suivante sur les autres machines serveur :

./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --etcd-disk-name name_of_etcd_disk \
  --data-disk-name name_of_data_disk \
  --install-type offline./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --etcd-disk-name name_of_etcd_disk \
  --data-disk-name name_of_data_disk \
  --install-type offline
Nœuds d'agent
Sur les nœuds de serveur, vous n'avez pas besoin du disque de bundle. Par conséquent, vous n'avez pas besoin de fournir le --primary-server et le --bundle-disk-name.

Pour configurer le disque dans une configuration en ligne en mode de production multi-nœuds compatible haute disponibilité, exécutez la commande suivante sur les autres machines agent.

./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --node-type agent \
  --install-type offline./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --node-type agent \
  --install-type offline

Extension de la post-installation du disque de données

Pour étendre le disque de données, vous pouvez attacher le nouveau disque physique ou redimensionner le disque existant.

Ajout d'un nouveau disque

Pour étendre le disque de données à l'aide du disque nouvellement attaché, exécutez la commande suivante sur les machines serveur :

./configureUiPathDisks.sh --data-disk-name name_of_data_disk \
  --extend-data-disk./configureUiPathDisks.sh --data-disk-name name_of_data_disk \
  --extend-data-disk

Redimensionner le disque existant

Pour étendre le disque de données en redimensionnant le disque existant, exécutez la commande suivante sur les machines serveur :

./configureUiPathDisks.sh --extend-data-disk --resize./configureUiPathDisks.sh --extend-data-disk --resize

Validation des montages de disque

  1. Suivez les étapes suivantes pour valider que /etc/fstab est correctement configuré pour gérer le redémarrage du système.
    Remarque :
    Assurez-vous que les points de montage etcd et datadisk sont ajoutés dans le fichier fstab.
    Si vous avez une partition de disque distincte pour /var/lib/rancher et /var/lib/kubelet, alors fstab devrait également contenir ces deux dossiers. Assurez-vous également d'inclure l'option nofail dans ces entrées fstab afin qu'elle n'affecte pas le démarrage de la machine virtuelle en cas d'échec.
  2. Vérifiez que les disques sont montés correctement en exécutant la commande suivante :

    mount -afvmount -afv
  3. Vous devriez obtenir la réponse suivante :

    /datadisk                              : already mounted
    /var/lib/rancher/rke2/server/db        : already mounted
    /var/lib/rancher                       : already mounted
    /var/lib/kubelet                       : already mounted/datadisk                              : already mounted
    /var/lib/rancher/rke2/server/db        : already mounted
    /var/lib/rancher                       : already mounted
    /var/lib/kubelet                       : already mounted

Configurer les paramètres au niveau du noyau et du système d’exploitation

La page suivante permet aux administrateurs Linux de gérer les paramètres au niveau du système d’exploitation et du noyau avant de procéder à une installation Automation Suite.

En général, ces paramètres sont gérés par un outil de configuration de gestion dédié, tel que Puppet. Assurez-vous que les modifications que vous apportez sont conformes au processus de contrôle de votre environnement, à des fins de cohérence et de documentation.

Important :

Veillez à ce que les étapes suivantes aient été effectuées avant de commencer l’installation, car des erreurs de configuration au niveau du système d’exploitation et du noyau peuvent entraîner des erreurs non intuitives. La vérification de chacun de ces paramètres permet souvent d’éviter ce genre d’erreurs.

Configuration des paramètres sysctl

Les paramètres sysctl suivants sont requis sur la machine :
  • Activer le transfert IP

  • désactiver le filtrage par chemin inverse

Vous pouvez procéder à cela en exécutant la commande suivante :

cat <<EOF >>"/etc/sysctl.d/99-sysctl.conf"
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.ipv4.conf.all.rp_filter=0
EOFcat <<EOF >>"/etc/sysctl.d/99-sysctl.conf"
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.ipv4.conf.all.rp_filter=0
EOF
Remarque : le nf-call-iptables est nécessaire pour la plupart des déploiements Kubernetes. Kubernetes crée des réseaux virtuels internes au cluster. Cela permet à chaque pod d’avoir sa propre adresse IP, qui est utilisée conjointement avec les services de noms internes pour faciliter la communication de service à service. Le cluster ne fonctionne pas sans nf-call-iptables activé. Pour plus de détails, consultez la documentation officielle de Kubernetes.

Exécutez la commande suivante afin d’appliquer les paramètres :

sysctl --systemsysctl --system

Configuration des paramètres fapolicy

Si vous utilisez fapolicy, une politique spécifique à RKE2 est requise. Pour générer celle-ci, utilisez la commande suivante :

cat <<-EOF >>"/etc/fapolicyd/rules.d/69-rke2.rules"
allow perm=any all : dir=/var/lib/rancher/
allow perm=any all : dir=/opt/cni/
allow perm=any all : dir=/run/k3s/
allow perm=any all : dir=/var/lib/kubelet/
allow perm=any all : dir=/root/.local/share/helm
EOFcat <<-EOF >>"/etc/fapolicyd/rules.d/69-rke2.rules"
allow perm=any all : dir=/var/lib/rancher/
allow perm=any all : dir=/opt/cni/
allow perm=any all : dir=/run/k3s/
allow perm=any all : dir=/var/lib/kubelet/
allow perm=any all : dir=/root/.local/share/helm
EOF
Remarque :

Veillez à ce que cette modification ait bien été communiquée à votre équipe Linux et que les procédures adéquates aient été appliquées en matière de gestion de la configuration.

Configuration des paramètres noexec et nosuid

Les ensembles noexec et nosuid ne doivent pas être définis concernant les disques utilisés pour le montage /var/lib/rancher. L’outil de disque crée automatiquement ces montages sans passer par ces propriétés.
Important :

Si un administrateur Linux définit manuellement ces propriétés, l’instance ne sera plus opérationnelle.

Pour plus de détails sur la configuration du disque, consultez la section Prérequis pour le disque.

Activation des ports

Assurez-vous que les ports suivants sont activés sur votre pare-feu pour chaque source.

Port

Protocole

Source

Objectif

Prérequis

22

TCP

Jump Server / machine client

Pour SSH (installation, débogage de la gestion du cluster)

N'ouvrez pas ce port à Internet. Autorisez l'accès à la machine cliente ou au serveur de saut.

80

TCP

 

Installation hors ligne uniquement : requise pour l'envoi de notifications système par e-mail.

 

443

TCP

Tous les nœuds d'un cluster + équilibreur de charge

Pour HTTPS (accès à Automation Suite)

Ce port doit avoir une connectivité entrante et sortante à partir de tous les nœuds du cluster et de l'équilibreur de charge.

587

TCP

 

Installation hors ligne uniquement : requise pour l'envoi de notifications système par e-mail.

 

2379

TCP

Tous les nœuds du cluster

port client etcd

Ne doit pas être exposé à Internet. L'accès entre les nœuds devrait suffire pour une adresse IP privée.

2380

TCP

Tous les nœuds du cluster

port homologue etcd

Ne doit pas être exposé à Internet. L'accès entre les nœuds devrait suffire pour une adresse IP privée.

6443

TCP

Tous les nœuds du cluster

Sert à accéder à l'API Kube via HTTPS ; requis pour la jonction de nœud

Ce port doit avoir une connectivité entrante et sortante à partir de tous les nœuds du cluster.

8472

UDP

Tous les nœuds du cluster

Requis pour Flannel (VXLAN)

Ne doit pas être exposé à Internet. L'accès entre les nœuds devrait suffire pour une adresse IP privée.

9345

TCP

Tous les nœuds d'un cluster + équilibreur de charge

Sert à accéder à l'API Kube via HTTP ; requis pour la jonction de nœud

Ce port doit avoir une connectivité entrante et sortante à partir de tous les nœuds du cluster et de l'équilibreur de charge.

10250

TCP

Tous les nœuds du cluster

kubelet / serveur de métriques

Ne doit pas être exposé à Internet. L'accès entre les nœuds devrait suffire pour une adresse IP privée.

30071

TCP

Tous les nœuds du cluster

Port NodePort pour la communication interne entre les nœuds d'un cluster

Ne doit pas être exposé à Internet. L'accès entre les nœuds devrait suffire pour une adresse IP privée.

Important :
L'exposition du port 6443 en dehors des limites du cluster est obligatoire s'il existe une connexion directe à l'API Kerberos.
Le port 9345 est utilisé par les nœuds pour découvrir les nœuds existants et joindre le cluster dans le déploiement multi-nœuds. Pour que les mécanismes de découverte haute disponibilité restent en cours d'exécution, nous vous recommandons de les exposer via l'équilibreur de charge avec une vérification de l'état.

Assurez-vous également que tous les nœuds sont connectés au serveur SQL.

N’exposez pas le SQL server sur l’un des ports réservés d’Istio, car cela pourrait entraîner des échecs de connexion.

Si vous avez configuré un pare-feu sur le réseau, assurez-vous que ces ports sont ouverts et autorisent le trafic conformément aux exigences mentionnées ci-dessus.

Facultatif : configuration du serveur proxy

Pour configurer un proxy, vous devez effectuer des étapes de configuration supplémentaires lors de la configuration de votre environnement avec les prérequis et pendant la phase de configuration avancée de l'installation.

Les étapes suivantes sont requises lors de la configuration de votre environnement.

Remarque : Nous ne prenons actuellement pas en charge le proxy HTTPS avec des certificats auto-signés. Assurez-vous d'utiliser un certificat public approuvé si vous configurez le proxy.

Étape 1 : Activation des ports sur le réseau virtuel

Assurez-vous que les règles suivantes sont activées sur votre groupe de sécurité réseau pour le réseau virtuel donné.

Source

Destination

Routage via proxy

Port

Description

Réseau virtuel

SQL

Non (No)

Port SQL Server

Requis pour SQL Server.

Réseau virtuel

Load balancer

Non (No)

9345

6443

Requis pour ajouter de nouveaux nœuds au cluster.

Réseau virtuel

Cluster (sous-réseau)

Non (No)

Tous les ports

Requis pour la communication via une plage d'adresses IP privée.

Réseau virtuel

alm.<fqdn>

Non (No)

443

Requis pour la connexion et l'utilisation du client ArgoCD pendant le déploiement.

Réseau virtuel

Proxy Server

Oui (Yes)

Tous les ports

Requis pour acheminer le trafic vers le serveur proxy.

Réseau virtuel

NameServer

Non (No)

Tous les ports

La plupart des services cloud tels qu'Azure et AWS l'utilisent pour récupérer les métadonnées de la machine virtuelle et la considèrent comme une adresse IP privée.

Réseau virtuel

MetaDataServer

Non (No)

Tous les ports

La plupart des services cloud tels qu'Azure et AWS utilisent l'adresse IP 169.254.169.254 pour récupérer les métadonnées de la machine.

Étape 2 : Ajouter une configuration de proxy à chaque nœud

Lors de la configuration des nœuds, vous devez ajouter la configuration du proxy à chaque nœud faisant partie du cluster. Cette étape est nécessaire pour acheminer le trafic sortant du nœud via le serveur proxy.

  1. Ajoutez la configuration suivante dans /etc/environment :
    http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>
  2. Ajoutez la configuration suivante dans /etc/wgetrc :
    http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>

    Paramètres obligatoires

    Description

    http_proxy

    Utilisé pour acheminer les requêtes sortantes HTTP à partir du nœud. Il doit s'agir du nom de domaine complet et du port du serveur proxy.

    https_proxy

    Utilisé pour acheminer les requêtes sortantes HTTPS à partir du nœud. Il doit s'agir du nom de domaine complet et du port du serveur proxy.

    no_proxy

    Liste d'hôtes séparés par des virgules et d'adresses IP que vous ne souhaitez pas acheminer via le serveur proxy. Il doit s'agir d'un sous-réseau privé, d'un hôte du serveur SQL, d'une adresse de serveur nommée et d'une adresse de serveur de métadonnées : alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address> .
    • metadata server address : La plupart des services cloud tels qu'Azure et AWS utilisent l'adresse IP 169.254.169.254 pour récupérer les métadonnées de la machine.
    • named server address – La plupart des services cloud tels qu'Azure et AWS l'utilisent pour résoudre la requête DNS.
  3. Vérifiez si les paramètres de proxy sont correctement configurés en exécutant la commande suivante :

    curl -v $HTTP_PROXY
    curl -v <fixed_rke_address>:9345curl -v $HTTP_PROXY
    curl -v <fixed_rke_address>:9345
    Attention : Une fois que vous remplissez les conditions requises pour le serveur proxy, assurez-vous de poursuivre la configuration du proxy lors de l'installation. Suivez les étapes dans Facultatif : Configuration du serveur proxy pour vous assurer que le serveur proxy est correctement configuré.

Cette page vous a-t-elle été utile ?

Obtenez l'aide dont vous avez besoin
Formation RPA - Cours d'automatisation
Forum de la communauté UiPath
Uipath Logo White
Confiance et sécurité
© 2005-2024 UiPath Tous droits réservés.