- Vue d'ensemble (Overview)
- Prérequis
- Installation
- Questions et réponses : modèles de déploiement
- Téléchargement des packages d’installation
- install-uipath.sh parameters
- Activation du module complémentaire Redis High Availability Add-on pour le cluster
- Fichier de configuration de Document Understanding
- Ajout d'un nœud d'agent dédié avec prise en charge GPU
- Connexion de l'application Task Mining
- Ajout d'un nœud d'agent dédié pour Task Mining
- Post-installation
- Administration du cluster
- Surveillance et alerte
- Migration et mise à niveau
- Mode d'évaluation à nœud unique en ligne
- Mode d'évaluation à nœud unique hors ligne
- Mode de production en ligne multi-nœuds compatible haute disponibilité
- Mode de production hors ligne multi-nœuds compatible haute disponibilité
- Migration d'un disque physique Longhorn vers LVM
- Rétrogradation de Ceph de la version 16.2.6 à la version 15.2.9
- Options de migration :
- B) Migration à locataire unique
- Configuration spécifique au produit
- Bonnes pratiques et maintenance
- Résolution des problèmes
- Comment résoudre les problèmes des services lors de l'installation
- Comment désinstaller le cluster
- Comment nettoyer les artefacts hors ligne pour améliorer l'espace disque
- Comment désactiver TLS 1.0 et 1.1
- Comment activer la journalisation Istio
- Comment nettoyer manuellement les journaux
- Comment nettoyer les anciens journaux stockés dans le compartiment sf-logs
- Comment déboguer les installations d'Automation Suite ayant échoué
- Comment désactiver le déchargement de la somme de contrôle txt
- Impossible d'exécuter une installation hors ligne sur le système d'exploitation RHEL 8.4
- Erreur lors du téléchargement du bundle
- L'installation hors ligne échoue en raison d'un fichier binaire manquant
- Problème de certificat dans l'installation hors ligne
- Erreur de validation de la chaîne de connexion SQL
- Échec après la mise à jour du certificat
- Automation Suite requiert que Backlog_wait_time soit défini sur 1
- Impossible de se connecter après la migration
- Définition d'un délai d'expiration pour les portails de gestion
- Mettre à jour les connexions du répertoire sous-jacent
- kinit : Impossible de trouver le KDC pour le domaine <AD Domain> lors de l'obtention des informations d'identification initiales
- Kinit : Keytab ne contient aucune clé appropriée pour *** lors de l'obtention des informations d'identification initiales
- L'opération GSSAPI a échoué en raison de l'erreur suivante : un code d'état non valide a été fourni (les informations d'identification du client ont été révoquées).
- La connexion a échoué pour l'utilisateur <ADDOMAIN><aduser>.Raison : Le compte est désactivé.
- Alarme reçue pour l'échec de la tâche Kerberos-tgt-update
- Fournisseur SSPI : serveur introuvable dans la base de données Kerberos
- Impossible d'obtenir l'image du bac à sable
- Les pods ne s'affichent pas dans l'interface utilisateur ArgoCD
- Échec de la sonde Redis
- Le serveur RKE2 ne démarre pas
- Secret introuvable dans l'espace de noms UiPath
- ArgoCD passe à l'état Progression (Progressing) après la première installation
- INCOHÉRENCE INATTENDUE ; EXÉCUTER fsck MANUELLEMENT
- L’opérateur d’auto-guérison et le référentiel Sf-k8-utils manquants
- MongoDB ou applications métier dégradées après la restauration du cluster
- Services défectueux après la restauration ou la restauration du cluster
- Document Understanding n'est pas affiché sur la barre de gauche d'Automation Suite
- État Échec (Failed) lors de la création d'une session de labellisation des données
- État Échec (Failed) lors de la tentative de déploiement d'une compétence ML
- La tâche de migration échoue dans ArgoCD
- La reconnaissance de l'écriture manuscrite avec l'Extracteur de formulaires intelligents (Intelligent Form Extractor) ne fonctionne pas
- Utilisation de l'outil de diagnostic d'Automation Suite
- Utilisation du pack d'assistance Automation Suite
- Explorer les journaux
Guide d'installation d'Automation Suite
Configuration des machines
- Pour éviter la perte de données, assurez-vous que l'infrastructure que vous utilisez ne supprime pas automatiquement les disques du cluster lors du redémarrage ou de l'arrêt du cluster. Si cette fonctionnalité est activée, veillez à la désactiver.
- Pour garantir une session SSH fluide et sans interruption, nous vous recommandons fortement de suivre les étapes décrites dans les Bonnes pratiques d’installation avant de configurer les disques et d’installer Automation Suite.
configureUiPathDisks.sh
. Pour plus de détails, consultez les sections suivantes.
Avant l'installation, vous devez partitionner et configurer le disque à l'aide de LVM, afin que sa taille puisse être modifiée facilement et sans aucune migration ou perte de données.
Partitionnement du disque
/var
. Par défaut, la partition var
ne se voit allouer que 8 Go d'espace.
ext4
ou xfs
.
Toutes les partitions doivent être créées à l'aide de LVM. Cela permet de s'assurer que les données du cluster peuvent résider sur un disque différent, mais qu'elles peuvent toujours être visualisées de manière cohérente. Cela aide également à étendre la taille de la partition à l'avenir sans risque de migration ou de perte de données.
Pour le système d'exploitation RHEL OS, vous devez vous assurer que vous disposez des tailles de point de montage minimales suivantes sur la machine.
En ligne
Libellé du disque |
Partition |
Taille |
Objectif |
---|---|---|---|
Disque de cluster |
/var/lib/rancher |
190 Gio |
Le dossier Rancher stocke les images et les couches de conteneurs |
/var/lib/kubelet |
56 Gio |
Le dossier Kubelet stocke les configurations de runtime Kubernetes telles que secrets, configmaps et emptyDir | |
/opt/UiPathAutomationSuite |
10 Gio |
Binaire du programme d'installation | |
disque etcd |
/var/lib/rancher/rke2/server/db |
16 Gio |
Base de données distribuée pour Kubernetes |
DataDisk |
/datadisk |
512 Gio (installation de base) |
Bloquer l'abstraction de stockage |
2 Tio (installation complète) |
Nous vous recommandons de ne pas utiliser le disque du système d’exploitation pour les finalités détaillées ci-dessus afin de vous assurer que les processus obtiennent leur juste partage de ressources.
Hors ligne
Les prérequis pour le mode hors connexion sont les mêmes que ceux pour le mode en ligne, à l'exception de la première machine sur laquelle vous exécutez l'installation, qui nécessite les conditions suivantes.
L'espace supplémentaire est nécessaire pour décompresser le bundle hors ligne.
Libellé du disque |
Partition |
Taille |
Objectif |
---|---|---|---|
Disque de cluster |
/var/lib/rancher |
190 Gio |
Le dossier Rancher stocke les images et les couches de conteneurs |
/var/lib/kubelet |
56 Gio |
Le dossier Kubelet stocke les configurations de runtime Kubernetes telles que secrets, configmaps et emptyDir | |
/opt/UiPathAutomationSuite |
10 Gio |
Binaire du programme d'installation | |
disque etcd |
/var/lib/rancher/rke2/server/db |
16 Gio |
Base de données distribuée pour Kubernetes |
DataDisk |
/datadisk |
512 Gio (installation de base) |
Bloquer l'abstraction de stockage |
2 Tio (installation complète) | |||
Disque de bundle UiPath |
/uipath |
512 Gio |
Bundle physiquement isolé |
Nous vous recommandons de ne pas utiliser le disque du système d’exploitation pour les finalités détaillées ci-dessus afin de vous assurer que les processus obtiennent leur juste partage de ressources.
Les disques de données et etcd doivent être des disques physiques distincts. Cela isole physiquement les données et les disques etcd des autres charges de travail et activités du cluster, tout en améliorant les performances et la stabilité du cluster.
Consultez la section suivante pour plus de détails sur l'utilisation de l'exemple de script pour partitionner et configurer le disque avant l'installation.
Téléchargement du script
configureUiPathDisks.sh
pour configurer et partitionner le disque.
Pour obtenir des instructions de téléchargement, consultez configureUiPathDisks.sh.
Exécution du script
configureUiPathDisks.sh
aux fins suivantes :
- configurer les disques et les points de montage pour une nouvelle installation de cluster Automation Suite ;
- redimensionner le disque de données après l'installation.
Pour rendre le script exécutable, exécutez :
chmod +x ./configureUiPathDisks.sh
chmod +x ./configureUiPathDisks.sh
Pour plus de détails sur l'utilisation du script, exécutez la commande suivante :
sudo ./configureUiPathDisks.sh --help
sudo ./configureUiPathDisks.sh --help
***************************************************************************************
Utility to configure the disk for UiPath Automation Suite Installation.
Run this script to configure the disks on new machine or to extend the size of datadisk
Arguments
-n|--node-type NodeType, Possible values: agent, server. Default to server
-i|--install-type Installation mode, Possible values: online, offline. Default to online
-c|--cluster-disk-name Device to host rancher and kubelet. Ex: /dev/sdb
-e|--etcd-disk-name Device to host etcd, Not required for agent node. Ex: /dev/sdb
-l|--data-disk-name Device to host datadisk, Not required for agent node. Ex: /dev/sdc
-b|--bundle-disk-name Device to host the uipath bundle.
Only required for offline installation on 1st server node
-f|--complete-suite Installing complete product suite or any of these products:
aicenter, apps, taskmining, documentunderstanding.
This will configure the datadisk volume to be 2TiB instead of 512Gi.
-p|--primary-server Is this machine is first server machine? Applicable only for airgap install.
This is the machine on which UiPath AutomationSuite bundle will be installed.
Default to false
-x|--extend-data-disk Extend the datadisk. Either attach new disk or resize the exiting datadisk
-r|--resize Used in conjunction of with --extend-data-disk to resize the exiting volume,
instead of adding new volume
-d|--debug Run in debug
-h|--help Display help
ExampleUsage:
configureUiPathDisks.sh --node-type server --install-type online \
--cluster-disk-name /dev/sdb --etcd-disk-name /dev/sdc \
--data-disk-name /dev/sdd
configureUiPathDisks.sh --data-disk-name /dev/sdh --extend-data-disk
***************************************************************************************
***************************************************************************************
Utility to configure the disk for UiPath Automation Suite Installation.
Run this script to configure the disks on new machine or to extend the size of datadisk
Arguments
-n|--node-type NodeType, Possible values: agent, server. Default to server
-i|--install-type Installation mode, Possible values: online, offline. Default to online
-c|--cluster-disk-name Device to host rancher and kubelet. Ex: /dev/sdb
-e|--etcd-disk-name Device to host etcd, Not required for agent node. Ex: /dev/sdb
-l|--data-disk-name Device to host datadisk, Not required for agent node. Ex: /dev/sdc
-b|--bundle-disk-name Device to host the uipath bundle.
Only required for offline installation on 1st server node
-f|--complete-suite Installing complete product suite or any of these products:
aicenter, apps, taskmining, documentunderstanding.
This will configure the datadisk volume to be 2TiB instead of 512Gi.
-p|--primary-server Is this machine is first server machine? Applicable only for airgap install.
This is the machine on which UiPath AutomationSuite bundle will be installed.
Default to false
-x|--extend-data-disk Extend the datadisk. Either attach new disk or resize the exiting datadisk
-r|--resize Used in conjunction of with --extend-data-disk to resize the exiting volume,
instead of adding new volume
-d|--debug Run in debug
-h|--help Display help
ExampleUsage:
configureUiPathDisks.sh --node-type server --install-type online \
--cluster-disk-name /dev/sdb --etcd-disk-name /dev/sdc \
--data-disk-name /dev/sdd
configureUiPathDisks.sh --data-disk-name /dev/sdh --extend-data-disk
***************************************************************************************
Configuration du disque pour une configuration en mode production multi-nœuds compatible haute disponibilité
En ligne
Nœuds de serveur
Pour configurer le disque dans une configuration en ligne en mode de production multi-nœuds compatible haute disponibilité, exécutez la commande suivante sur toutes les machines serveur :
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk
Nœuds d'agent
Pour configurer le disque dans une configuration en ligne en mode de production multi-nœuds compatible haute disponibilité, exécutez la commande suivante sur toutes les machines agent :
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--node-type agent
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--node-type agent
Hors ligne
Premier nœud de serveur
Dans une installation hors ligne, vous devez charger les images du produit dans le registre Docker. Pour cela, un stockage supplémentaire sous la forme d'un disque séparé est nécessaire. Ce disque sera utilisé pour décompresser les bundles de produits et télécharger des images dans le registre docker. Il doit être présent uniquement sur la première machine.
--primary-server
sur la première machine serveur ou la machine sur laquelle le programme d'installation de Fabric et du service s'exécutera.
Pour configurer le disque dans une configuration hors ligne en mode de production multi-nœuds compatible haute disponibilité, exécutez la commande suivante sur la première machine serveur :
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk \
--bundle-disk-name name_of_uipath_bundle_disk \
--primary-server \
--install-type offline
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk \
--bundle-disk-name name_of_uipath_bundle_disk \
--primary-server \
--install-type offline
Nœuds de serveur supplémentaires
--primary-server
et le --bundle-disk-name
.
Pour configurer le disque dans une configuration en ligne en mode de production multi-nœuds compatible haute disponibilité, exécutez la commande suivante sur les autres machines serveur :
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk \
--install-type offline
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk \
--install-type offline
Nœuds d'agent
--primary-server
et le --bundle-disk-name
.
Pour configurer le disque dans une configuration en ligne en mode de production multi-nœuds compatible haute disponibilité, exécutez la commande suivante sur les autres machines agent.
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--node-type agent \
--install-type offline
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--node-type agent \
--install-type offline
Pour étendre le disque de données, vous pouvez attacher le nouveau disque physique ou redimensionner le disque existant.
Ajout d'un nouveau disque
Pour étendre le disque de données à l'aide du disque nouvellement attaché, exécutez la commande suivante sur les machines serveur :
./configureUiPathDisks.sh --data-disk-name name_of_data_disk \
--extend-data-disk
./configureUiPathDisks.sh --data-disk-name name_of_data_disk \
--extend-data-disk
Redimensionner le disque existant
Pour étendre le disque de données en redimensionnant le disque existant, exécutez la commande suivante sur les machines serveur :
./configureUiPathDisks.sh --extend-data-disk --resize
./configureUiPathDisks.sh --extend-data-disk --resize
-
Suivez les étapes suivantes pour valider que
/etc/fstab
est correctement configuré pour gérer le redémarrage du système.Remarque :Assurez-vous que les points de montage etcd et datadisk sont ajoutés dans le fichierfstab
.Si vous avez une partition de disque distincte pour/var/lib/rancher
et/var/lib/kubelet
, alorsfstab
devrait également contenir ces deux dossiers. Assurez-vous également d'inclure l'optionnofail
dans ces entréesfstab
afin qu'elle n'affecte pas le démarrage de la machine virtuelle en cas d'échec. -
Vérifiez que les disques sont montés correctement en exécutant la commande suivante :
mount -afv
mount -afv -
Vous devriez obtenir la réponse suivante :
/datadisk : already mounted /var/lib/rancher/rke2/server/db : already mounted /var/lib/rancher : already mounted /var/lib/kubelet : already mounted
/datadisk : already mounted /var/lib/rancher/rke2/server/db : already mounted /var/lib/rancher : already mounted /var/lib/kubelet : already mounted
La page suivante permet aux administrateurs Linux de gérer les paramètres au niveau du système d’exploitation et du noyau avant de procéder à une installation Automation Suite.
En général, ces paramètres sont gérés par un outil de configuration de gestion dédié, tel que Puppet. Assurez-vous que les modifications que vous apportez sont conformes au processus de contrôle de votre environnement, à des fins de cohérence et de documentation.
Veillez à ce que les étapes suivantes aient été effectuées avant de commencer l’installation, car des erreurs de configuration au niveau du système d’exploitation et du noyau peuvent entraîner des erreurs non intuitives. La vérification de chacun de ces paramètres permet souvent d’éviter ce genre d’erreurs.
sysctl
suivants sont requis sur la machine :
-
Activer le transfert IP
-
désactiver le filtrage par chemin inverse
Vous pouvez procéder à cela en exécutant la commande suivante :
cat <<EOF >>"/etc/sysctl.d/99-sysctl.conf"
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.ipv4.conf.all.rp_filter=0
EOF
cat <<EOF >>"/etc/sysctl.d/99-sysctl.conf"
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.ipv4.conf.all.rp_filter=0
EOF
nf-call-iptables
est nécessaire pour la plupart des déploiements Kubernetes. Kubernetes crée des réseaux virtuels internes au cluster. Cela permet à chaque pod d’avoir sa propre adresse IP, qui est utilisée conjointement avec les services de noms internes pour faciliter la communication de service à service. Le cluster ne fonctionne pas sans nf-call-iptables
activé. Pour plus de détails, consultez la documentation officielle de Kubernetes.
Exécutez la commande suivante afin d’appliquer les paramètres :
sysctl --system
sysctl --system
Si vous utilisez fapolicy, une politique spécifique à RKE2 est requise. Pour générer celle-ci, utilisez la commande suivante :
cat <<-EOF >>"/etc/fapolicyd/rules.d/69-rke2.rules"
allow perm=any all : dir=/var/lib/rancher/
allow perm=any all : dir=/opt/cni/
allow perm=any all : dir=/run/k3s/
allow perm=any all : dir=/var/lib/kubelet/
allow perm=any all : dir=/root/.local/share/helm
EOF
cat <<-EOF >>"/etc/fapolicyd/rules.d/69-rke2.rules"
allow perm=any all : dir=/var/lib/rancher/
allow perm=any all : dir=/opt/cni/
allow perm=any all : dir=/run/k3s/
allow perm=any all : dir=/var/lib/kubelet/
allow perm=any all : dir=/root/.local/share/helm
EOF
Veillez à ce que cette modification ait bien été communiquée à votre équipe Linux et que les procédures adéquates aient été appliquées en matière de gestion de la configuration.
noexec
et nosuid
ne doivent pas être définis concernant les disques utilisés pour le montage /var/lib/rancher
. L’outil de disque crée automatiquement ces montages sans passer par ces propriétés.
Si un administrateur Linux définit manuellement ces propriétés, l’instance ne sera plus opérationnelle.
Pour plus de détails sur la configuration du disque, consultez la section Prérequis pour le disque.
Assurez-vous que les ports suivants sont activés sur votre pare-feu pour chaque source.
Port |
Protocole |
Source |
Objectif |
Prérequis |
---|---|---|---|---|
|
TCP |
Jump Server / machine client |
Pour SSH (installation, débogage de la gestion du cluster) |
N'ouvrez pas ce port à Internet. Autorisez l'accès à la machine cliente ou au serveur de saut. |
|
TCP |
Installation hors ligne uniquement : requise pour l'envoi de notifications système par e-mail. | ||
|
TCP |
Tous les nœuds d'un cluster + équilibreur de charge |
Pour HTTPS (accès à Automation Suite) |
Ce port doit avoir une connectivité entrante et sortante à partir de tous les nœuds du cluster et de l'équilibreur de charge. |
|
TCP |
Installation hors ligne uniquement : requise pour l'envoi de notifications système par e-mail. | ||
|
TCP |
Tous les nœuds du cluster |
port client etcd |
Ne doit pas être exposé à Internet. L'accès entre les nœuds devrait suffire pour une adresse IP privée. |
|
TCP |
Tous les nœuds du cluster |
port homologue etcd |
Ne doit pas être exposé à Internet. L'accès entre les nœuds devrait suffire pour une adresse IP privée. |
|
TCP |
Tous les nœuds du cluster |
Sert à accéder à l'API Kube via HTTPS ; requis pour la jonction de nœud |
Ce port doit avoir une connectivité entrante et sortante à partir de tous les nœuds du cluster. |
|
UDP |
Tous les nœuds du cluster |
Requis pour Flannel (VXLAN) |
Ne doit pas être exposé à Internet. L'accès entre les nœuds devrait suffire pour une adresse IP privée. |
|
TCP |
Tous les nœuds d'un cluster + équilibreur de charge |
Sert à accéder à l'API Kube via HTTP ; requis pour la jonction de nœud |
Ce port doit avoir une connectivité entrante et sortante à partir de tous les nœuds du cluster et de l'équilibreur de charge. |
|
TCP |
Tous les nœuds du cluster |
kubelet / serveur de métriques |
Ne doit pas être exposé à Internet. L'accès entre les nœuds devrait suffire pour une adresse IP privée. |
|
TCP |
Tous les nœuds du cluster |
Port NodePort pour la communication interne entre les nœuds d'un cluster |
Ne doit pas être exposé à Internet. L'accès entre les nœuds devrait suffire pour une adresse IP privée. |
6443
en dehors des limites du cluster est obligatoire s'il existe une connexion directe à l'API Kerberos.
9345
est utilisé par les nœuds pour découvrir les nœuds existants et joindre le cluster dans le déploiement multi-nœuds. Pour que les mécanismes de découverte haute disponibilité restent en cours d'exécution, nous vous recommandons de les exposer via l'équilibreur de charge avec une vérification de l'état.
Assurez-vous également que tous les nœuds sont connectés au serveur SQL.
N’exposez pas le SQL server sur l’un des ports réservés d’Istio, car cela pourrait entraîner des échecs de connexion.
Si vous avez configuré un pare-feu sur le réseau, assurez-vous que ces ports sont ouverts et autorisent le trafic conformément aux exigences mentionnées ci-dessus.
Pour configurer un proxy, vous devez effectuer des étapes de configuration supplémentaires lors de la configuration de votre environnement avec les prérequis et pendant la phase de configuration avancée de l'installation.
Les étapes suivantes sont requises lors de la configuration de votre environnement.
Assurez-vous que les règles suivantes sont activées sur votre groupe de sécurité réseau pour le réseau virtuel donné.
Source |
Destination |
Routage via proxy |
Port |
Description |
---|---|---|---|---|
Réseau virtuel |
SQL |
Non (No) |
Port SQL Server |
Requis pour SQL Server. |
Réseau virtuel |
Load balancer |
Non (No) |
|
Requis pour ajouter de nouveaux nœuds au cluster. |
Réseau virtuel |
Cluster (sous-réseau) |
Non (No) |
Tous les ports |
Requis pour la communication via une plage d'adresses IP privée. |
Réseau virtuel |
|
Non (No) |
|
Requis pour la connexion et l'utilisation du client ArgoCD pendant le déploiement. |
Réseau virtuel |
Proxy Server |
Oui (Yes) |
Tous les ports |
Requis pour acheminer le trafic vers le serveur proxy. |
Réseau virtuel |
NameServer |
Non (No) |
Tous les ports |
La plupart des services cloud tels qu'Azure et AWS l'utilisent pour récupérer les métadonnées de la machine virtuelle et la considèrent comme une adresse IP privée. |
Réseau virtuel |
MetaDataServer |
Non (No) |
Tous les ports |
La plupart des services cloud tels qu'Azure et AWS utilisent l'adresse IP
169.254.169.254 pour récupérer les métadonnées de la machine.
|
Lors de la configuration des nœuds, vous devez ajouter la configuration du proxy à chaque nœud faisant partie du cluster. Cette étape est nécessaire pour acheminer le trafic sortant du nœud via le serveur proxy.
-
Ajoutez la configuration suivante dans
/etc/environment
:http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>
http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server> -
Ajoutez la configuration suivante dans
/etc/wgetrc
:http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>
http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>Paramètres obligatoires
Description
http_proxy
Utilisé pour acheminer les requêtes sortantes HTTP à partir du nœud. Il doit s'agir du nom de domaine complet et du port du serveur proxy.
https_proxy
Utilisé pour acheminer les requêtes sortantes HTTPS à partir du nœud. Il doit s'agir du nom de domaine complet et du port du serveur proxy.
no_proxy
Liste d'hôtes séparés par des virgules et d'adresses IP que vous ne souhaitez pas acheminer via le serveur proxy. Il doit s'agir d'un sous-réseau privé, d'un hôte du serveur SQL, d'une adresse de serveur nommée et d'une adresse de serveur de métadonnées :alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>
.metadata server address
: La plupart des services cloud tels qu'Azure et AWS utilisent l'adresse IP169.254.169.254
pour récupérer les métadonnées de la machine.named server address
– La plupart des services cloud tels qu'Azure et AWS l'utilisent pour résoudre la requête DNS.
-
Vérifiez si les paramètres de proxy sont correctement configurés en exécutant la commande suivante :
curl -v $HTTP_PROXY curl -v <fixed_rke_address>:9345
curl -v $HTTP_PROXY curl -v <fixed_rke_address>:9345Attention : Une fois que vous remplissez les conditions requises pour le serveur proxy, assurez-vous de poursuivre la configuration du proxy lors de l'installation. Suivez les étapes dans Facultatif : Configuration du serveur proxy pour vous assurer que le serveur proxy est correctement configuré.
- Configuration du disque
- Prérequis pour le disque
- Utiliser le script pour configurer le disque
- Configuration du disque pour une configuration en mode production multi-nœuds compatible haute disponibilité
- Extension de la post-installation du disque de données
- Validation des montages de disque
- Configurer les paramètres au niveau du noyau et du système d’exploitation
- Configuration des paramètres sysctl
- Configuration des paramètres fapolicy
- Configuration des paramètres noexec et nosuid
- Activation des ports
- Facultatif : configuration du serveur proxy
- Étape 1 : Activation des ports sur le réseau virtuel
- Étape 2 : Ajouter une configuration de proxy à chaque nœud