- Vue d'ensemble (Overview)
- Prérequis
- Installation
- Post-installation
- Migration et mise à niveau
- Mise à niveau d'Automation Suite sur EKS/AKS
- Étape 1 : Déplacement des données d'organisation Identity d'installation autonome vers Automation Suite
- Étape 2 : Restauration de la base de données du produit autonome
- Étape 3 : Sauvegarder la base de données de la plate-forme dans Automation Suite
- Étape 4 : Fusion des organisations dans Automation Suite
- Étape 5 : Mise à jour des chaînes de connexion du produit migré
- Étape 6 : migration de la version autonome d'Orchestrator
- Étape 7 : Migration d’Insights en version autonome
- Étape 8 : suppression du locataire par défaut
- B) Migration à locataire unique
- Migration d'Automation Suite sur Linux vers Automation Suite sur EKS/AKS
- Surveillance et alerte
- Administration du cluster
- Configuration spécifique au produit
- Configuration des paramètres d'Orchestrator
- Paramètres de l'application Orchestrator
- Configuration des paramètres d'application
- Configuration de la taille maximale de la requête
- Remplacement de la configuration du stockage au niveau du cluster
- Configuration des magasins d'informations d'identification
- Configuration de la clé de chiffrement par locataire
- Nettoyer la base de données Orchestrator
- Rotation des informations d’identification de stockage d’objets blob
- Désactivation de l'utilisation d'URL pré-signées lors du téléchargement de données vers le stockage Amazon S3
- Configuration de la sécurité de l'application de processus
- Configurer une authentification Kerberos avec l’authentification MSSQL de base pour Process Mining
- Résolution des problèmes
- La configuration de sauvegarde ne fonctionne pas en raison d’un échec de connexion à Azure Government
- Pods dans l'espace de noms uipath bloqués lors de l'activation des rejets de nœuds personnalisés
- Impossible de lancer Automation Hub et Apps avec la configuration proxy
- Les pods ne peuvent pas communiquer avec le nom de domaine complet dans un environnement proxy
- La chaîne de connexion SQL de l’automatisation de test est ignorée
Proxy
Afin de déployer Automation Suite dans une configuration proxy, vous devez configurer votre cluster et ajouter tous les domaines UiPath® requis à une liste d’autorisation dans votre proxy réseau.
Pour obtenir des instructions sur la configuration des nœuds de travail du cluster en mode proxy, reportez-vous à la documentation respective de Microsoft et AWS :
no_proxy
:
-
EKS
"$VPC_CIDR,$SERVICE_CIDR, localhost,127.0.0.1,169.254.169.254,<clusterfqdn>,.<clusterfqdn>,.internal,.eks.amazonaws.com,.cloudfront.net,.s3.CLOUD_REGION.amazonaws.com,.dkr.ecr.CLOUD_REGION.amazonaws.com,ec2.CLOUD_REGION.amazonaws.com,api.ecr.CLOUD_REGION.amazonaws.com,.elb.amazonaws.com,.gr7.CLOUD_REGION.eks.amazonaws.com,.s3.amazonaws.com,kubernetes,kubernetes.default,kubernetes.default.svc,kubernetes.default.svc.cluster,kubernetes.default.svc.cluster.local,.svc,.svc.cluster,.svc.cluster.local,.svc.cluster.local.,argocd-repo-server,istiod.istio-system.svc,logging-operator-logging-fluentd.logging.svc.cluster.local,argocd-repo-server,.local,.cluster,ai-helper-svc,ai-pkgmanager-svc,ai-deployer-svc,ai-appmanager-svc,ai-trainer-svc,get"
"$VPC_CIDR,$SERVICE_CIDR, localhost,127.0.0.1,169.254.169.254,<clusterfqdn>,.<clusterfqdn>,.internal,.eks.amazonaws.com,.cloudfront.net,.s3.CLOUD_REGION.amazonaws.com,.dkr.ecr.CLOUD_REGION.amazonaws.com,ec2.CLOUD_REGION.amazonaws.com,api.ecr.CLOUD_REGION.amazonaws.com,.elb.amazonaws.com,.gr7.CLOUD_REGION.eks.amazonaws.com,.s3.amazonaws.com,kubernetes,kubernetes.default,kubernetes.default.svc,kubernetes.default.svc.cluster,kubernetes.default.svc.cluster.local,.svc,.svc.cluster,.svc.cluster.local,.svc.cluster.local.,argocd-repo-server,istiod.istio-system.svc,logging-operator-logging-fluentd.logging.svc.cluster.local,argocd-repo-server,.local,.cluster,ai-helper-svc,ai-pkgmanager-svc,ai-deployer-svc,ai-appmanager-svc,ai-trainer-svc,get" -
AKS
"<cluster-fqdn>,.<cluster-fqdn>,localhost,127.0.0.1,10.0.0.0/8,mcr.microsoft.com,kubernetes,kubernetes.default,kubernetes.default.svc,kubernetes.default.svc.cluster,kubernetes.default.svc.cluster.local,.svc,.svc.cluster,.svc.cluster.local,.svc.cluster.local.,argocd-repo-server,istiod.istio-system.svc,logging-operator-logging-fluentd.logging.svc.cluster.local,argocd-repo-server,.local,.cluster,ai-helper-svc,ai-pkgmanager-svc,ai-deployer-svc,ai-appmanager-svc,ai-trainer-svc,get\"
"<cluster-fqdn>,.<cluster-fqdn>,localhost,127.0.0.1,10.0.0.0/8,mcr.microsoft.com,kubernetes,kubernetes.default,kubernetes.default.svc,kubernetes.default.svc.cluster,kubernetes.default.svc.cluster.local,.svc,.svc.cluster,.svc.cluster.local,.svc.cluster.local.,argocd-repo-server,istiod.istio-system.svc,logging-operator-logging-fluentd.logging.svc.cluster.local,argocd-repo-server,.local,.cluster,ai-helper-svc,ai-pkgmanager-svc,ai-deployer-svc,ai-appmanager-svc,ai-trainer-svc,get\"
<cluster-fqdn>
par l'URL FQDN réelle.
input.json
avec les paramètres suivants :
Paramètres obligatoires |
Description |
---|---|
|
Utilisez
true ou false pour activer ou désactiver les paramètres de proxy.
|
|
Utilisé pour acheminer les requêtes sortantes HTTP à partir du cluster. Il doit s'agir du nom de domaine complet et du port du serveur proxy. |
|
Utilisé pour acheminer les requêtes sortantes HTTPS à partir du cluster. Il doit s'agir du nom de domaine complet et du port du serveur proxy. |
|
Liste d'hôtes, d'adresses IP ou de plages d'adresses IP au format CIDR séparée par des virgules et que vous ne souhaitez pas acheminer via le serveur proxy. La liste doit être celle fournie dans la section Configuration du cluster pour EKS ou AKS, respectivement. |
input.json
pour la configuration du proxy :
"proxy": {
"enabled": true,
"http_proxy": "<http://<PROXY-SERVER-IP>:<PROXY-PORT>",>
"https_proxy": "<http://<PROXY-SERVER-IP>:<PROXY-PORT>",>
"no_proxy": <"paste list from Configuring the cluster section">
}
"proxy": {
"enabled": true,
"http_proxy": "<http://<PROXY-SERVER-IP>:<PROXY-PORT>",>
"https_proxy": "<http://<PROXY-SERVER-IP>:<PROXY-PORT>",>
"no_proxy": <"paste list from Configuring the cluster section">
}
.microsoft.com
login.microsoftonline.com
login.windows.net
graph.microsoft.com
sfbrprddeploywe.azurecr.io
sfbrprddeploywe.westeurope.data.azurecr.io
registry-data.uipath.com
registry.uipath.com
dc.services.visualstudio.com
activate.uipath.com
download.uipath.com
du-metering.uipath.com
du.uipath.com
du-au.uipath.com
du-ca.uipath.com
du-jp.uipath.com
du-us.uipath.com
du-sg.uipath.com
raw.githubusercontent.com
objects.githubusercontent.com
pkg-containers.githubusercontent.com
raw.github.com
api.github.com
api.nuget.org
pkgs.dev.azure.com
gallery.uipath.com
github.com
pypi.org
pypi.python.org
pythonhosted.org
files.pythonhosted.org
opensuse.org
copr.fedorainfracloud.org
download.copr.fedorainfracloud.org
ping.looker.com
rt.services.visualstudio.com
uipath.pkgs.visualstudio.com
.blob.core.windows.net
pkgs.dev.azure.com
events.launchdarkly.com
app.launchdarkly.com
in.applicationinsights.azure.com
.pkg.dev
production.cloudflare.docker.com
.googleapis.com
.microsoft.com
login.microsoftonline.com
login.windows.net
graph.microsoft.com
sfbrprddeploywe.azurecr.io
sfbrprddeploywe.westeurope.data.azurecr.io
registry-data.uipath.com
registry.uipath.com
dc.services.visualstudio.com
activate.uipath.com
download.uipath.com
du-metering.uipath.com
du.uipath.com
du-au.uipath.com
du-ca.uipath.com
du-jp.uipath.com
du-us.uipath.com
du-sg.uipath.com
raw.githubusercontent.com
objects.githubusercontent.com
pkg-containers.githubusercontent.com
raw.github.com
api.github.com
api.nuget.org
pkgs.dev.azure.com
gallery.uipath.com
github.com
pypi.org
pypi.python.org
pythonhosted.org
files.pythonhosted.org
opensuse.org
copr.fedorainfracloud.org
download.copr.fedorainfracloud.org
ping.looker.com
rt.services.visualstudio.com
uipath.pkgs.visualstudio.com
.blob.core.windows.net
pkgs.dev.azure.com
events.launchdarkly.com
app.launchdarkly.com
in.applicationinsights.azure.com
.pkg.dev
production.cloudflare.docker.com
.googleapis.com
Dans un environnement proxy, si le serveur proxy utilise le même port que le port TCP de n'importe quel autre service dans le service mesh d'Istio, tel que le port 8080, les pods ne peuvent pas communiquer avec le nom de domaine complet. Pour plus d'informations sur le problème et sur la façon de le résoudre, consultez Les pods ne peuvent pas communiquer avec le nom de domaine complet dans un environnement de proxy.