automation-suite
2022.10
false
Important :
Veuillez noter que ce contenu a été localisé en partie à l’aide de la traduction automatique. La localisation du contenu nouvellement publié peut prendre 1 à 2 semaines avant d’être disponible.
UiPath logo, featuring letters U and I in white

Guide d'installation d'Automation Suite

Dernière mise à jour 16 déc. 2024

Manuel : Expérience d'installation avancée

Le fichier cluster_config.json définit les paramètres et préférences appliqués aux produits UiPath déployés via Automation Suite. Vous devez mettre à jour ce fichier pour modifier les valeurs par défaut et utiliser une configuration avancée pour votre cluster.
Pour modifier cluster_config.json, vous pouvez utiliser :
  • un éditeur de texte Linux, tel que vi ou GNU nano, directement sur la machine Linux via SSH (par exemple, commande : vi cluster_config.json) ;
  • votre éditeur de texte préféré, puis copier-coller le fichier sur la machine.
Le fichier cluster_config.json vous permet de configurer les produits UiPath que vous souhaitez déployer. Sachez que les produits peuvent avoir des dépendances. Pour plus de détails, consultez Dépendances entre produits.
Pour activer ou désactiver un service via le fichier cluster_config.json, utilisez true ou false pour l'indicateur enabled.

Exemple Cluster_config.json

{
  "fqdn": "PLACEHOLDER",
  "cluster_fqdn": "PLACEHOLDER",
  "fixed_rke_address": "PLACEHOLDER",
  "admin_username": "PLACEHOLDER",
  "admin_password": "PLACEHOLDER",
  "rke_token": "PLACEHOLDER ",
  "zone_resilience": false,
  "registries": {
    "docker": {
      "url": "registry.uipath.com"
    },
    "helm": {
      "url": "registry.uipath.com"
    }
  },
  "sql_connection_string_template": "PLACEHOLDER",
  "sql_connection_string_template_jdbc": "PLACEHOLDER",
  "sql_connection_string_template_odbc": "PLACEHOLDER",
  "sql_connection_string_template_sqlalchemy_pyodbc": "PLACEHOLDER",
  "orchestrator": {
    "testautomation": {
      "enabled": true
    },
    "updateserver": {
      "enabled": true
    },
    "enabled": true
  },
  "infra": {
    "docker_registry": {
      "username": " PLACEHOLDER ",
      "password": " PLACEHOLDER "
   },  
     "pod_log_path": ""
  },
  "platform": {
    "enabled": true
  },
  "automation_hub": {
    "enabled": true
  },
  "automation_ops": {
    "enabled": true
  },
  "action_center": {
    "enabled": true
  },
  "aicenter": {
    "enabled": true
  },
  "documentunderstanding": {
    "enabled": true,
    "datamanager": {}
  },
  "task_mining": {
    "enabled": true
  },
  "apps": {
    "enabled": true
  },
  "test_manager": {
    "enabled": true
  },
  "insights": {
    "enabled": true
  },
  "dataservice": {
    "enabled": true
  },
  "asrobots": {
    "enabled": true,
    "packagecaching": true,
    "packagecachefolder": "/uipath_asrobots_package_cache"
  },
  "processmining": {
    "enabled": true
  },
  "external_object_storage": {
    "enabled": false
  },
  "identity_certificate": {},
  "profile": "ha",
  "telemetry_optout": false,
  "alternative_fqdn": "",
  "server_certificate": {
    "ca_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/rootCA.crt",
    "tls_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/server.crt",
    "tls_key_file": "/opt/UiPathAutomationSuite/UiPath_Installer/server.key"
  },
  "alternative_certificate": {
    "ca_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-rootCA.crt",
    "tls_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-server.crt",
    "tls_key_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-server.key"
  }
}{
  "fqdn": "PLACEHOLDER",
  "cluster_fqdn": "PLACEHOLDER",
  "fixed_rke_address": "PLACEHOLDER",
  "admin_username": "PLACEHOLDER",
  "admin_password": "PLACEHOLDER",
  "rke_token": "PLACEHOLDER ",
  "zone_resilience": false,
  "registries": {
    "docker": {
      "url": "registry.uipath.com"
    },
    "helm": {
      "url": "registry.uipath.com"
    }
  },
  "sql_connection_string_template": "PLACEHOLDER",
  "sql_connection_string_template_jdbc": "PLACEHOLDER",
  "sql_connection_string_template_odbc": "PLACEHOLDER",
  "sql_connection_string_template_sqlalchemy_pyodbc": "PLACEHOLDER",
  "orchestrator": {
    "testautomation": {
      "enabled": true
    },
    "updateserver": {
      "enabled": true
    },
    "enabled": true
  },
  "infra": {
    "docker_registry": {
      "username": " PLACEHOLDER ",
      "password": " PLACEHOLDER "
   },  
     "pod_log_path": ""
  },
  "platform": {
    "enabled": true
  },
  "automation_hub": {
    "enabled": true
  },
  "automation_ops": {
    "enabled": true
  },
  "action_center": {
    "enabled": true
  },
  "aicenter": {
    "enabled": true
  },
  "documentunderstanding": {
    "enabled": true,
    "datamanager": {}
  },
  "task_mining": {
    "enabled": true
  },
  "apps": {
    "enabled": true
  },
  "test_manager": {
    "enabled": true
  },
  "insights": {
    "enabled": true
  },
  "dataservice": {
    "enabled": true
  },
  "asrobots": {
    "enabled": true,
    "packagecaching": true,
    "packagecachefolder": "/uipath_asrobots_package_cache"
  },
  "processmining": {
    "enabled": true
  },
  "external_object_storage": {
    "enabled": false
  },
  "identity_certificate": {},
  "profile": "ha",
  "telemetry_optout": false,
  "alternative_fqdn": "",
  "server_certificate": {
    "ca_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/rootCA.crt",
    "tls_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/server.crt",
    "tls_key_file": "/opt/UiPathAutomationSuite/UiPath_Installer/server.key"
  },
  "alternative_certificate": {
    "ca_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-rootCA.crt",
    "tls_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-server.crt",
    "tls_key_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-server.key"
  }
}

Configuration générale

Paramètres obligatoires

Description

fqdn

Le nom de domaine de l'équilibreur de charge (mode de production multi-nœuds compatible haute disponibilité) ou de la machine (mode d'évaluation à nœud unique).

fixed_rke_address

Adresse fixe utilisée pour équilibrer la charge de l'enregistrement des nœuds et des requêtes de l'API kube. Il doit s'agir du nom de domaine complet si l'équilibreur de charge est configuré comme recommandé. Sinon, il doit s'agir du nom de domaine complet du 1er nœud de serveur. Référez-vous à Configurer l'équilibreur de charge.

Peut être l'IP/le FQDN du premier serveur rke2 de votre configuration.

multinode

Défini sur true lors du choix d'un profil de production multi-nœuds compatible haute disponibilité. La valeur de cet indicateur est définie automatiquement par le programme d'installation interactif. Elle est utilisée à des fins internes uniquement et ne doit pas être modifiée manuellement.

admin_username

Le nom d'utilisateur que vous souhaitez définir comme administrateur (par exemple : admin) pour l'organisation hôte.

admin_password

Mot de passe de l'administrateur hôte à définir.

rke_token

Utilisez un GUID nouvellement généré ici. Il s'agit d'une clé secrète pré-partagée, spécifique au cluster. Elle est nécessaire pour tous les nœuds rejoignant le cluster.

profile

Définit le profil de l'installation. Les profils disponibles sont :

  • default : profil d'évaluation à nœud unique.
  • ha : profil de production compatible haute disponibilité multi-nœuds.

La valeur de cet indicateur est définie automatiquement par le programme d'installation interactif. Elle est utilisée à des fins internes uniquement et ne doit pas être modifiée manuellement.

infra.docker_registry.username

Le nom d'utilisateur que vous souhaitez définir pour l'installation du registre docker.

infra.docker_registry.password

Le mot de passe que vous souhaitez définir pour l'installation du registre docker.

Paramètres facultatifs

Description

telemetry_optout

true ou false - utilisé pour désactiver le renvoi de la télémétrie à UiPath. Il est défini sur false par défaut.
Si vous souhaitez le désactiver, définissez-le sur true.

infra.pod_log_path

Vous permet de remplacer le chemin par défaut /var/log/pods des journaux de pod par le chemin personnalisé de votre choix.
Remarque :
La mise à jour du chemin du journal a pour effet de supprimer les journaux du conteneur existant dans /var/log/pods.

Configuration du certificat

Si aucun certificat n'est fourni au moment de l'installation, le programme d'installation crée un certificat auto-émis et le configure dans le cluster.

La validité des certificats auto-signés est de 90 jours.

Pour plus de détails sur la façon d'obtenir un certificat, consultez :

Remarque :
Assurez-vous de spécifier le chemin absolu pour les fichiers de certificat. Exécutez pwd pour obtenir le chemin du répertoire où les fichiers sont placés et ajoutez le nom du fichier de certificat dans cluster_config.json .

Dans les installations en mode de production multi-nœuds compatible haute disponibilité, un certificat est requis uniquement sur le premier nœud.

Paramètre

Description

server_certificate.ca_cert_file

Chemin absolu vers le certificat de l'autorité de certification. Cette autorité de certification est l'autorité qui signe le certificat TLS. Un bundle d'autorité de certification ne doit contenir que les certificats de chaîne utilisés pour signer le certificat TLS. La limite de la chaîne est de neuf certificats.

Si vous utilisez un certificat auto-signé, vous devez spécifier le chemin d'accès au rootCA.crt, que vous avez créé précédemment. Laissez ce champ vide si vous souhaitez que le programme d'installation le génère.

server_certificate.tls_cert_file

Chemin absolu vers le certificat TLS (server.crt est le certificat auto-signé). Laissez ce champ vide si vous souhaitez que le programme d'installation le génère.

server_certificate.tls_key_file

Chemin absolu vers la clé de certificat (server.key est le certificat auto-signé). Laissez ce champ vide si vous souhaitez que le programme d'installation le génère.

identity_certificate.token_signing_cert_file

Chemin absolu vers le certificat de signature du jeton d'identité utilisé pour signer les jetons (identity.pfx est le certificat auto-signé). Laissez ce champ vide si vous souhaitez que le programme d'installation génère un certificat d'identité à l'aide du certificat du serveur.

identity_certificate.token_signing_cert_pass

Mot de passe en texte brut défini lors de l'exportation du certificat de signature du jeton d'identité.

additional_ca_certs

Chemin d'accès absolu au fichier contenant les certificats de l'autorité de certification supplémentaires que tous les services exécutés dans le cadre d'Automation Suite doivent approuver. Tous les certificats du fichier doivent être dans un format PEM valide.

Par exemple, vous devez fournir le fichier contenant le certificat de l'autorité de certification du serveur SQL si le certificat n'est pas émis par une autorité de certification publique.

Configuration de la base de données

Workflow de création de base de données

Le programme d'installation interactif crée automatiquement des bases de données à l'aide du workflow suivant :

  1. Le script d'installation interactif vérifie la valeur du paramètre sql.create_db dans le fichier cluster_config.json .
    • Si le paramètre sql.create_db est défini sur true, le programme d'installation génère automatiquement toutes les bases de données en votre nom. Dans ce cas, le programme d'installation utilise les noms de base de données par défaut et les modèles par défaut, et ignore tous les noms de base de données personnalisés que vous avez fournis.
    • Si sql.create_db est défini sur false, vous devez apporter vos propres bases de données. Dans ce cas, vous devez configurer manuellement vos bases de données. Notez que vous pouvez utiliser des noms de base de données personnalisés, à condition de suivre les conventions d'affectation de nom fournies. Cette étape est essentielle car nous utilisons le nom de la base de données conjointement avec le modèle de connexion pour former la chaîne de connexion de la base de données. Si vous ne suivez pas la convention d’affectation de noms recommandée, vous devez fournir vous-même les chaînes de connexion SQL.

      Pour plus de détails, consultez Fournissez vos propres bases de données.

  2. Le programme d'installation interactif génère les chaînes de connexion comme suit :

    • Si vous n’avez pas défini de chaîne de connexion pour votre service, le programme d’installation utilise le modèle de connexion pour générer toutes les chaînes de connexion de la base de données.

    • Si vous avez défini une chaîne de connexion pour votre service, le programme d’installation utilise la chaîne de connexion fournie pour votre base de données.

Créer automatiquement les bases de données nécessaires

Si vous souhaitez que le programme d'installation crée les bases de données, veuillez remplir les champs suivants :

Paramètre

Description

sql.create_db

Définissez sur true pour permettre au programme d'installation de créer les bases de données. Notez que le programme d'installation utilise les noms de base de données par défaut et les modèles par défaut, et ignore tous les noms de base de données personnalisés que vous avez fournis.

sql.server_url

Nom de domaine complet du serveur SQL, où vous souhaitez que le programme d’installation configure la base de données.

sql.port

Numéro de port sur lequel une instance de base de données doit être hébergée dans le serveur SQL.

sql.username

Nom d'utilisateur / ID d'utilisateur pour se connecter au serveur SQL.

sql.password

Mot de passe du nom d'utilisateur fourni précédemment pour se connecter au serveur SQL.

Remarque :
Assurez-vous que l'utilisateur dispose du rôle dbcreator. Cela leur accorde l'autorisation de créer la base de données dans SQL Server. Sinon, l'installation échoue.

La connexion ODBC ne prend pas en charge les noms d'utilisateur contenant des caractères spéciaux. Pour les noms d'utilisateur de base de données pour AI Center et Document Understanding, utilisez uniquement des lettres majuscules et minuscules.

Fournissez votre propre base de données

Si vous choisissez d’apporter vos propres bases de données dans le cadre d’une nouvelle installation Automation Suite, nous vous recommandons fortement de créer de nouvelles bases de données plutôt que d’utiliser les bases existantes. Cette précaution est nécessaire afin d’éviter tout conflit avec le fonctionnement d’Automation Suite qui pourrait être provoqué par la présence de métadonnées relatives à d’anciennes bases de données.

Si vous apportez votre propre base de données, vous devez fournir les chaînes de connexion SQL pour chaque base de données. Automation Suite prend en charge les formats de chaîne de connexion SQL suivants :

Paramètre

Description

Produits

sql_connection_string_template

Chaîne de connexion ADO.NET complète où le nom du catalogue est défini sur DB_NAME_PLACEHOLDER. Le programme d'installation remplacera cet espace réservé par les noms de base de données par défaut pour les services de la suite installée.

Plate-forme, Orchestrator, Automation Suite Robots, Test Manager, Automation Hub, Automation Ops, Insights, Task Mining, Data Service, Process Mining, Document Understanding

sql_connection_string_template_jdbc

Chaîne de connexion ODBC complète où le nom de la base de données est défini sur DB_NAME_PLACEHOLDER. Le programme d'installation remplacera cet espace réservé par les noms de base de données par défaut pour les services de la suite installée.

AI Center

sql_connection_string_template_odbc

Chaîne de connexion ODBC complète où le nom de la base de données est défini sur DB_NAME_PLACEHOLDER. Le programme d'installation remplacera cet espace réservé par les noms de base de données par défaut pour les services de la suite installée.

Document Understanding

sql_connection_string_template_sqlalchemy_pyodbc

Chaîne de connexion PYODBC SQL complète où le nom de la base de données est défini sur DB_NAME_PLACEHOLDER. Le programme d'installation remplacera cet espace réservé par les noms de base de données par défaut pour les services de la suite installée.

Process Mining

Important :
Assurez-vous que le compte SQL spécifié dans les chaînes de connexion dispose des rôles db_securityadmin et db_owner pour toutes les bases de données Automation Suite. Si les restrictions de sécurité n'autorisent pas l'utilisation de db_owner, le compte SQL doit avoir les rôles et autorisations suivants sur toutes les bases de données :
  • db_ddladmin
  • db_datawriter
  • db_datareader
  • Autorisation EXECUTE sur le schéma dbo
Important :

Si vous définissez manuellement les chaînes de connexion dans le fichier de configuration, vous pouvez échapper les mots de passe SQL, JDBC, ODBC ou PYODBC comme suit :

  • pour SQL : ajoutez ' au début et à la fin du mot de passe, et doublez tout autre ' .
  • pour JDBC/ODBC : ajoutez { au début du mot de passe et } à la fin, et doublez tout autre } .
  • pour PYODBC : username et password doivent être encodés par URL pour tenir compte des caractères spéciaux.
Important : la base de données AutomationSuite_ProcessMining_Airflow du produit Process Mining doit avoir l'élément READ_COMMITTED_SNAPSHOT activé.
Remarque :
Par défaut, TrustServerCertificate est défini sur False, et vous devez fournir un certificat CA supplémentaire pour SQL Server. Ceci est requis si le certificat SQL Server est auto-signé ou signé par une autorité de certification interne.

Consultez Configuration du certificat sur cette page pour plus de détails.

exemple sql_connection_string_template

Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net:1433;Initial Catalog=DB_NAME_PLACEHOLDER;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net:1433;Initial Catalog=DB_NAME_PLACEHOLDER;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;

exemple sql_connection_string_template_jdbc

jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net:1433;database=DB_NAME_PLACEHOLDER;user=testadmin;password=***;encrypt=true;trustServerCertificate=false;Connection Timeout=30;hostNameInCertificate=sfdev1804627-c83f074b-sql.database.windows.net"jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net:1433;database=DB_NAME_PLACEHOLDER;user=testadmin;password=***;encrypt=true;trustServerCertificate=false;Connection Timeout=30;hostNameInCertificate=sfdev1804627-c83f074b-sql.database.windows.net"

exemple sql_connection_string_template_odbc

SERVER=sfdev1804627-c83f074b-sql.database.windows.net,1433;DATABASE=DB_NAME_PLACEHOLDER;DRIVER={ODBC Driver 17 for SQL Server};UID=testadmin;PWD=***;MultipleActiveResultSets=False;Encrypt=YES;TrustServerCertificate=NO;Connection Timeout=30;"SERVER=sfdev1804627-c83f074b-sql.database.windows.net,1433;DATABASE=DB_NAME_PLACEHOLDER;DRIVER={ODBC Driver 17 for SQL Server};UID=testadmin;PWD=***;MultipleActiveResultSets=False;Encrypt=YES;TrustServerCertificate=NO;Connection Timeout=30;"

sql_connection_string_template_sqlalchemy_pyodbc

mssql+pyodbc://testuser%40sfdev3082457-sql.database.windows.net:_-%29X07_%5E3-%28%3B%25e-T@sfdev3082457-sql.database.windows.net:1433/DB_NAME_PLACEHOLDER?driver=ODBC+Driver+17+for+SQL+Server"mssql+pyodbc://testuser%40sfdev3082457-sql.database.windows.net:_-%29X07_%5E3-%28%3B%25e-T@sfdev3082457-sql.database.windows.net:1433/DB_NAME_PLACEHOLDER?driver=ODBC+Driver+17+for+SQL+Server"

Noms de bases de données par défaut et facultatifs pour les services Automation Suite

{
  "orchestrator": "AutomationSuite_Orchestrator",
  "orchestrator_ta": "AutomationSuite_Orchestrator",
  "asrobots": "AutomationSuite_Orchestrator",
  "orchestrator_upd": "AutomationSuite_Platform",
  "platform": "AutomationSuite_Platform",
  "test_manager": "AutomationSuite_Test_Manager",
  "automation_ops": "AutomationSuite_Platform",
  "automation_hub": "AutomationSuite_Automation_Hub",
  "insights": "AutomationSuite_Insights",
  "task_mining": "AutomationSuite_Task_Mining",
  "dataservice": "AutomationSuite_DataService", 
  "aicenter": "AutomationSuite_AICenter",
  "documentunderstanding": "AutomationSuite_DU_Datamanager",
  "processmining_airflow": "AutomationSuite_Airflow",
  "processmining_metadata": "AutomationSuite_ProcessMining_Metadata",
  "processmining_warehouse": "AutomationSuite_ProcessMining_Warehouse",
    
}{
  "orchestrator": "AutomationSuite_Orchestrator",
  "orchestrator_ta": "AutomationSuite_Orchestrator",
  "asrobots": "AutomationSuite_Orchestrator",
  "orchestrator_upd": "AutomationSuite_Platform",
  "platform": "AutomationSuite_Platform",
  "test_manager": "AutomationSuite_Test_Manager",
  "automation_ops": "AutomationSuite_Platform",
  "automation_hub": "AutomationSuite_Automation_Hub",
  "insights": "AutomationSuite_Insights",
  "task_mining": "AutomationSuite_Task_Mining",
  "dataservice": "AutomationSuite_DataService", 
  "aicenter": "AutomationSuite_AICenter",
  "documentunderstanding": "AutomationSuite_DU_Datamanager",
  "processmining_airflow": "AutomationSuite_Airflow",
  "processmining_metadata": "AutomationSuite_ProcessMining_Metadata",
  "processmining_warehouse": "AutomationSuite_ProcessMining_Warehouse",
    
}
Remarque :
Si vous souhaitez remplacer la chaîne de connexion pour l'un des services ci-dessus, définissez le sql_connection_str pour ce service spécifique.

Vous devez toujours créer manuellement ces bases de données avant d'exécuter le programme d'installation.

Remplacer la chaîne de connexion par défaut pour Orchestrator et la plateforme

{
  "orchestrator": {
    "sql_connection_str": "Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net,1433;Initial Catalog=CustomOrchDB;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;"
  },
  "platform": {
    "sql_connection_str": "Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net,1433;Initial Catalog=CustomIDDB;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;"
  }
}{
  "orchestrator": {
    "sql_connection_str": "Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net,1433;Initial Catalog=CustomOrchDB;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;"
  },
  "platform": {
    "sql_connection_str": "Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net,1433;Initial Catalog=CustomIDDB;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;"
  }
}
Pour remplacer les chaînes de connexion à la base de données pour d'autres produits, définissez le sql_connection_str dans les blocs de produits correspondants. La chaîne de connexion doit avoir un format pris en charge par le produit respectif.

Exemple de définition de la chaîne de connexion à la base de données pour AI Center

Paramètre

Description

aicenter.sql_connection_str

Chaîne de connexion AICenter JDBC (voir ci-dessous pour le format JDBC)

Remarque : Vérifiez que la chaîne de connexion JDBC a le même format que dans l'exemple ci-dessous.
"aicenter": {
    "enabled": true,
    "sql_connection_str": "jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net;database=aicenter;user=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;password=TFgID_9GsE7_P@srCQp0WemXX_euHQZJ"
}"aicenter": {
    "enabled": true,
    "sql_connection_str": "jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net;database=aicenter;user=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;password=TFgID_9GsE7_P@srCQp0WemXX_euHQZJ"
}

Exemple de chaîne de connexion Document Understanding

"documentUnderstanding": {
  "datamanager": {
    "sql_connection_str": "SERVER=sql-server.database.windows.net;DATABASE=datamanager;DRIVER={ODBC Driver 17 for SQL Server};UID=testadmin;PWD=myPassword"
  },
  "sql_connection_str": "Server=tcp:database.example.com,1433;Initial Catalog=db;Persist Security Info=False;User Id=testadmin@example.com;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;",
  "cjkOcr": 
  {
    "enabled": true
  }
}"documentUnderstanding": {
  "datamanager": {
    "sql_connection_str": "SERVER=sql-server.database.windows.net;DATABASE=datamanager;DRIVER={ODBC Driver 17 for SQL Server};UID=testadmin;PWD=myPassword"
  },
  "sql_connection_str": "Server=tcp:database.example.com,1433;Initial Catalog=db;Persist Security Info=False;User Id=testadmin@example.com;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;",
  "cjkOcr": 
  {
    "enabled": true
  }
}
Remarque : La chaîne de connexion SQL de Data manager est facultative uniquement si vous souhaitez remplacer la valeur par défaut par la vôtre.

L'écriture manuscrite est toujours activée pour l'installation en ligne.

La valeur par défaut de max_cpu_per-pod est 2, mais vous pouvez l'ajuster en fonction de vos besoins. Pour plus d'informations, consultez le fichier de configuration Document Understanding.

Configuration du magasin d'objets externe

Configuration générale

Automation Suite permet de faire appel à votre propre fournisseur de stockage externe. Vous pouvez choisir parmi les fournisseurs de stockage suivants :

  • Azure
  • AWS
  • Compatible S3

Vous pouvez configurer le stockage d'objets externe de l'une des manières suivantes :

  • lors de l'installation, à l'aide du programme d'installation interactif ;
  • post-installation, à l'aide du fichier cluster_config.json.
Remarque :
  • Pour qu'Automation Suite fonctionne correctement lors de l'utilisation d'URL pré-signées, vous devez vous assurer que votre magasin d'objets externe est accessible depuis le cluster Automation Suite, les navigateurs et toutes vos machines, y compris les stations de travail et les machines robots.
  • Le chiffrement côté serveur avec service de gestion des clés (SSE-KMS) peut uniquement être activé pour les compartiments Automation Suite déployés dans n’importe quelle région créée après le 30 janvier 2014.

    La fonctionnalité SSE-KMS nécessite des API Pure SignV4. Les régions créées avant le 30 janvier 2014 n'utilisent pas d'API Pure SignV4 en raison de la rétrocompatibilité avec SignV2. Par conséquent, SSE-KMS fonctionne uniquement dans les régions qui utilisent SignV4 pour communiquer. Pour connaître le calendrier d'enregistrement des différentes régions, consultez la documentation AWS.

La table suivante répertorie les paramètres cluster_config.json que vous pouvez utiliser pour configurer chaque fournisseur de stockage d'objets externe :

Paramètre

Azure

AWS

Compatible S3

Description

external_object_storage.enabled

available

available

available

Indiquez si vous souhaitez apporter votre propre magasin d'objets. Valeurs possibles : true et false.

external_object_storage.create_bucket

available

available

available

Indiquez si vous souhaitez enregistrer le compartiment. Valeurs possibles : true et false.

external_object_storage.storage_type

available

available

available

Indiquez le fournisseur de stockage que vous souhaitez configurer. La valeur est sensible à la casse. Valeurs possibles : azure et s3.
Remarque : de nombreux magasins d'objets S3 nécessitent que CORS soit défini sur l'ensemble trafic provenant du cluster Automation Suite. Vous devez configurer la stratégie CORS au niveau du magasin d'objets pour autoriser le nom de domaine complet du cluster.

external_object_storage.fqdn

Non disponible

available

available

Indiquez le nom de domaine complet du serveur S3. Obligatoire dans le cas de l'instance AWS et d’un profil sans instance.

external_object_storage.port

Non disponible

available

available

Indiquez le port S3. Obligatoire dans le cas de l'instance AWS et d’un profil sans instance.

external_object_storage.region

Non disponible

available

available

Indiquez la région AWS où les compartiments sont hébergés. Obligatoire dans le cas de l'instance AWS et d’un profil sans instance.

external_object_storage.access_key

Non disponible

available

available

Spécifiez la clé d'accès du compte S3. Uniquement requis dans le cas du profil AWS sans instance.

external_object_storage.secret_key

Non disponible

available

available

Spécifiez la clé secrète du compte S3. Uniquement requis dans le cas du profil AWS sans instance.

external_object_storage.use_instance_profile

Non disponible

available

available

Spécifiez si vous souhaitez utiliser un profil d’instance. Un profil d’instance AWS Identity and Access Management (IAM) accorde un accès sécurisé aux ressources AWS pour les applications ou les services exécutés sur des instances Amazon Elastic Compute Cloud (EC2). Si vous optez pour AWS S3, un profil d’instance permet à une instance EC2 d’interagir avec des compartiments S3 sans avoir besoin que les informations d’identification AWS explicites (telles que les clés d’accès) soient stockées sur l’instance.

external_object_storage.use_managed_identity

available

Non disponible

Non disponible

Utilisez l'identité managée avec votre compte de stockage Azure. Valeurs possibles : true et false.
external_object_storage.bucket_name_prefix 1

Non disponible

available

available

Indiquez le préfixe des noms de compartiment. Facultatif dans le cas du profil AWS sans instance.

external_object_storage.bucket_name_suffix 2

Non disponible

available

available

Indiquez le suffixe des noms de compartiment. Facultatif dans le cas du profil AWS sans instance.

external_object_storage.account_key

available

Non disponible

Non disponible

Spécifiez la clé de compte Azure. Uniquement requis lors de l’utilisation d’une identité non managée.

external_object_storage.account_name

available

Non disponible

Non disponible

Spécifiez le nom du compte Azure.

external_object_storage.azure_fqdn_suffix

available

Non disponible

Non disponible

Spécifiez le suffixe du nom de domaine complet Azure. Paramètre facultatif.

external_object_storage.client_id

available

Non disponible

Non disponible

Indiquez votre ID de client Azure. Uniquement requis lors de l’utilisation de l’identité gérée.

1, 2 Lors de la configuration du stockage d'objets externe, vous devez suivre les règles de nommage et les conventions de votre fournisseur pour bucket_name_prefix et bucket_name_suffix. De plus, le suffixe et le préfixe doivent avoir une longueur combinée de 25 caractères maximum, et vous ne devez pas terminer le préfixe ou commencer le suffixe par un trait d'union (-) car nous ajoutons déjà le caractère pour vous automatiquement.

Configuration spécifique au produit

Vous pouvez utiliser les paramètres décrits dans la section Configuration générale (General configuration ) pour mettre à jour la configuration générale d'Automation Suite. Cela signifie que tous les produits installés partageraient la même configuration. Si vous souhaitez configurer un ou plusieurs produits différemment, vous pouvez remplacer la configuration générale. Il vous suffit de spécifier le ou les produits pour lesquels vous souhaitez configurer différemment le stockage d'objets externes et d'utiliser les mêmes paramètres pour définir votre configuration. Notez que tous les autres produits installés continueront d'hériter de la configuration générale.

L'exemple suivant montre comment remplacer la configuration générale d'Orchestrator :

"external_object_storage": {
  "enabled": false, // <true/false>
  "create_bucket": true, // <true/false>
  "storage_type": "s3", // <s3,azure,aws>
  "fqdn": "",  // <needed in the case of aws instance and non-instance profile>
  "port": 443, // <needed in the case of aws instance and non-instance profile>
  "region": "", 
  "access_key": "", // <needed in case of aws non instance profile>
  "secret_key": "", // <needed in case of aws non instance profile>
  "use_managed_identity": false, // <true/false>
  "bucket_name_prefix": "",
  "bucket_name_suffix": "",
  "account_key": "", // <needed only when using non managed identity>
  "account_name": "",
  "azure_fqdn_suffix": "core.windows.net",
  "client_id": "" // <optional field in case of managed identity>
},

"orchestrator": {
  "external_object_storage": {
    "enabled": false, // <true/false>
    "create_bucket": true, // <true/false>
    "storage_type": "s3", // <s3,azure>
    "fqdn": "",  // <needed in the case of aws instance and non-instance profile>
    "port": 443, // <needed in the case of aws instance and non-instance profile>
    "region": "", 
    "access_key": "", // <needed in case of aws non instance profile>
    "secret_key": "", // <needed in case of aws non instance profile>
    "use_managed_identity": false, // <true/false>
    "bucket_name_prefix": "",
    "bucket_name_suffix": "",
    "account_key": "", // <needed only when using non managed identity>
    "account_name": "",
    "azure_fqdn_suffix": "core.windows.net",
    "client_id": "" // <optional field in case of managed identity>
  }
}"external_object_storage": {
  "enabled": false, // <true/false>
  "create_bucket": true, // <true/false>
  "storage_type": "s3", // <s3,azure,aws>
  "fqdn": "",  // <needed in the case of aws instance and non-instance profile>
  "port": 443, // <needed in the case of aws instance and non-instance profile>
  "region": "", 
  "access_key": "", // <needed in case of aws non instance profile>
  "secret_key": "", // <needed in case of aws non instance profile>
  "use_managed_identity": false, // <true/false>
  "bucket_name_prefix": "",
  "bucket_name_suffix": "",
  "account_key": "", // <needed only when using non managed identity>
  "account_name": "",
  "azure_fqdn_suffix": "core.windows.net",
  "client_id": "" // <optional field in case of managed identity>
},

"orchestrator": {
  "external_object_storage": {
    "enabled": false, // <true/false>
    "create_bucket": true, // <true/false>
    "storage_type": "s3", // <s3,azure>
    "fqdn": "",  // <needed in the case of aws instance and non-instance profile>
    "port": 443, // <needed in the case of aws instance and non-instance profile>
    "region": "", 
    "access_key": "", // <needed in case of aws non instance profile>
    "secret_key": "", // <needed in case of aws non instance profile>
    "use_managed_identity": false, // <true/false>
    "bucket_name_prefix": "",
    "bucket_name_suffix": "",
    "account_key": "", // <needed only when using non managed identity>
    "account_name": "",
    "azure_fqdn_suffix": "core.windows.net",
    "client_id": "" // <optional field in case of managed identity>
  }
}

Rotation des identifiants de stockage d'objets blob pour Process Mining

Pour effectuer une rotation des informations d'identification de stockage d'objets blob pour Process Mining dans Automation Suite, les clés secrètes stockées doivent être mises à jour avec les nouvelles informations d'identification. Voir Rotation des informations d'identification de stockage d'objets blob.

Configuration spécifique à Orchestrator

Orchestrator peut enregistrer les journaux des évènements du Robot sur un serveur Elasticsearch. Vous pouvez configurer cette fonctionnalité dans la section orchestrator.orchestrator_robot_logs_elastic. Si ce paramètre n'est pas configuré, les journaux des évènements du Robot seront enregistrés dans la base de données d'Orchestrator.
Le tableau suivant répertorie les paramètres orchestrator.orchestrator_robot_logs_elastic :

Paramètre

Description

elastic_uri

L'adresse de l'instance Elasticsearch devant être utilisée. Elle doit être fournie sous la forme d'un URI. Si celle-ci est fournie, alors le nom d'utilisateur et le mot de passe sont également requis.

elastic_auth_username

Le nom d'utilisateur Elasticsearch, utilisé pour l'authentification.

elastic_auth_password

Le mot de passe Elasticsearch, utilisé pour l'authentification.

Exemple

"orchestrator": {
    "orchestrator_robot_logs_elastic": {
        "elastic_uri": "https://elastic.example.com:9200",
        "elastic_auth_username": "elastic-user",
        "elastic_auth_password": "elastic-password"
    }
}"orchestrator": {
    "orchestrator_robot_logs_elastic": {
        "elastic_uri": "https://elastic.example.com:9200",
        "elastic_auth_username": "elastic-user",
        "elastic_auth_password": "elastic-password"
    }
}

Configuration spécifique à Insights

Si vous activez Insights, les utilisateurs peuvent inclure la configuration du serveur SMTP qui sera utilisée pour envoyer des e-mails/e-mails d'alerte programmés. S'ils ne sont pas fournis, les e-mails programmés et les e-mails d'alerte ne fonctionneront pas.

Les détails des champs insights.smtp_configuration :

Paramètre

Description

tls_version

Les valeurs valides sont TLSv1_2, TLSv1_1, SSLv23. Omettez complètement la clé si vous n'utilisez pas TLS.

from_email

Adresse à partir de laquelle les e-mails d'alerte/programmés seront envoyés.

host

Nom d'hôte du serveur SMTP.

port

Le port du serveur SMTP.

username

Nom d’utilisateur pour l’authentification du serveur SMTP.

password

Mot de passe pour l’authentification du serveur SMTP.

Exemple

"insights": {
    "enabled": true,
    "smtp_configuration": {
      "tls_version": "TLSv1_2",
      "from_email": "test@test.com",
      "host": "smtp.sendgrid.com",
      "port": 587,
      "username": "login",
      "password": "password123"
    }
  }"insights": {
    "enabled": true,
    "smtp_configuration": {
      "tls_version": "TLSv1_2",
      "from_email": "test@test.com",
      "host": "smtp.sendgrid.com",
      "port": 587,
      "username": "login",
      "password": "password123"
    }
  }

Configuration spécifique à Process Mining

Si vous activez Process Mining, nous recommandons aux utilisateurs d'indiquer un serveur SQL SECONDAIRE pour agir comme un entrepôt de données distinct du serveur SQL Automation Suite principal. L'entrepôt de données du serveur SQL sera soumis à une charge importante et peut être configuré dans la section processmining :

Paramètre

Description

sql_connection_str

Chaîne de connexion au format DotNet avec la base de données définie comme espace réservé : Initial Catalog=DB_NAME_PLACEHOLDER .

sqlalchemy_pyodbc_sql_connection_str

Chaîne de connexion au format Sqlalchemy PYODBC pour l'emplacement des métadonnées personnalisées :

sqlServer:1433/DB_NAME_PLACEHOLDER.

warehouse.sql_connection_str

Chaîne de connexion SQL au format DotNet au serveur SQL de l'entrepôt de données processmining avec un espace réservé pour le nom de base de données :

Initial Catalog=DB_NAME_PLACEHOLDER.

warehouse.sqlalchemy_pyodbc_sql_connection_str

Chaîne de connexion SQL au format Sqlalchemy PYODBC à l'entrepôt de données processmining SQL Server avec un espace réservé pour le nom de base de données :

sqlServer:1433/DB_NAME_PLACEHOLDER.

warehouse.master_sql_connection_str

Si le programme d'installation crée des bases de données via le paramètre sql.create_db: true, une chaîne de connexion SQL principale au format DotNet doit être fournie pour le serveur SQL de l'entrepôt de données processmining. La base de données dans la chaîne de connexion doit être définie sur master.

Exemple de chaîne de connexion Process Mining

"processmining": {
    "enabled": true,
    "app_security_mode": "system_managed",
    "sql_connection_str": "Server=tcp:shared_sqlserver_fqdn,1433;Initial Catalog=AutomationSuite_ProcessMining_Metadata;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
    "sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://username:password@shared_sqlserver_fqdn:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
    "warehouse": {
      "sql_connection_str": "Server=tcp:dedicated_sqlserver_fqdn,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
      "sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://useername:password@dedicated_sqlserver_fqdn:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
      "master_sql_connection_str": "Server=tcp:dedicated_sqlserver_fqdn,1433;Initial Catalog=master;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
    },
    "blob_storage_account_use_presigned_uri": true
  }, "processmining": {
    "enabled": true,
    "app_security_mode": "system_managed",
    "sql_connection_str": "Server=tcp:shared_sqlserver_fqdn,1433;Initial Catalog=AutomationSuite_ProcessMining_Metadata;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
    "sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://username:password@shared_sqlserver_fqdn:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
    "warehouse": {
      "sql_connection_str": "Server=tcp:dedicated_sqlserver_fqdn,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
      "sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://useername:password@dedicated_sqlserver_fqdn:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
      "master_sql_connection_str": "Server=tcp:dedicated_sqlserver_fqdn,1433;Initial Catalog=master;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
    },
    "blob_storage_account_use_presigned_uri": true
  },
Important :
Vous devez utiliser le port de serveur par défaut 1433 pour les bases de données suivantes :
  • warehouse.sql_connection_str
  • warehouse.sqlalchemy_pyodbc_sql_connection_str
  • warehouse.master_sql_connection_str

Les ports de serveur SQL non standard ne sont pas pris en charge.

Attention :

Lors de la configuration des chaînes de connexion pour le serveur SQL de l'entrepôt de données processmining, l'instance nommée du serveur SQL doit être omise.

Les instances nommées de SQL Server ne peuvent pas fonctionner sur le même port TCP. Par conséquent, le numéro de port seul est suffisant pour faire la distinction entre les instances.

Par exemple, utilisez tcp:server,1433 au lieu de tcp:server\namedinstance,1433.

Configuration spécifique à Automation Suite Robots

Les Automation Suite Robots peuvent utiliser la mise en cache des packages pour optimiser vos exécutions de processus et leur permettre de s'exécuter plus rapidement. Les packages NuGet sont récupérés à partir du système de fichiers au lieu d'être téléchargés à partir d'Internet/du réseau. Ils nécessitent un espace supplémentaire d'au moins 10 Go et doivent être attribués à un dossier sur le système de fichiers de la machine hôte des nœuds dédiés.

Pour activer la mise en cache des packages, vous devez mettre à jour les paramètres cluster_config.jsonsuivants :

Paramètre

Valeur par défaut

Description

packagecaching

true

Lorsqu'il est défini sur true, les robots utilisent un cache local pour la résolution des packages.

packagecachefolder

/uipath_asrobots_package_cache

L'emplacement du disque sur le nœud de l'agent sans serveur où les packages sont stockés.

Configuration spécifique à AI Center

Pour que AI Center fonctionne correctement, vous devez configurer les paramètres aicenter.external_object_storage.port et aicenter.external_object_storage.fqdn dans le fichier cluster_config.json .
Remarque : vous devez configurer les paramètres dans la section aicenter du fichier cluster_config.jsonmême si vous avez configuré la section external_object_storage du fichier.
L’exemple suivant montre une configuration cluster_config.jsonvalide pour AI Center :
"aicenter": {
  "external_object_storage" {
    "port": 443,
    "fqdn": "s3.us-west-2.amazonaws.com"
  }
},
"external_object_storage": {
  "enabled": true,
  "create_bucket": false,
  "storage_type": "s3", 
  "region": "us-west-2", 
  "use_instance_profile": true
}
..."aicenter": {
  "external_object_storage" {
    "port": 443,
    "fqdn": "s3.us-west-2.amazonaws.com"
  }
},
"external_object_storage": {
  "enabled": true,
  "create_bucket": false,
  "storage_type": "s3", 
  "region": "us-west-2", 
  "use_instance_profile": true
}
...

Configuration de la surveillance

Pour enregistrer suffisamment de ressources pour la surveillance (voir Utilisation de la pile de surveillance), vous devez tenir compte du nombre de vCPU dans le cluster et de la quantité de rétention de métriques souhaitée. Voir ci-dessous pour savoir comment définir les configurations de ressources de surveillance suivantes.

Le tableau suivant décrit les détails du champ de surveillance :

Paramètre

Description

prometheus_retention

En jours.

Il s'agit du nombre de jours pendant lesquels les métriques seront conservées à des fins de visualisation dans Grafana et de requête manuelle via la console Prometheus.

La valeur par défaut est 7.

prometheus_storage_size

En Gio.

Quantité d'espace de stockage à réserver par réplica Prometheus.

Une bonne règle de base consiste à définir cette valeur sur :

0.65 * vCPU cores * (prometheus_retention / 7)

Exemple :

Si vous définissez prometheus_retention sur 14 jours et que votre cluster comporte 80 cœurs répartis sur 5 machines, cela devient :

0.65 * 80 * (14 / 7)

52 * (2)

104

La valeur par défaut est 45 et ne doit pas être inférieure.

Si Prometheus commence à manquer d'espace de stockage, une alerte sera déclenchée avec des instructions de correction spécifiques. Voir ici.

prometheus_memory_limit

En Mio.

Quantité de mémoire à laquelle limiter chaque réplica Prometheus.

Une bonne règle de base consiste à définir cette valeur sur :

100 * vCPU cores * (prometheus_retention / 7)

Exemple :

Si vous avez défini prometheus_retention sur 14 jours et que votre cluster comporte 80 cœurs répartis sur 5 machines, cela devient :

100 * 80 * (14 / 7)

8000 * (2)

16000

La valeur par défaut est 3200 pour le mode d'évaluation à nœud unique et 6000 pour le mode de production multi-nœuds compatible haute disponibilité ; elle ne doit jamais être inférieure.

Si Prometheus commence à manquer de mémoire, une alerte sera déclenchée avec des instructions de correction spécifiques. Voir ici.

Exemple

"monitoring": {
  "prometheus_retention": 14,
  "prometheus_memory_limit": 16000,
  "prometheus_storage_size": 104
}"monitoring": {
  "prometheus_retention": 14,
  "prometheus_memory_limit": 16000,
  "prometheus_storage_size": 104
}

Facultatif : configuration du serveur proxy

Remarque :

Assurez-vous que vous répondez aux exigences du serveur proxy avant de configurer le serveur proxy lors de l'installation.

Lors de l'exécution de l'assistant d'installation interactif, vous devez le quitter et mettre à jour le cluster_config.json lors de l'étape de configuration avancée.

Vous devez ajouter les éléments suivants au fichier de configuration à l'aide de vim ou de votre éditeur préféré dans le fichier de configuration :

"proxy": {
  "enabled": true,
  "http_proxy": "http://<PROXY-SERVER-IP>:<PROXY-PORT>",
  "https_proxy": "http://<PROXY-SERVER-IP>:<PROXY-PORT>",
  "no_proxy": "alm.<fqdn>,<fixed_rke_address>:9345,<fixed_rke_address>:6443,<named server address>,<metadata server address>,<k8s address range>,<private_subnet_ip>,<sql server host>,<Comma separated list of ips that should not go through proxy server>"
}"proxy": {
  "enabled": true,
  "http_proxy": "http://<PROXY-SERVER-IP>:<PROXY-PORT>",
  "https_proxy": "http://<PROXY-SERVER-IP>:<PROXY-PORT>",
  "no_proxy": "alm.<fqdn>,<fixed_rke_address>:9345,<fixed_rke_address>:6443,<named server address>,<metadata server address>,<k8s address range>,<private_subnet_ip>,<sql server host>,<Comma separated list of ips that should not go through proxy server>"
}

Paramètres obligatoires

Description

enabled

Utilisez true ou false pour activer ou désactiver les paramètres de proxy.

http_proxy

Utilisé pour acheminer les requêtes sortantes HTTP à partir du cluster. Il doit s'agir du nom de domaine complet et du port du serveur proxy.

https_proxy

Utilisé pour acheminer les requêtes sortantes HTTPS à partir du cluster. Il doit s'agir du nom de domaine complet et du port du serveur proxy.

no_proxy

Liste d'hôtes, d'adresses IP ou de plages d'adresses IP au format CIDR séparée par des virgules et que vous ne souhaitez pas acheminer via le serveur proxy. Il doit s'agir d'une plage de sous-réseaux privés, d'un hôte de serveur sql, d'une adresse de serveur nommée, d'une adresse de serveur de métadonnées : *.<fqdn>,<fixed_rke_address>:9345,<fixed_rke2_address>:6443.
  • fqdn - le nom de domaine complet du cluster défini dans cluster_config.json
  • fixed_rke_address - le fixed_rke_address défini dans cluster_config.json
  • named server address - l'adresse IP de /etc/resolv.conf
  • private_subnet_ip : le réseau virtuel du cluster
  • sql server host - l'hôte du serveur sql
  • metadata server address - l'adresse IP 169.254.169.254 utilisée pour récupérer les métadonnées de la machine par les services cloud tels qu'Azure et AWS
  • k8s address range - les plages d'adresses IP utilisées par les nœuds Kubernetes, c'est-à-dire 10.0.0.0/8
Important :
Si vous utilisez AI Center avec une installation Orchestrator externe, vous devez ajouter le domaine Orchestrator externe à la liste no_proxy.

Facultatif : Activation de la résilience aux échecs locaux dans un cluster en mode production multi-nœuds compatible haute disponibilité

Pour activer la résilience aux défaillances zonales dans un cluster multi-nœuds, procédez comme suit :

  1. Assurez-vous que les nœuds sont répartis uniformément sur trois zones de disponibilité. Pour un serveur bare metal ou une machine virtuelle fournis par n'importe quel fournisseur à l'exception d'AWS, Azure ou GCP, les métadonnées de zone doivent être fournies via le fichier de configuration à /etc/default/k8s-node-labels sur chaque machine au format suivant.
    NODE_REGION_LABEL=<REGION_NAME>
    NODE_ZONE_LABEL=<ZONE_NAME>
    cat > /etc/default/k8s-node-labels <<EOF
    EXTRA_K8S_NODE_LABELS="topology.kubernetes.io/region=$NODE_REGION_LABEL,topology.kubernetes.io/zone=${NODE_ZONE_LABEL}"
    EOFNODE_REGION_LABEL=<REGION_NAME>
    NODE_ZONE_LABEL=<ZONE_NAME>
    cat > /etc/default/k8s-node-labels <<EOF
    EXTRA_K8S_NODE_LABELS="topology.kubernetes.io/region=$NODE_REGION_LABEL,topology.kubernetes.io/zone=${NODE_ZONE_LABEL}"
    EOF
  2. Mettez à jour le fichier cluster_config.json lors de l'étape de configuration avancée.
Pour mettre à jour cluster_config.json à l'aide de l'assistant d'installation interactif, quittez l'étape de configuration avancée et ajoutez ce qui suit au fichier de configuration à l'aide de vim ou de votre éditeur préféré :
"zone_resilience": true"zone_resilience": true

Paramètres obligatoires

Description

zone_resilience

Utilisez true ou false pour activer ou désactiver la résilience aux défaillances de zone.
Important :
Si vous activez la résilience à l'échec zonal, la transmission des arguments --zone et --region est :
  • recommandée si vous enregistrez vos machines sur AWS, Azure ou GCP et que les services de métadonnées sont activés lorsque le programme d'installation renseigne les détails de la zone et de la région.
  • obligatoire si vous enregistrez vos machines sur AWS, Azure ou GCP et que les services de métadonnées sont désactivés, ou si vous optez pour un autre fournisseur de cloud.

Facultatif : Transmettre le fichier personnalisé resolv.conf

Le cluster Kubernetes déployé par Automation Suite utilise les serveurs de noms configurés dans /etc/resolv.conf. Kubernetes ne fonctionne pas avec les résolveurs DNS locaux (127.0.0.1 ou 127.0.0.0/8) : si vous avez des serveurs de noms de ce type configurés dans le fichier /etc/resolv.conf, vous devez transmettre une référence de fichier avec les bonnes entrées de serveur de noms accessibles de n'importe où sur la VM dans le paramètre .infra.custom_dns_resolver dans cluster_config.json.

Pour plus de détails sur une limitation connue, consultez la documentation de Kubernetes.

Paramètres facultatifs

Description

.infra.custom_dns_resolver

Chemin d'accès au fichier avec les entrées correctes du serveur de noms accessibles depuis n'importe où sur la machine virtuelle. Ces entrées du serveur de noms ne doivent pas provenir de 127.0.0.0/8.

Facultatif : augmentation de la tolérance aux pannes

Par défaut, le profil de production multi-nœuds compatible haute disponibilité (HA) permet à un nœud de serveur de tomber en panne sans entraîner d'échec de déploiement. Vous pouvez augmenter la tolérance à la défaillance du nœud de serveur à l'aide du paramètre fault_tolerance dans le fichier cluster_config.json. Le paramètre modifie le facteur de réplication des composants de stockage en cluster tels que Ceph et Longhorn.

Prérequis matériels

Pour augmenter la tolérance aux défaillances au-delà de 1, assurez-vous que votre environnement répond aux exigences suivantes :
  • Votre cluster se compose d'un minimum de 2x+1 nœuds de serveur, où x est la tolérance aux défaillances requise pour le nœud de serveur ;
  • Chaque nœud de serveur a un périphérique brut configuré.

Comment augmenter la tolérance aux défaillances

Pour augmenter la tolérance aux défaillances au-delà de 1, procédez comme suit :
  1. Définissez fault_tolerance sur la valeur requise dans le fichier cluster_config.json. Si vous le définissez avant de commencer l'opération d'installation ou de mise à niveau, vous n'avez pas besoin de prendre d'étapes supplémentaires.
  2. Exécutez le programme d'installation uipathctl.sh pour modifier le facteur de réplication du magasin d'objets Ceph dans le cluster. Attendez que l'opération se termine avec succès.
  3. Exécutez le programme d'installation install-uipath.sh pour modifier le facteur de réplication des volumes Longhorn. Attendez que l'opération se termine avec succès.

Cette page vous a-t-elle été utile ?

Obtenez l'aide dont vous avez besoin
Formation RPA - Cours d'automatisation
Forum de la communauté UiPath
Uipath Logo White
Confiance et sécurité
© 2005-2024 UiPath Tous droits réservés.