- Visão geral
- Requisitos
- Instalação
- Q&A: Deployment templates
- Configuração das máquinas
- Configurando o objectstore externo
- Configuração do balanceador de carga
- Configuração do DNS
- Como configurar o Microsoft SQL Server
- Configuração dos certificados
- Instalação online de produção pronta para alta disponibilidade de vários nós
- Instalação offline de produção pronta para alta disponibilidade de vários nós
- Baixando os pacotes de instalação
- Parâmetros do install-uipath.sh
- Como habilitar o High Availability Add-on do Redis para o cluster
- Arquivo de configuração do Document Understanding
- Adicionando um nó de agente dedicado com suporte a GPU
- Conexão do aplicativo Task Mining
- Adição de um nó de agente dedicado ao Task Mining
- Adicionando um nó de agente dedicado para robôs do Automation Suite
- Pós-instalação
- Administração de cluster
- Monitoramento e alertas
- Migração e atualização
- Opções de migração
- Etapa 1: mover os dados da organização do Identity, de independente para o Automation Suite
- Etapa 2: restauração do banco de dados de produtos independente
- Etapa 3: backup do banco de dados da plataforma no Automation Suite
- Etapa 4: mesclando organizações no Automation Suite
- Etapa 5: atualização das strings de conexão do produto migradas
- Etapa 6: migração do Insights independente
- Etapa 7: exclusão do tenant padrão
- B) Migração de um único tenant
- Configuração específica do produto
- Melhores práticas e manutenção
- Solução de problemas
- Como solucionar problemas dos serviços durante a instalação
- Como desinstalar o cluster
- Como limpar os artefatos offline para melhorar o espaço em disco
- Como limpar os dados do Redis
- Como habilitar o registro em log do Istio
- Como limpar logs manualmente
- Como limpar logs antigos armazenados no bucket do sf-logs
- Como desabilitar os logs de streaming para o AI Center
- Como depurar instalações do Automation Suite com falha
- Como excluir imagens do instalador antigo após a atualização
- Como limpar automaticamente instantâneos do Longhorn
- Como desabilitar o descarregamento de soma de verificação do TX
- Como lidar com cifras fracas no TLS 1.2
- Não é possível executar uma instalação offline no SO RHEL 8.4
- Erro ao baixar o pacote
- A instalação offline falha devido a um binário ausente
- Problema de certificado na instalação offline
- First installation fails during Longhorn setup
- Erro de validação da string de conexão ao SQL
- Verificação de pré-requisito para o módulo iscsid do selinux falha
- Azure disk not marked as SSD
- Falha após a atualização do certificado
- Antivírus causa problemas de instalação
- Automation Suite not working after OS upgrade
- O Automation Suite requer que backlog_wait_time seja definido como 0
- Não é possível montar o volume devido a não estar pronto para cargas de trabalho
- Não é possível iniciar o Automation Hub e o Apps com configuração de proxy
- Falha ao carregar ou baixar dados no objectstore
- PVC resize does not heal Ceph
- Falha no redimensionamento do PVC
- Falha no redimensionamento do PVC do Objectstore
- Pod do Rook Ceph ou Looker travado no estado Init
- Erro de anexo de volume StatefulSet
- Falha ao criar volumes persistentes
- Patch de reclamação de armazenamento
- Falha de backup devido ao erro TooManySnapshots
- Todas as réplicas do Longhorn estão com falha
- Configurando um intervalo de tempo limite para os portais de gerenciamento
- Atualizar as conexões de diretório subjacentes
- Autenticação não funciona após migração
- kinit: não é possível encontrar o KDC para o realm <AD Domain> ao obter credenciais iniciais
- kinit: o Keytab não contém chaves adequadas para *** ao obter credenciais iniciais
- Falha na operação GSSAPI devido a código de status inválido
- Alarme recebido para trabalho com falha do Kerberos-tgt-update
- Provedor de SSPI: servidor não encontrado no banco de dados Kerberos
- Falha de login para usuário do AD devido a conta desabilitada
- ArgoCD login failed
- Falha ao obter a imagem do sandbox
- Os pods não são exibidos na UI do ArgoCD
- Falha de teste do Redis
- O servidor RKE2 falha ao iniciar
- Segredo não encontrado no namespace da UiPath
- O ArgoCD entra em estado Em andamento após a primeira instalação
- Inconsistência inesperada; execute o fsck manualmente
- Pods de MongoDB em CrashLoopBackOff ou provisionamento de PVC pendente após exclusão
- Pod do MongoDB falha ao atualizar de 4.4.4-ent para 5.0.7-ent
- Unhealthy services after cluster restore or rollback
- Pods presos em Init:0/X
- Prometheus no estado CrashloopBackoff com erro de falta de memória (OOM)
- Métricas Ceph-rook ausentes nos painéis de monitoramento
- Os pods não podem se comunicar com o FQDN em um ambiente de proxy
- O Document Understanding não está no menu de navegação esquerdo do Automation Suite
- Status de Falha ao criar uma sessão de rotulagem de dados
- Status de Falha ao tentar implantar uma habilidade de ML
- Trabalho de migração falha no ArgoCD
- Reconhecimento de escrita com o Extrator de formulários inteligente não está funcionando
- Usando a ferramenta de diagnóstico do Automation Suite
- Usando o pacote de suporte do Automation Suite
- Exploração de logs
Guia de instalação do Automation Suite
Configuração das máquinas
- Para evitar a perda de dados, certifique-se de que a infraestrutura que você usa não exclua automaticamente discos de clusters na reinicialização ou desligamento do cluster. Se essa capacidade estiver habilitada, certifique-se desabilitá-la.
- Para garantir uma sessão tranquila e ininterrupta do SSH, recomendamos enfaticamente que você siga as etapas nas melhores práticas de instalação antes de configurar os discos e instalar o Automation Suite.
configureUiPathDisks.sh
. Para obter detalhes, consulte as seções a seguir.
Antes da instalação, você deve particionar e configurar o disco usando o LVM, para que seu tamanho possa ser alterado facilmente e sem nenhuma migração de dados ou perda de dados.
Particionamento do disco
/var
. Por padrão, a partição var
é alocada apenas 8 GiB de espaço.
- O formato aceito para o disco é
ext4
ouxfs
. - Todas as partições devem ser criadas usando o LVM. Isso é para garantir que os dados do cluster possam residir em um disco diferente, mas ainda possam ser exibidos de forma coerente. Isso também ajuda a estender o tamanho da partição no futuro sem o risco de migração de dados ou perda de dados.
- Todos os pods e registros de aplicativos são armazenados no diretório
/var/log/pods
. Certifique-se de que a capacidade deste diretório seja de pelo menos 8 GiB. Também recomendamos configurarlogrotate
para rodar os logs em um intervalo que varia de diário a semanal.
Para o sistema operacional RHEL, você precisa garantir que tenha os seguintes tamanhos mínimos de pontos de montagem na máquina.
Online
Rótulo do disco |
Partição |
Tamanho |
Finalidade |
---|---|---|---|
Disco do cluster |
|
190 GiB |
A pasta Rancher armazena imagens e camadas de contêineres |
|
56 GiB |
A pasta Kubelet armazena configurações do Kubernetes em runtime, como segredos, configmaps e emptyDir | |
|
20 GiB |
Binário do instalador | |
Disco do etcd |
|
16 GiB |
Banco de dados distribuído para Kubernetes |
Armazenamento de blocos | /datadisk | 512 GiB |
Abstração de armazenamento em bloco |
Armazenamento de objetos1 |
N/A | 512 GiB |
Objectstore no cluster |
Recomendamos que você não use o disco do OS para qualquer um dos propósitos acima, para garantir que os processos recebam sua quota devida de recursos.
Offline
Os requisitos para offline são os mesmos que para online, exceto para a máquina em que você executa a instalação pela primeira vez, que precisa dos seguintes requisitos.
O espaço extra é necessário para descompactar o pacote offline.
Rótulo do disco |
Partição |
Tamanho |
Finalidade |
---|---|---|---|
Disco do cluster |
|
190 GiB |
A pasta Rancher armazena imagens e camadas de contêineres |
|
56 GiB |
A pasta Kubelet armazena configurações do Kubernetes em runtime, como segredos, configmaps e emptyDir | |
|
20 GiB |
Binário do instalador | |
Disco do etcd |
|
16 GiB |
Banco de dados distribuído para Kubernetes |
Armazenamento de blocos |
|
512 GiB |
Abstração de armazenamento em bloco |
Armazenamento de objetos1 |
N/A | 512 GiB |
Objectstore no cluster |
UiPath Bundle Disk | /uipath | 512 GiB |
Pacote isolado |
Recomendamos que você não use o disco do OS para qualquer um dos propósitos acima, para garantir que os processos recebam sua quota devida de recursos.
Os discos de dados e do etcd devem ser discos físicos separados. Isso isola fisicamente os discos de dados e do etcd de outras atividades e cargas de trabalho do cluster, ao mesmo tempo em que aprimora o desempenho e a estabilidade do cluster.
Consulte a seção a seguir para obter detalhes sobre como usar o script de exemplo para particionar e configurar o disco antes da instalação.
Como baixar o script
configureUiPathDisks.sh
para configurar e particionar o disco.
Para obter instruções de download, consulte configureUiPathDisks.sh.
Execução do script
configureUiPathDisks.sh
para os seguintes propósitos:
- configurar os discos e pontos de montagem para uma nova instalação de cluster do Automation Suite;
- redimensionar o disco de dados após a instalação.
Para tornar o script executável, execute:
chmod +x ./configureUiPathDisks.sh
chmod +x ./configureUiPathDisks.sh
Para mais detalhes sobre o uso do script, execute:
sudo ./configureUiPathDisks.sh --help
***************************************************************************************
Utility to configure the disk for UiPath Automation Suite Installation.
Run this script to configure the disks on new machine or to extend the size of datadisk
Arguments
-n|--node-type NodeType, Possible values: agent, server. Default to server.
-i|--install-type Installation mode, Possible values: online, offline. Default to online.
-c|--cluster-disk-name Device to host rancher and kubelet. Ex: /dev/sdb.
-e|--etcd-disk-name Device to host etcd, Not required for agent node. Ex: /dev/sdb.
-R|--ceph-raw-disk-name Device to host ceph OSD, Not required for agent node. Ex: /dev/sdm
-l|--data-disk-name Device to host datadisk, Not required for agent node. Ex: /dev/sdc.
-b|--bundle-disk-name Device to host the uipath bundle.
Only required for offline installation on 1st server node.
-k|--robot-package-disk-name Device to host robot package cache folder
Only required for Automation Suite Robots dedicated node when 'packagecaching' is enabled
-P|--robot-package-path Path to robot package cache folder
(defaults to '/uipath_asrobots_package_cache' if not set)
-f|--complete-suite Installing complete product suite or any of these products:
aicenter, apps, taskmining, documentunderstanding.
This will configure the datadisk volume to be 2TiB instead of 512Gi.
-p|--primary-server Is this machine is first server machine? Applicable only for airgap install.
This is the machine on which UiPath AutomationSuite bundle will be installed.
Default to false.
-x|--extend-data-disk Extend the datadisk. Either attach new disk or resize the exiting datadisk.
-r|--resize Used in conjunction of with --extend-data-disk to resize the exiting volume,
instead of adding new volume.
-d|--debug Run in debug.
-h|--help Display help.
ExampleUsage:
configureUiPathDisks.sh --node-type server --install-type online \
--cluster-disk-name /dev/sdb --etcd-disk-name /dev/sdc \
--data-disk-name /dev/sdd
configureUiPathDisks.sh --data-disk-name /dev/sdh \
--extend-data-disk
***************************************************************************************
sudo ./configureUiPathDisks.sh --help
***************************************************************************************
Utility to configure the disk for UiPath Automation Suite Installation.
Run this script to configure the disks on new machine or to extend the size of datadisk
Arguments
-n|--node-type NodeType, Possible values: agent, server. Default to server.
-i|--install-type Installation mode, Possible values: online, offline. Default to online.
-c|--cluster-disk-name Device to host rancher and kubelet. Ex: /dev/sdb.
-e|--etcd-disk-name Device to host etcd, Not required for agent node. Ex: /dev/sdb.
-R|--ceph-raw-disk-name Device to host ceph OSD, Not required for agent node. Ex: /dev/sdm
-l|--data-disk-name Device to host datadisk, Not required for agent node. Ex: /dev/sdc.
-b|--bundle-disk-name Device to host the uipath bundle.
Only required for offline installation on 1st server node.
-k|--robot-package-disk-name Device to host robot package cache folder
Only required for Automation Suite Robots dedicated node when 'packagecaching' is enabled
-P|--robot-package-path Path to robot package cache folder
(defaults to '/uipath_asrobots_package_cache' if not set)
-f|--complete-suite Installing complete product suite or any of these products:
aicenter, apps, taskmining, documentunderstanding.
This will configure the datadisk volume to be 2TiB instead of 512Gi.
-p|--primary-server Is this machine is first server machine? Applicable only for airgap install.
This is the machine on which UiPath AutomationSuite bundle will be installed.
Default to false.
-x|--extend-data-disk Extend the datadisk. Either attach new disk or resize the exiting datadisk.
-r|--resize Used in conjunction of with --extend-data-disk to resize the exiting volume,
instead of adding new volume.
-d|--debug Run in debug.
-h|--help Display help.
ExampleUsage:
configureUiPathDisks.sh --node-type server --install-type online \
--cluster-disk-name /dev/sdb --etcd-disk-name /dev/sdc \
--data-disk-name /dev/sdd
configureUiPathDisks.sh --data-disk-name /dev/sdh \
--extend-data-disk
***************************************************************************************
Como configurar o disco para uma configuração de produção pronta para alta disponibilidade de vários nós
Online
Nós de servidor
Para configurar o disco em uma configuração online de produção pronta para alta disponibilidade de vários nós, execute o seguinte comando em todas as máquinas do servidor:
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk
Nós de agente
Para configurar o disco em uma configuração online de produção pronta para alta disponibilidade de vários nós, execute o seguinte comando em todas as máquinas de agente:
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--node-type agent
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--node-type agent
Offline
Primeiro nó do servidor
Em uma instalação offline, você precisa carregar as imagens do produto no registro do docker. Para isso, é necessário armazenamento adicional na forma de um disco separado. Esse disco será usado para descompactar pacotes de produtos e carregar imagens no registro do Docker. É necessário estar presente apenas em uma máquina.
--primary-server
em uma das primeiras máquinas do servidor ou na máquina na qual o instalador do Fabric e de serviço será executado.
Para configurar o disco em uma configuração offline de produção pronta para alta disponibilidade de vários nós, execute o seguinte comando em uma das outras máquinas do servidor:
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk \
--bundle-disk-name name_of_uipath_bundle_disk \
--primary-server \
--install-type offline
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk \
--bundle-disk-name name_of_uipath_bundle_disk \
--primary-server \
--install-type offline
Nós adicionais do servidor
--primary-server
e --bundle-disk-name
.
Para configurar o disco em uma configuração offline de produção pronta para alta disponibilidade de vários nós, execute o seguinte comando nas outras máquinas do servidor:
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk \
--install-type offline
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk \
--install-type offline
Nós de agente
--primary-server
e --bundle-disk-name
.
Para configurar o disco em uma configuração offline de produção pronta para alta disponibilidade de vários nós, execute o seguinte comando nas outras máquinas de agente.
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--node-type agent \
--install-type offline
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--node-type agent \
--install-type offline
Você pode expandir o tamanho do armazenamento para o objectstore no cluster executando o seguinte script:
./configureUiPathDisks.sh --ceph-raw-disk-name name_ceph_raw_disk
./configureUiPathDisks.sh --ceph-raw-disk-name name_ceph_raw_disk
-
Um problema conhecido do Azure marca incorretamente o disco do Azure como não SSD. Se o Azure for seu provedor de nuvem e você quiser configurar o disco do Objectstore, siga as instruções em Solução de problemas.
-
A escalabilidade vertical dos discos existentes não é suportada. Para aumentar o tamanho do seu armazenamento no cluster pós-instalação, adicione novos discos raw.
Para estender o disco de dados, você pode anexar o novo disco físico ou redimensionar o disco existente.
Como adicionar um novo disco
Para estender o disco de dados usando o disco recém-anexado, execute o seguinte comando nas máquinas servidoras:
./configureUiPathDisks.sh --data-disk-name name_of_data_disk \
--extend-data-disk
./configureUiPathDisks.sh --data-disk-name name_of_data_disk \
--extend-data-disk
Como redimensionar o disco existente
Para estender o disco de dados redimensionando o disco existente, execute o seguinte comando nas máquinas do servidor:
./configureUiPathDisks.sh --extend-data-disk --resize
./configureUiPathDisks.sh --extend-data-disk --resize
-
Realize as etapas a seguir para validar se
/etc/fstab
está configurado corretamente para lidar com a reinicialização do sistema.Observação:Certifique-se de que os pontos de montagem do disco do etcd e de dados sejam adicionados no arquivofstab
.Se você tiver uma partição de disco separada para/var/lib/rancher
e/var/lib/kubelet
, entãofstab
também deve conter essas duas pastas. Certifique-se também de incluir a opçãonofail
nessas entradasfstab
para que não afete a inicialização da VM em caso de falhas. -
Valide se os discos estão montados corretamente executando o seguinte comando:
mount -afv
mount -afv -
Você deve obter a seguinte resposta:
/datadisk : already mounted /var/lib/rancher/rke2/server/db : already mounted /var/lib/rancher : already mounted /var/lib/kubelet : already mounted
/datadisk : already mounted /var/lib/rancher/rke2/server/db : already mounted /var/lib/rancher : already mounted /var/lib/kubelet : already mounted
A página a seguir ajuda os administradores do Linux no gerenciamento de configurações no nível do sistema operacional e do kernel antes de realizar uma instalação do Automation Suite.
Normalmente, essas configurações são gerenciadas por meio de uma ferramenta de configuração de gerenciamento dedicada, como o Puppet. Certifique-se de que as alterações que você faz estejam de acordo com o processo de controle de seu ambiente para fins de consistência e documentação.
Certifique-se de concluir as seguintes etapas antes de iniciar a instalação, pois configurações incorretas no nível do sistema operacional e do kernel podem levar a erros não intuitivos. A verificação dessas configurações específicas muitas vezes pode evitar esses erros.
sysctl
são necessárias na máquina:
-
Habilitar Encaminhamento de IP
-
desativação da filtragem de caminho reverso
Você pode fazer isso executando o seguinte comando:
cat <<EOF >>"/etc/sysctl.d/99-sysctl.conf"
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.ipv4.conf.all.rp_filter=0
EOF
cat <<EOF >>"/etc/sysctl.d/99-sysctl.conf"
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.ipv4.conf.all.rp_filter=0
EOF
nf-call-iptables
é necessário para a maioria das implantações do Kubernetes. O Kubernetes cria redes virtuais internas para o cluster. Isso permite que cada pod tenha seu próprio endereço IP, que é usado em conjunto com os serviços de nome internos para facilitar a comunicação de serviço a serviço. O cluster não funciona sem o nf-call-iptables
habilitado. Para obter detalhes, consulte a documentação oficial do Kubernetes.
Para aplicar as configurações, execute o seguinte comando:
sysctl --system
sysctl --system
Se estiver usando fapolicy, é necessária uma política específica do RKE2. Para gerar isso, use o seguinte comando:
cat <<-EOF >>"/etc/fapolicyd/rules.d/69-rke2.rules"
allow perm=any all : dir=/var/lib/rancher/
allow perm=any all : dir=/opt/cni/
allow perm=any all : dir=/run/k3s/
allow perm=any all : dir=/var/lib/kubelet/
allow perm=any all : dir=/root/.local/share/helm
EOF
cat <<-EOF >>"/etc/fapolicyd/rules.d/69-rke2.rules"
allow perm=any all : dir=/var/lib/rancher/
allow perm=any all : dir=/opt/cni/
allow perm=any all : dir=/run/k3s/
allow perm=any all : dir=/var/lib/kubelet/
allow perm=any all : dir=/root/.local/share/helm
EOF
Certifique-se de que a alteração seja comunicada à sua equipe do Linux e passe pelos processos de gerenciamento de configuração apropriados.
/var/lib/rancher
não devem ter noexec
ou nosuid
definidos. A ferramenta de disco cria automaticamente essas montagens sem essas propriedades.
Se um administrador do Linux definir manualmente essas propriedades, a instância torna-se não funcional.
Para obter mais detalhes sobre a configuração do disco, consulte Requisitos de disco.
Certifique-se de ter as seguintes portas habilitadas em seu firewall para cada origem.
Porta |
Protocol |
Origem |
Finalidade |
Requisitos |
---|---|---|---|---|
|
TCP |
Jump Server/máquina cliente |
Para SSH (instalação, depuração de gerenciamento de cluster) |
Não abra esta porta para a internet. Permita o acesso à máquina cliente ou ao jump server. |
|
TCP |
Apenas instalação offline: necessário para enviar notificações de email do sistema. | ||
|
TCP |
Todos os nós em um cluster + balanceador de carga |
Para HTTPS (acessando o Automation Suite) |
Essa porta deve ter conectividade de entrada e saída de todos os nós do cluster e do balanceador de carga. |
|
TCP |
Apenas instalação offline: necessário para enviar notificações de email do sistema. | ||
|
TCP |
Todos os nós em um cluster |
Porta do cliente do etcd |
Não deve expor à internet. O acesso entre os nós deve ser suficiente em um endereço IP privado. |
|
TCP |
Todos os nós em um cluster |
Porta do par do etcd |
Não deve expor à internet. O acesso entre os nós deve ser suficiente em um endereço IP privado. |
|
TCP |
Todos os nós em um cluster |
Para acessar a API do Kube usando HTTPS, e obrigatório para associação de nó |
Essa porta deve ter conectividade de entrada e saída de todos os nós do cluster. |
|
UDP |
Todos os nós em um cluster |
Necessário para Cilium. |
Não deve expor à internet. O acesso entre os nós deve ser suficiente em um endereço IP privado. |
|
TCP |
Todos os nós no cluster |
Usado pelo Cilium para monitorar e lidar com falhas de pod. |
Essa porta deve ter conectividade de entrada e saída de todos os nós do cluster. |
|
TCP |
Todos os nós em um cluster + balanceador de carga |
Para acessar a API do Kube usando HTTPS, necessário para associação de nó |
Essa porta deve ter conectividade de entrada e saída de todos os nós do cluster e do balanceador de carga. |
|
TCP |
Todos os nós em um cluster |
kubelet / servidor de métricas |
Não deve expor à internet. O acesso entre os nós deve ser suficiente em um endereço IP privado. |
|
TCP |
Todos os nós em um cluster |
A porta NodePort para comunicação interna entre nós em um cluster |
Não deve expor à internet. O acesso entre os nós deve ser suficiente em um endereço IP privado. |
6443
fora do limite do cluster é obrigatório se houver uma conexão direta com a API do Kerberos.
9345
é usada pelos nós para descobrir nós existentes e ingressar no cluster na implantação de vários nós. Para manter os mecanismos de descoberta de alta disponibilidade em funcionamento, recomendamos expô-los por meio do balanceador de carga com verificação de integridade.
Certifique-se também de ter conectividade de todos os nós com o SQL Server.
Não exponha o SQL Server em uma das portas reservadas do Istio, pois isso pode causar falhas de conexão.
Se você tiver um firewall configurado na rede, certifique-se de que ele tenha essas portas abertas e permita o tráfego de acordo com os requisitos mencionados acima.
Para instalar e validar os pacotes RPM necessários, você pode usar qualquer uma das seguintes ferramentas
- o instalador manual install-uipath.sh. Em ambientes online, ela instala e valida todos os pacotes RPM por padrão.
- o instalador interativo
installUiPathAS.sh
. Ele valida todos os pacotes RPM por meio do instaladorinstall-uipath.sh
. -
- para validar os pacotes RPM, execute:
validateUiPathASReadiness.sh validate-packages
; - para instalar os pacotes RPM em uma instalação online, execute:
validateUiPathASReadiness.sh install-packages
; - para instalar os pacotes RPM em uma instalação off-line, execute:
validateUiPathASReadiness.sh install-packages --install-type offline
.
- para validar os pacotes RPM, execute:
Para obter uma lista de requisitos de pacotes RPM, consulte Requisitos de hardware e software.
Para configurar um proxy, você precisa realizar etapas de configuração adicionais ao configurar seu ambiente com os pré-requisitos e durante a fase de configuração avançada no momento da instalação.
As etapas a seguir são obrigatórias ao configurar o ambiente.
Certifique-se de ter as seguintes regras habilitadas em seu grupo de segurança de rede para a rede virtual fornecida.
Origem |
Destino |
Rota por proxy |
Porta |
Description |
---|---|---|---|---|
Rede Virtual |
Sql |
Não |
Porta do SQL Server |
Obrigatório para o SQL Server. |
Rede Virtual |
Load balancer |
Não |
|
Obrigatório para adicionar novos nós ao cluster. |
Rede Virtual |
Cluster(sub-rede) |
Não |
Todas as portas |
Obrigatório para comunicação em um intervalo de IP privado. |
Rede Virtual |
|
Não |
|
Obrigatório para login e uso do cliente do ArgoCD durante a implantação. |
Rede Virtual |
Servidor de Proxy |
Sim |
Todas as portas |
Obrigatório para rotear o tráfego para o servidor proxy. |
Rede Virtual |
NameServer |
Não |
Todas as portas |
A maioria dos serviços de nuvem, como o Azure e o AWS, usa isso para buscar os metadados da VM e considera isso um IP privado. |
Rede Virtual |
MetaDataServer |
Não |
Todas as portas |
A maioria dos serviços em nuvem, como o Azure e o AWS, usa o endereço IP
169.254.169.254 para buscar metadados da máquina.
|
Ao configurar os nós, você precisa adicionar a configuração de proxy a cada nó que faz parte do cluster. Esta etapa é obrigatória para rotear o tráfego de saída do nó por meio do servidor proxy.
-
Adicione a seguinte configuração em
/etc/environment
:http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>
http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server> -
Adicione a seguinte configuração em
/etc/wgetrc
:http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>
http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>Parâmetros obrigatórios
Description
http_proxy
Usado para rotear solicitações de saída HTTP a partir do nó. Este deve ser o FQDN e a porta do servidor proxy.
https_proxy
Usado para rotear solicitações de saída HTTPS a partir do nó. Este deve ser o FQDN e a porta do servidor proxy.
no_proxy
Lista de hosts separados por vírgulas, endereços IP que você não deseja rotear por meio do servidor proxy. Este deve ser um intervalo de sub-rede privada, host do servidor SQL, endereço do servidor nomeado, endereço do servidor de metadados:alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>
.metadata server address
– A maioria dos serviços em nuvem, como o Azure e a AWS, faz uso do endereço IP169.254.169.254
para buscar metadados de máquina.named server address
– A maioria dos serviços em nuvem, como o Azure e a AWS, faz uso disso para resolver consultas DNS.
Importante:Se você usar o AI Center com um Orchestrator externo, deve adicionar o domínio externo do Orchestrator à listano_proxy
. -
Verifique se as configurações de proxy estão definidas corretamente executando o seguinte comando:
curl -v $HTTP_PROXY curl -v <fixed_rke_address>:9345
curl -v $HTTP_PROXY curl -v <fixed_rke_address>:9345Importante: após você atender aos requisitos do servidor do proxy, certifique-se de continuar com a configuração do proxy durante a instalação. Siga as etapas em Opcional: configuração do servidor do proxy para garantir que o servidor do proxy esteja configurado corretamente.
- Como configurar o disco
- Requisitos do disco
- Como usar o script para configurar o disco
- Como configurar o disco para uma configuração de produção pronta para alta disponibilidade de vários nós
- Como configurar o disco do Objectstore
- Como estender a pós-instalação do disco de dados
- Como validar montagens no disco
- Configuração dos ajustes do nível do kernel e SO
- Ajuste das configurações do sysctl
- Configuração de ajustes de fapolicy
- Configuração dos ajustes de noexec e nosuid
- Como habilitar portas
- Installing the required RPM packages
- Opcional: configuração do servidor proxy
- Etapa 1: habilitação de portas na rede virtual
- Etapa 2: adição da configuração de proxy a cada nó