automation-suite
2022.10
false
- Visão geral
- Requisitos
- Instalação
- Q&A: Deployment templates
- Configuração das máquinas
- Configurando o objectstore externo
- Configuração do balanceador de carga
- Configuração do DNS
- Como configurar o Microsoft SQL Server
- Configuração dos certificados
- Instalação online de produção pronta para alta disponibilidade de vários nós
- Instalação offline de produção pronta para alta disponibilidade de vários nós
- Baixando os pacotes de instalação
- Parâmetros do install-uipath.sh
- Como habilitar o High Availability Add-on do Redis para o cluster
- Arquivo de configuração do Document Understanding
- Adicionando um nó de agente dedicado com suporte a GPU
- Conexão do aplicativo Task Mining
- Adição de um nó de agente dedicado ao Task Mining
- Adicionando um nó de agente dedicado para robôs do Automation Suite
- Pós-instalação
- Administração de cluster
- Monitoramento e alertas
- Migração e atualização
- Opções de migração
- Etapa 1: mover os dados da organização do Identity, de independente para o Automation Suite
- Etapa 2: restauração do banco de dados de produtos independente
- Etapa 3: backup do banco de dados da plataforma no Automation Suite
- Etapa 4: mesclando organizações no Automation Suite
- Etapa 5: atualização das strings de conexão do produto migradas
- Etapa 6: migração do Insights independente
- Etapa 7: exclusão do tenant padrão
- B) Migração de um único tenant
- Configuração específica do produto
- Melhores práticas e manutenção
- Solução de problemas
- Como solucionar problemas dos serviços durante a instalação
- Como desinstalar o cluster
- Como limpar os artefatos offline para melhorar o espaço em disco
- Como limpar os dados do Redis
- Como habilitar o registro em log do Istio
- Como limpar logs manualmente
- Como limpar logs antigos armazenados no bucket do sf-logs
- Como desabilitar os logs de streaming para o AI Center
- Como depurar instalações do Automation Suite com falha
- Como excluir imagens do instalador antigo após a atualização
- Como limpar automaticamente instantâneos do Longhorn
- Como desabilitar o descarregamento de soma de verificação do TX
- Como lidar com cifras fracas no TLS 1.2
- Não é possível executar uma instalação offline no SO RHEL 8.4
- Erro ao baixar o pacote
- A instalação offline falha devido a um binário ausente
- Problema de certificado na instalação offline
- First installation fails during Longhorn setup
- Erro de validação da string de conexão ao SQL
- Verificação de pré-requisito para o módulo iscsid do selinux falha
- Azure disk not marked as SSD
- Falha após a atualização do certificado
- Antivírus causa problemas de instalação
- Automation Suite not working after OS upgrade
- O Automation Suite requer que backlog_wait_time seja definido como 0
- Não é possível montar o volume devido a não estar pronto para cargas de trabalho
- Não é possível iniciar o Automation Hub e o Apps com configuração de proxy
- Falha ao carregar ou baixar dados no objectstore
- PVC resize does not heal Ceph
- Falha no redimensionamento do PVC
- Falha no redimensionamento do PVC do Objectstore
- Pod do Rook Ceph ou Looker travado no estado Init
- Erro de anexo de volume StatefulSet
- Falha ao criar volumes persistentes
- Patch de reclamação de armazenamento
- Falha de backup devido ao erro TooManySnapshots
- Todas as réplicas do Longhorn estão com falha
- Configurando um intervalo de tempo limite para os portais de gerenciamento
- Atualizar as conexões de diretório subjacentes
- Autenticação não funciona após migração
- kinit: não é possível encontrar o KDC para o realm <AD Domain> ao obter credenciais iniciais
- kinit: o Keytab não contém chaves adequadas para *** ao obter credenciais iniciais
- Falha na operação GSSAPI devido a código de status inválido
- Alarme recebido para trabalho com falha do Kerberos-tgt-update
- Provedor de SSPI: servidor não encontrado no banco de dados Kerberos
- Falha de login para usuário do AD devido a conta desabilitada
- ArgoCD login failed
- Falha ao obter a imagem do sandbox
- Os pods não são exibidos na UI do ArgoCD
- Falha de teste do Redis
- O servidor RKE2 falha ao iniciar
- Segredo não encontrado no namespace da UiPath
- O ArgoCD entra em estado Em andamento após a primeira instalação
- Inconsistência inesperada; execute o fsck manualmente
- Pods de MongoDB em CrashLoopBackOff ou provisionamento de PVC pendente após exclusão
- Pod do MongoDB falha ao atualizar de 4.4.4-ent para 5.0.7-ent
- Unhealthy services after cluster restore or rollback
- Pods presos em Init:0/X
- Prometheus no estado CrashloopBackoff com erro de falta de memória (OOM)
- Métricas Ceph-rook ausentes nos painéis de monitoramento
- O Document Understanding não está no menu de navegação esquerdo do Automation Suite
- Status de Falha ao criar uma sessão de rotulagem de dados
- Status de Falha ao tentar implantar uma habilidade de ML
- Trabalho de migração falha no ArgoCD
- Reconhecimento de escrita com o Extrator de formulários inteligente não está funcionando
- Usando a ferramenta de diagnóstico do Automation Suite
- Usando o pacote de suporte do Automation Suite
- Exploração de logs
Prometheus no estado CrashloopBackoff com erro de falta de memória (OOM)
Importante :
A tradução automática foi aplicada parcialmente neste conteúdo.
Guia de instalação do Automation Suite
Last updated 21 de nov de 2024
Prometheus no estado CrashloopBackoff com erro de falta de memória (OOM)
Em certas situações, os pods do Prometheus podem falhar ao iniciar devido a um erro de falta de memória (OOM). Para identificar os pods do Prometheus afetados, pesquise o último estado de rescisão relacionado especificamente aos erros do OOM.
Para corrigir o problema, siga as seguintes etapas:
-
Atualize
argocd configmap
para ignorarservice-monitors
atualizandoresource.exclusions
.-
Crie um backup do antigo
configmap
:kubectl get configmap argocd-cm -n argocd -o yaml >> argocd-cm-old.yaml
kubectl get configmap argocd-cm -n argocd -o yaml >> argocd-cm-old.yaml - Editar
argocd-cm
:kubectl edit configmap argocd-cm -n argocd
kubectl edit configmap argocd-cm -n argocd - Adicione uma nova entrada de dados para
resource.exclusions
:data: resource.exclusions: | - apiGroups: - monitoring.coreos.com kinds: - ServiceMonitor clusters: - "*"
data: resource.exclusions: | - apiGroups: - monitoring.coreos.com kinds: - ServiceMonitor clusters: - "*"
-
- Exclua o
envoy-stats-monitor
monitor de serviço noistio-system
namespace:kubectl -n istio-system delete servicemonitor envoy-stats-monitor
kubectl -n istio-system delete servicemonitor envoy-stats-monitor - Forçar exclusão dos pods do Prometheus:
kubectl delete pod prometheus-rancher-monitoring-prometheus-0 -n cattle-monitoring-system kubectl delete pod prometheus-rancher-monitoring-prometheus-1 -n cattle-monitoring-system
kubectl delete pod prometheus-rancher-monitoring-prometheus-0 -n cattle-monitoring-system kubectl delete pod prometheus-rancher-monitoring-prometheus-1 -n cattle-monitoring-system - Aguarde os pods do Prometheus em
cattle-monitoring-system
para reiniciar com sucesso.
Importante: a exclusão dos diretórios
wal
e chunks_head
resulta em uma perda de todos os dados de monitoramento coletados durante os dias em que esses arquivos foram acumulados. No entanto, assim que o Prometheus estiver funcionando novamente, quaisquer novos alertas e dados de métricas estarão acessíveis.