AI Center
2020.10
falso
Imagem de fundo do banner
AI Center
Última atualização 11 de mar de 2024

Solução de problemas e perguntas frequentes gerais do AI Center

Problema: trabalho de provisionamento bloqueado na verificação de conexão em andamento

O trabalho de provisionamento pode ficar preso em Connection checking in progress.

Solução

Para corrigir esse problema, siga as etapas abaixo:

  1. Saia dos logs e verifique o status do pod conn-checker kubectl get pods.
  2. Se você vir Nome de imagem inválido exibido, tente descrever o pod: kubectl describe <conn-checked-pod-name>.
  3. Se a mensagem Failed to apply default image.. for exibida em Events (inferior), isso pode significar que airgapped e não airgapped estão misturados:
    1. Verifique se o infra e o aplicativo estão instalados no mesmo pod.
    2. Verifique se a licença é a mesma. Verifique o campo airgapped no arquivo yaml para ver se é verdadeiro ou não e se isso é esperado.
  4. Se o problema for com a licença, isso precisa ser alterado no back-end. Entre em contato com a pessoa que forneceu a licença e peça para alterá-la ou com a equipe do AI Center.

Problema: erros na página do administrador do host

Em caso de erros na página de administração do host (erro de provisionamento do locatário), use a solução abaixo.

Solução

Certifique-se de que a hora do sistema nas VMs do Orchestrator e do AI Center esteja sincronizada, incluindo o horário de verão. O token fornecido pelo Identity Server pode ser uma hora no futuro se a hora do sistema não estiver sincronizada.

Mensagem: Kubectl Get Pods -A | Grep despejado

Se houver muitos pods removidos devido à mensagem de erro acima, isso pode tornar a máquina mais lenta ou causar problemas de rede. Para resolver isso, use a solução abaixo.

Solução

Para resolver esse problema, execute o seguinte script ou um semelhante:

IFS=$'\)
'
for line in $(kubectl get pods -A | awk {'printf "%s,%s,%s\)
", $1,$2,$4'} | grep -E "Evicted"); do 
  ns=$(echo $line | cut -d',' -f1)
  pod=$(echo $line | cut -d',' -f2)
  kubectl delete pod -n $ns $pod
doneIFS=$'\)
'
for line in $(kubectl get pods -A | awk {'printf "%s,%s,%s\)
", $1,$2,$4'} | grep -E "Evicted"); do 
  ns=$(echo $line | cut -d',' -f1)
  pod=$(echo $line | cut -d',' -f2)
  kubectl delete pod -n $ns $pod
done

Problema relacionado às habilidades de ML durante a previsão

Se você deseja monitorar o progresso de um pod enquanto está sendo chamado, é necessário identificar o pod correspondente à habilidade e, em seguida, conectar-se à máquina Linux para verificar os logs enquanto faz uma previsão. Para obter a maneira mais eficiente de fazer isso, verifique a seção Solução abaixo.

Solução

Para obter a maneira mais eficiente de identificar um pod correspondente a uma habilidade, siga as etapas abaixo.

  1. Vá para o aplicativo AI Center.
  2. Acesse a página Habilidade de ML .
  3. Abra chamadas de rede enquanto inspeciona a página.
  4. Atualize a grade para obter a habilidade ML.
  5. Encontre a chamada de habilidade de ML e visualize-a.
  6. Encontre a habilidade de ML correta na lista e procure por tenant-id e id. A id do inquilino é o namespace e é o nome do pod.


  7. Once you have the above information, check running logs by using the following command:
    kubectl -n <tenant-id> logs -f <id>kubectl -n <tenant-id> logs -f <id>

Agora você pode chamar a habilidade e ver o processo em tempo real.

Problema durante a execução do pipeline

Uma falha no pipeline ocorre devido a uma falha no upload de um arquivo com uma mensagem de erro semelhante à seguinte:

2021-04-30 20:59:43,397 - uipath_core.storage.local_storage_client:upload:132 - ERROR:  Failed to upload file: logs/f5f7b9f4-0813-4107-a269-bf65de12444f/train.log.20210430205938 to bucket: training-8319b955-6187-43c3-a46f-612a9ea6f523, error: can't start new thread
2021-04-30 20:59:48,401 - uipath_core.utils.utils:_retries:172 - WARNING:  Function: upload execution failed, retry count 12021-04-30 20:59:43,397 - uipath_core.storage.local_storage_client:upload:132 - ERROR:  Failed to upload file: logs/f5f7b9f4-0813-4107-a269-bf65de12444f/train.log.20210430205938 to bucket: training-8319b955-6187-43c3-a46f-612a9ea6f523, error: can't start new thread
2021-04-30 20:59:48,401 - uipath_core.utils.utils:_retries:172 - WARNING:  Function: upload execution failed, retry count 1

Solução

Atualize para uma versão mais recente do AI Center (2021.4, por exemplo) onde esse problema foi corrigido.

OU

Se uma atualização não for uma solução no momento, exclua os logs no pod de treinamento usando o seguinte comando:

kubectl -n <namespace> exec -it <pod_id> -- sh -c 'rm -rf /microservice/trainer_run_logs'kubectl -n <namespace> exec -it <pod_id> -- sh -c 'rm -rf /microservice/trainer_run_logs'

No comando acima, as seguintes variáveis são usadas:

  • namespace - namespace do pod. Isso pode ser obtido executando o comando kubectl get namespaces . Os namespaces de treinamento começam com training-.
  • pod_id - id do pod de treinamento. Isso pode ser obtido executando o kubectl get pod no espaço de treinamento acima.

Mensagem: ./export.sh: Linha 2: &dollar;'\r': comando não encontrado

Ao executar os scripts de importação ou exportação, pode ocorrer a seguinte mensagem de erro:

./export.sh: line 2: $'\r': command not found

Essa mensagem de erro é exibida ao importar ou exportar pacotes de ML usando scripts.

Solução

Execute o seguinte comando antes de executar o script de importação ou exportação:

dos2unix <filename>dos2unix <filename>

Was this page helpful?

Obtenha a ajuda que você precisa
Aprendendo RPA - Cursos de automação
Fórum da comunidade da Uipath
Logotipo branco da Uipath
Confiança e segurança
© 2005-2024 UiPath. All rights reserved.