ai-center
2020.10
false
AI Center
Automation CloudAutomation SuiteStandalone
Last updated 6 de jun. de 2024

Resolución general de problemas de AI Center y preguntas frecuentes

Problema: trabajo de aprovisionamiento bloqueado en comprobación de conexión en curso

El trabajo de aprovisionamiento puede atascarse en Connection checking in progress.

Solución

Para solucionar este problema, siga los pasos a continuación:

  1. Salga de los registros y compruebe el estado del pod de comprobación de conexión kubectl get pods.
  2. Si ve que se muestra un nombre de imagen no válido , intente describir el pod: kubectl describe <conn-checked-pod-name>.
  3. Si se muestra el mensaje Error al aplicar la imagen predeterminada en Eventos (parte inferior), esto puede significar que los espacios vacíos y no vacíos están mezclados:
    1. Compruebe que la infraestructura y la aplicación están instaladas en el mismo pod.
    2. Comprueba que la licencia es la misma. Compruebe el campo con espacio de aire en el archivo yaml para ver si es verdadero o no y si es así.
  4. Si el problema es con la licencia, esta debe cambiarse desde el backend. Póngase en contacto con la persona que le proporcionó la licencia y pídale que la cambie o al equipo de AI Center.

Problema: errores de la página de administración del host

En caso de errores de la página de administración del host (error de aprovisionamiento del tenant), utilice la siguiente solución.

Solución

Asegúrate de que la hora del sistema en las máquinas virtuales de Orchestrator y AI Center está sincronizada, incluido el horario de verano. El token proporcionado por Identity Server puede ser una hora en el futuro si la hora del sistema no está sincronizada.

Mensaje: Kubectl Obtener pods -A | Grep desalojado

Si hay muchos pods desalojados debido al mensaje de error anterior, esto puede ralentizar la máquina o causar problemas de red. Para resolver este problema, utilice la siguiente solución.

Solución

Para resolver este problema, ejecute el siguiente script o uno similar:

IFS=$'\)
'
for line in $(kubectl get pods -A | awk {'printf "%s,%s,%s\)
", $1,$2,$4'} | grep -E "Evicted"); do 
  ns=$(echo $line | cut -d',' -f1)
  pod=$(echo $line | cut -d',' -f2)
  kubectl delete pod -n $ns $pod
doneIFS=$'\)
'
for line in $(kubectl get pods -A | awk {'printf "%s,%s,%s\)
", $1,$2,$4'} | grep -E "Evicted"); do 
  ns=$(echo $line | cut -d',' -f1)
  pod=$(echo $line | cut -d',' -f2)
  kubectl delete pod -n $ns $pod
done

Problema relacionado con las habilidades ML durante la predicción

Si quieres supervisar el progreso de un pod mientras se te llama, debes identificar el pod correspondiente a la habilidad y luego conectarte a la máquina Linux para comprobar los registros mientras realizas una predicción. Para conocer la forma más eficiente de hacerlo, consulte la sección Solución a continuación.

Solución

Para conocer la forma más eficiente de identificar un pod correspondiente a una habilidad, sigue los pasos que se indican a continuación.

  1. Ve a la aplicación AI Center.
  2. Ve a la página Habilidad ML .
  3. Abrir llamadas de red mientras se inspecciona la página.
  4. Actualice la cuadrícula para obtener la habilidad ML.
  5. Busque la llamada de la habilidad ML y obtenga una vista previa.
  6. Encuentre la habilidad ML correcta en la lista y busque el ID y el ID de tenant. El ID de tenant es el espacio de nombres y es el nombre del pod.


  7. Una vez que tengas la información anterior, comprueba los registros en ejecución con el siguiente comando:
    kubectl -n <tenant-id> logs -f <id>kubectl -n <tenant-id> logs -f <id>

Ahora puede llamar a la habilidad y ver el proceso en tiempo real.

Problema mientras se ejecuta la canalización

Se produce un error en el proceso debido a un error al cargar un archivo con un mensaje de error similar al que aparece a continuación:

2021-04-30 20:59:43,397 - uipath_core.storage.local_storage_client:upload:132 - ERROR:  Failed to upload file: logs/f5f7b9f4-0813-4107-a269-bf65de12444f/train.log.20210430205938 to bucket: training-8319b955-6187-43c3-a46f-612a9ea6f523, error: can't start new thread
2021-04-30 20:59:48,401 - uipath_core.utils.utils:_retries:172 - WARNING:  Function: upload execution failed, retry count 12021-04-30 20:59:43,397 - uipath_core.storage.local_storage_client:upload:132 - ERROR:  Failed to upload file: logs/f5f7b9f4-0813-4107-a269-bf65de12444f/train.log.20210430205938 to bucket: training-8319b955-6187-43c3-a46f-612a9ea6f523, error: can't start new thread
2021-04-30 20:59:48,401 - uipath_core.utils.utils:_retries:172 - WARNING:  Function: upload execution failed, retry count 1

Solución

Actualice a una versión más reciente de AI Center (2021.4, por ejemplo) donde se corrige este problema.

O

Si una actualización no es la solución por el momento, elimina los registros del pod de entrenamiento con el siguiente comando:

kubectl -n <namespace> exec -it <pod_id> -- sh -c 'rm -rf /microservice/trainer_run_logs'kubectl -n <namespace> exec -it <pod_id> -- sh -c 'rm -rf /microservice/trainer_run_logs'

En el comando anterior, se utilizan las siguientes variables:

  • namespace : espacio de nombres del pod. Puedes obtenerlo ejecutando el comando kubectl get namespaces . Los espacios de nombres de entrenamiento comienzan con training-.
  • pod_id : ID del pod de entrenamiento. Esto se puede obtener ejecutando kubectl get pod en el espacio de entrenamiento anterior.

Mensaje: ./export.sh: Línea 2: &dollar;'\r': Command Not Found

Al ejecutar los scripts de importación o exportación, puede aparecer el siguiente mensaje de error:

./export.sh: line 2: $'\r': command not found

Este mensaje de error se muestra al importar o exportar paquetes ML utilizando scripts.

Solución

Ejecuta el siguiente comando antes de ejecutar el script de importación o exportación:

dos2unix <filename>dos2unix <filename>

¿Te ha resultado útil esta página?

Obtén la ayuda que necesitas
RPA para el aprendizaje - Cursos de automatización
Foro de la comunidad UiPath
Uipath Logo White
Confianza y seguridad
© 2005-2024 UiPath. Todos los derechos reservados.