AI Center
2020.10
False
Image de fond de la bannière
AI Center
Dernière mise à jour 11 mars 2024

Résolution de problèmes générale pour AI Center et FAQ

Problème : tâche d'approvisionnement bloquée lors de la vérification de la connexion en cours

La tâche d'enregistrement peut rester bloquée dans Connection checking in progress .

Solution

Pour résoudre ce problème, suivez les étapes ci-dessous :

  1. Fermez les journaux et vérifiez le statut du pod conn-checker kubectl get pods .
  2. Si Nom d' image non valide (Invalid Image Name ) s'affiche, essayez de décrire le pod : kubectl describe <conn-checked-pod-name> .
  3. Si le message Échec de l'application de l'image par défaut.. s'affiche dans Événements (en bas), cela peut signifier que les éléments isolés et non-airgappés sont mélangés :
    1. Vérifiez qu'infra et l'application sont installées sur le même pod.
    2. Vérifiez que la licence est la même. Vérifiez le champ airgapped dans le fichier yaml pour voir si cela est vrai ou non et si cela est attendu.
  4. Si le problème concerne la licence, vous devez la modifier à partir du backend. Contactez la personne qui a fourni la licence et demandez-lui de la modifier, ou bien l'équipe AI Center.

Problème : erreurs de la page Host Admin

En cas d'erreurs de la page d'administration de l'hôte (erreur de configuration du locataire), utilisez la solution ci-dessous.

Solution

Assurez-vous que l'heure système sur les machines virtuelles Orchestrator et AI Center est synchronisée, y compris l'heure d'été. Le jeton fourni par le serveur d'identité peut être situé une heure dans le futur si l'heure du système n'est pas synchronisée.

Message : Kubectl Get Pods -A | Grep expulsé

S'il y a beaucoup de pods expulsés en raison du message d'erreur ci-dessus, cela peut ralentir la machine ou entraîner des problèmes de réseau. Pour résoudre ce problème, utilisez la solution ci-dessous.

Solution

Pour résoudre ce problème, exécutez le script suivant ou un script similaire :

IFS=$'\)
'
for line in $(kubectl get pods -A | awk {'printf "%s,%s,%s\)
", $1,$2,$4'} | grep -E "Evicted"); do 
  ns=$(echo $line | cut -d',' -f1)
  pod=$(echo $line | cut -d',' -f2)
  kubectl delete pod -n $ns $pod
doneIFS=$'\)
'
for line in $(kubectl get pods -A | awk {'printf "%s,%s,%s\)
", $1,$2,$4'} | grep -E "Evicted"); do 
  ns=$(echo $line | cut -d',' -f1)
  pod=$(echo $line | cut -d',' -f2)
  kubectl delete pod -n $ns $pod
done

Problème concernant les compétences ML pendant la prédiction

Si vous souhaitez surveiller la progression d'un pod pendant qu'il est appelé, vous devez identifier le pod correspondant à la compétence, puis vous connecter à la machine Linux afin de vérifier les journaux tout en faisant une prédiction. Pour connaître la méthode la plus efficace, consultez la section Solution ci-dessous.

Solution

Pour identifier le moyen le plus efficace d'identifier un pod correspondant à une compétence, suivez les étapes ci-dessous.

  1. Accédez à l'application AI Center.
  2. Accédez à la page Compétence ML ( ML Skill ).
  3. Ouvrir les appels réseau lors de l'inspection de la page.
  4. Actualisez la grille pour obtenir la compétence ML.
  5. Recherchez l’appel de compétence ML et prévisualisez-le.
  6. Trouvez la bonne compétence ML dans la liste et recherchez tenant-id et id. L'ID du locataire correspond à l'espace de noms et au nom du pod.


  7. Une fois que vous avez les informations ci-dessus, vérifiez les journaux en cours d'exécution à l'aide de la commande suivante :
    kubectl -n <tenant-id> logs -f <id>kubectl -n <tenant-id> logs -f <id>

Vous pouvez maintenant appeler la compétence et voir le processus en temps réel.

Problème lors de l'exécution du pipeline

Un échec de pipeline se produit en raison d'un échec du téléchargement d'un fichier avec un message d'erreur similaire à celui ci-dessous :

2021-04-30 20:59:43,397 - uipath_core.storage.local_storage_client:upload:132 - ERROR:  Failed to upload file: logs/f5f7b9f4-0813-4107-a269-bf65de12444f/train.log.20210430205938 to bucket: training-8319b955-6187-43c3-a46f-612a9ea6f523, error: can't start new thread
2021-04-30 20:59:48,401 - uipath_core.utils.utils:_retries:172 - WARNING:  Function: upload execution failed, retry count 12021-04-30 20:59:43,397 - uipath_core.storage.local_storage_client:upload:132 - ERROR:  Failed to upload file: logs/f5f7b9f4-0813-4107-a269-bf65de12444f/train.log.20210430205938 to bucket: training-8319b955-6187-43c3-a46f-612a9ea6f523, error: can't start new thread
2021-04-30 20:59:48,401 - uipath_core.utils.utils:_retries:172 - WARNING:  Function: upload execution failed, retry count 1

Solution

Mettez à niveau vers une version plus récente d'AI Center (2021,4, par exemple) où ce problème est résolu.

OU

Si une mise à niveau n'est pas une solution pour le moment, supprimez les journaux dans le pod d'entraînement à l'aide de la commande suivante :

kubectl -n <namespace> exec -it <pod_id> -- sh -c 'rm -rf /microservice/trainer_run_logs'kubectl -n <namespace> exec -it <pod_id> -- sh -c 'rm -rf /microservice/trainer_run_logs'

Dans la commande ci-dessus, les variables suivantes sont utilisées :

  • namespace : espace de noms du pod. Vous pouvez l'obtenir en exécutant la commande kubectl get namespaces . Les espaces de noms d'entraînement commencent par training- .
  • pod_id - ID de pod du pod d'entraînement. Vous pouvez l'obtenir en exécutant kubectl get pod dans l'espace d'entraînement ci-dessus.

Message : ./export.sh: Ligne 2 : $'\r' : commande introuvable

Lors de l'exécution des scripts d'importation ou d'exportation, le message d'erreur suivant peut s'afficher :

./export.sh: line 2: $'\r': command not found

Solution

Exécutez la commande suivante avant d'exécuter le script d'importation ou d'exportation :

dos2unix <filename>dos2unix <filename>

Cette page vous a-t-elle été utile ?

Obtenez l'aide dont vous avez besoin
Formation RPA - Cours d'automatisation
Forum de la communauté UiPath
Logo Uipath blanc
Confiance et sécurité
© 2005-2024 UiPath. All rights reserved.