- Notes de publication
- Prérequis
- Installation
- Démarrage
- Projets
- Jeux de données
- Paquets ML
- Pipelines
- Compétences ML
- Journaux ML
- Document Understanding dans AI Fabric
- Guide de dépannage de base
- Résolution de problèmes générale pour AI Center et FAQ
Résolution de problèmes générale pour AI Center et FAQ
Connection checking in progress
.
Pour résoudre ce problème, suivez les étapes ci-dessous :
- Fermez les journaux et vérifiez le statut du pod conn-checker
kubectl get pods
. - Si Nom d' image non valide (Invalid Image Name ) s'affiche, essayez de décrire le pod :
kubectl describe <conn-checked-pod-name>
. - Si le message Échec de l'application de l'image par défaut.. s'affiche dans Événements (en bas), cela peut signifier que les éléments isolés et non-airgappés sont mélangés :
- Vérifiez qu'infra et l'application sont installées sur le même pod.
- Vérifiez que la licence est la même. Vérifiez le champ airgapped dans le fichier
yaml
pour voir si cela est vrai ou non et si cela est attendu.
- Si le problème concerne la licence, vous devez la modifier à partir du backend. Contactez la personne qui a fourni la licence et demandez-lui de la modifier, ou bien l'équipe AI Center.
En cas d'erreurs de la page d'administration de l'hôte (erreur de configuration du locataire), utilisez la solution ci-dessous.
S'il y a beaucoup de pods expulsés en raison du message d'erreur ci-dessus, cela peut ralentir la machine ou entraîner des problèmes de réseau. Pour résoudre ce problème, utilisez la solution ci-dessous.
Pour résoudre ce problème, exécutez le script suivant ou un script similaire :
IFS=$'\)
'
for line in $(kubectl get pods -A | awk {'printf "%s,%s,%s\)
", $1,$2,$4'} | grep -E "Evicted"); do
ns=$(echo $line | cut -d',' -f1)
pod=$(echo $line | cut -d',' -f2)
kubectl delete pod -n $ns $pod
done
IFS=$'\)
'
for line in $(kubectl get pods -A | awk {'printf "%s,%s,%s\)
", $1,$2,$4'} | grep -E "Evicted"); do
ns=$(echo $line | cut -d',' -f1)
pod=$(echo $line | cut -d',' -f2)
kubectl delete pod -n $ns $pod
done
Si vous souhaitez surveiller la progression d'un pod pendant qu'il est appelé, vous devez identifier le pod correspondant à la compétence, puis vous connecter à la machine Linux afin de vérifier les journaux tout en faisant une prédiction. Pour connaître la méthode la plus efficace, consultez la section Solution ci-dessous.
Pour identifier le moyen le plus efficace d'identifier un pod correspondant à une compétence, suivez les étapes ci-dessous.
- Accédez à l'application AI Center.
- Accédez à la page Compétence ML ( ML Skill ).
- Ouvrir les appels réseau lors de l'inspection de la page.
- Actualisez la grille pour obtenir la compétence ML.
- Recherchez l’appel de compétence ML et prévisualisez-le.
- Trouvez la bonne compétence ML dans la liste et recherchez tenant-id et id. L'ID du locataire correspond à l'espace de noms et au nom du pod.
- Une fois que vous avez les informations ci-dessus, vérifiez les journaux en cours d'exécution à l'aide de la commande suivante :
kubectl -n <tenant-id> logs -f <id>
kubectl -n <tenant-id> logs -f <id>
Vous pouvez maintenant appeler la compétence et voir le processus en temps réel.
Un échec de pipeline se produit en raison d'un échec du téléchargement d'un fichier avec un message d'erreur similaire à celui ci-dessous :
2021-04-30 20:59:43,397 - uipath_core.storage.local_storage_client:upload:132 - ERROR: Failed to upload file: logs/f5f7b9f4-0813-4107-a269-bf65de12444f/train.log.20210430205938 to bucket: training-8319b955-6187-43c3-a46f-612a9ea6f523, error: can't start new thread
2021-04-30 20:59:48,401 - uipath_core.utils.utils:_retries:172 - WARNING: Function: upload execution failed, retry count 1
2021-04-30 20:59:43,397 - uipath_core.storage.local_storage_client:upload:132 - ERROR: Failed to upload file: logs/f5f7b9f4-0813-4107-a269-bf65de12444f/train.log.20210430205938 to bucket: training-8319b955-6187-43c3-a46f-612a9ea6f523, error: can't start new thread
2021-04-30 20:59:48,401 - uipath_core.utils.utils:_retries:172 - WARNING: Function: upload execution failed, retry count 1
Mettez à niveau vers une version plus récente d'AI Center (2021,4, par exemple) où ce problème est résolu.
OU
Si une mise à niveau n'est pas une solution pour le moment, supprimez les journaux dans le pod d'entraînement à l'aide de la commande suivante :
kubectl -n <namespace> exec -it <pod_id> -- sh -c 'rm -rf /microservice/trainer_run_logs'
kubectl -n <namespace> exec -it <pod_id> -- sh -c 'rm -rf /microservice/trainer_run_logs'
Dans la commande ci-dessus, les variables suivantes sont utilisées :
namespace
: espace de noms du pod. Vous pouvez l'obtenir en exécutant la commandekubectl get namespaces
. Les espaces de noms d'entraînement commencent partraining-
.pod_id
- ID de pod du pod d'entraînement. Vous pouvez l'obtenir en exécutantkubectl get pod
dans l'espace d'entraînement ci-dessus.
Lors de l'exécution des scripts d'importation ou d'exportation, le message d'erreur suivant peut s'afficher :
./export.sh: line 2: $'\r': command not found
Ce message d'erreur s'affiche lors de l'importation ou de l'exportation de paquets ML à l'aide de scripts.
- Problème : tâche d'approvisionnement bloquée lors de la vérification de la connexion en cours
- Solution
- Problème : erreurs de la page Host Admin
- Solution
- Message : Kubectl Get Pods -A | Grep expulsé
- Solution
- Problème concernant les compétences ML pendant la prédiction
- Solution
- Problème lors de l'exécution du pipeline
- Solution
- Message : ./export.sh: Ligne 2 : $'\r' : commande introuvable
- Solution