ai-center
2024.10
true
UiPath logo, featuring letters U and I in white
AI Center - Guide de l'utilisateur
Automation CloudAutomation SuiteStandalone
Last updated 11 nov. 2024

Pipelines d'évaluation

Un pipeline d'évaluation est utilisé pour évaluer un modèle d'apprentissage automatique formé. Pour utiliser ce pipeline, le package doit contenir du code permettant d'évaluer un modèle (la fonction evaluate() dans le fichier train.py). Ce code, avec un ensemble de données ou un sous-dossier dans un ensemble de données, produit un score (le retour de la fonction evaluate()) et toutes les sorties arbitraires que l'utilisateur souhaite conserver en plus du score.

Création de pipelines d'évaluation

Créez un nouveau pipeline d'évaluation comme décrit ici. Assurez-vous de fournir les informations spécifiques au pipeline d'évaluation suivantes :

  • Dans le champ Type de pipeline (Pipeline type), sélectionnez Exécution de pipeline d'évaluation (Evaluation run).
  • Dans le champ Choisir un ensemble de données d'évaluation (Choose evaluation dataset), sélectionnez un ensemble de données ou un dossier à partir duquel vous souhaitez importer des données pour évaluation. Tous les fichiers de cet ensemble de données/dossier doivent être disponibles localement pendant l'exécution du pipeline, étant transmis à l'argument de votre fonction evaluate().
  • Dans la section Entrer les paramètres (Enter parameters), entrez toutes les variables d'environnement définies et utilisées par votre pipeline, le cas échéant. Les variables d'environnement sont :
    • artifacts_directory, avec des artefacts de valeur par défaut : cela définit le chemin d'accès à un répertoire qui sera conservé en tant que données auxiliaires liées à ce pipeline. La plupart des utilisateurs, voire la totalité, n'auront jamais besoin de le remplacer via l'interface utilisateur. Tout peut être enregistré pendant l'exécution du pipeline, y compris les images, les fichiers PDF et les sous-dossiers. Concrètement, toutes les données que votre code écrit dans le répertoire spécifié par le chemin os.environ['artifacts_directory'] seront téléchargées à la fin de l'exécution du pipeline et seront visibles à partir de la page Détails du pipeline (Pipeline details).
    • save_test_data, avec la valeur par défaut true : s'il est défini sur true, le data_directory sera téléchargé à la fin de l'exécution du pipeline en tant que sortie du pipeline sous le répertoire data_directory.
      Remarque : l'exécution du pipeline peut prendre un certain temps. Revenez-y après un certain temps pour voir son état.
      Une fois le pipeline exécuté, sur la page Pipelines, l'état du pipeline passait sur Réussite (Successful). La page Détails du pipeline (Pipeline Details) affiche les fichiers et dossiers arbitraires liés à l'exécution du pipeline. Dans notre exemple, l'exécution a créé un fichier appelé my-evaluate-artifact.txt.

Analogie conceptuelle pour construire vos propres pipelines d'évaluation

Voici une exécution conceptuellement analogue d'un pipeline d'évaluation sur un package, par exemple la version 1.1, la sortie d'un pipeline d'évaluation sur la version 1.0.
Remarque : ceci est un exemple simplifié. Son objectif est d'illustrer comment les ensembles de données et les packages interagissent dans un pipeline d'évaluation. Les étapes sont simplement conceptuelles et ne représentent pas le fonctionnement de la plate-forme.
  1. Copiez la version 1.1 du package dans ~/mlpackage.
  2. Copiez l'ensemble de données d'évaluation ou le sous-dossier de l'ensemble de données sélectionné dans l'interface utilisateur vers ~/mlpackage/evaluation_data.
  3. Exécutez le code python suivant :
    from train import Main 
    m = Main() 
    score = m.evaluate('./evaluation_data')from train import Main 
    m = Main() 
    score = m.evaluate('./evaluation_data')
    Le score renvoyé est affiché dans la grille affichant les pipelines et le fichier results.json.
  4. Conservez les artefacts s'ils sont écrits, les données d'instantané si save_test_data est défini sur true.

Sorties du pipeline

Le fichier _results.json contient un résumé de l'exécution du pipeline, exposant toutes les entrées/sorties et les temps d'exécution pour un pipeline d'évaluation.
{
    "parameters": {
        "pipeline": "< Pipeline_name >",
        "inputs": {
            "package": "<Package_name>",
            "version": "<version_number>",
            "evaluation_data": "<storage_directory>",
            "gpu": "True/False"
        },
        "env": {
            "key": "value",
            ...
        }
    },
    "run_summary": {
     "execution_time": <time>, #in seconds 
     "start_at": <timestamp>, #in seconds 
     "end_at": <timestamp>, #in seconds 
     "outputs": {
        "score": <score>, #float
        "train_data": "<test_storage_directory>", 
        "evaluation_data": "<test_storage_directory>/None", 
        "artifacts_data": "<artifacts_storage_directory>",
         }
    }
}{
    "parameters": {
        "pipeline": "< Pipeline_name >",
        "inputs": {
            "package": "<Package_name>",
            "version": "<version_number>",
            "evaluation_data": "<storage_directory>",
            "gpu": "True/False"
        },
        "env": {
            "key": "value",
            ...
        }
    },
    "run_summary": {
     "execution_time": <time>, #in seconds 
     "start_at": <timestamp>, #in seconds 
     "end_at": <timestamp>, #in seconds 
     "outputs": {
        "score": <score>, #float
        "train_data": "<test_storage_directory>", 
        "evaluation_data": "<test_storage_directory>/None", 
        "artifacts_data": "<artifacts_storage_directory>",
         }
    }
}
Le dossier Artifacts, visible uniquement s'il n'est pas vide, est un dossier regroupant tous les artefacts générés par le pipeline, et il est enregistré sous le dossier artifacts_directory.
Le dossier Ensemble de données (Dataset), existant uniquement si save_data a été défini sur la valeur true par défaut, est une copie du dossier de l'ensemble de données d'évaluation.

Gouvernance du modèle

Comme dans les pipelines d'entraînement, un utilisateur peut définir le paramètre save_test_data = true sur les données d'instantané transmises pour évaluation.

Cette page vous a-t-elle été utile ?

Obtenez l'aide dont vous avez besoin
Formation RPA - Cours d'automatisation
Forum de la communauté UiPath
Uipath Logo White
Confiance et sécurité
© 2005-2024 UiPath Tous droits réservés.