- Démarrage
- Agents UiPath dans Studio Web
- À propos des agents UiPath
- Licences
- Créer un agent dans Studio Web
- Conversational agents
- Agents ou workflows
- Meilleures pratiques pour créer des agents
- Meilleures pratiques en matière d’ingénierie contextuelle
- Meilleures pratiques pour la publication et le déploiement d’agents
- Invites
- Contexts
- Escalade et mémoire d’agent
- Évaluations
- Traçages d’agent
- Score de l’agent
- Gérer les agents UiPath
- Agents UiPath dans Agent Builder
- Agents codés UiPath

Guide de l'utilisateur des agents
Un ancrage dans le contexte efficace garantit à votre agent l’accès aux bonnes connaissances au bon moment pour la tâche à accomplir. Lorsqu’elle est mise en œuvre correctement, elle augmente la précision, améliore les performances et réduit les coûts de jetons.
Dans cette section, vous apprendrez comment configurer et gérer vos sources de contexte à l’aide d’un ancrage dans le contexte, et notamment les meilleures pratiques pour la configuration des index, la conception des schémas et l’évaluation continue.
Pour plus d’informations sur le service d’ancrage dans le contexte, consultez la documentation dédiée : À propos de l’ancrage dans le contexte.
Grâce à l’ancrage dans le contexte, les agents se connectent aux connaissances de l’entreprise, telles que les documents, les FAQ, les e-mails et les procédures opérationnelles standard (SOP). Vous créez des index dans Orchestrator et les associez aux agents dans Studio Web pour activer cette connexion.
L’ancrage dans le contexte aide les agents à :
- Analyser les données spécifiques à l’entreprise.
- Éviter les hallucinations ou les inventions.
- Répondre avec des connaissances à jour et encadrées par des règles.
- Citer des sources lorsqu’il est configuré avec des contraintes de schéma.
Pour créer des agents fiables et réactifs, adoptez les pratiques de base suivantes lors de la conception et de l’adaptation de votre contexte :
Utiliser des noms d’index descriptifs et versionnés
HR-Policies-2025-Q3
.
Cela facilite les opérations suivantes :
- Revenir aux versions précédentes d’index.
- Effectuer des tests A/B avec différentes bases de connaissances.
- Suivre les mises à jour au fil du temps.
Créer un nouvel index dans Orchestrator lorsque le contenu change de manière significative et mettre à jour la définition de l’agent en conséquence.
Choisir le mode d’ingestion approprié
Lors de la création d’un index, sélectionnez le mode d’ingestion qui convient à votre contenu :
- Mode basique : idéal pour les documents contenant principalement du texte simple.
- Mode avancé : à utiliser pour les fichiers qui combinent texte et images (par exemple, les fichiers PDF numérisés ou les infographies).
Cela a un impact sur la couverture et les coûts liés à l’OCR. Choisissez en fonction du type de documents et de l’importance du contenu visuel pour la récupération.
Maintenir une cadence de synchronisation régulière
L’actualisation des index garantit que les agents référencent des informations à jour. Pour actualiser le contenu de l’index, utilisez l’action Synchroniser dans Orchestrator ou l’activité Mettre à jour l’index d’ancrage dans le contexte dans Studio. Vous pouvez planifier des synchronisations périodiques en fonction de la fréquence de mise à jour de votre contenu source.
Calibrer le nombre de résultats et le score seuil
- Nombre de résultats : ajustez ce paramètre pour contrôler le nombre de fragments de contexte récupérés. Plus les résultats seront nombreux, plus la pertinence sera élevée, mais il en va de même pour l’utilisation de jetons.
- Seuil : filtre le contexte peu pertinent. La valeur par défaut est 0. Il est possible de l’augmenter pour améliorer la précision si trop de passages sans rapport sont renvoyés. Cependant, si vous définissez la valeur du seuil au-dessus de 0 (zéro), cela signifie que des éléments pertinents peuvent être exclus des réponses, ce qui peut entraîner des hallucinations.
Équilibrez ces paramètres pour garantir un contexte pertinent sans dépasser les limites de jetons.
Utilisez des descriptions de contexte claires dans la conception de l’agent
Lorsque vous ajoutez un index de contexte à un agent, fournissez une description brève et précise de son contenu. Cela aide à guider la récupération et l’utilisation des connaissances par l’agent pendant l’exécution.
Les descriptions sont particulièrement utiles lorsque vous utilisez plusieurs sources de contexte.
Alignez le schéma sur les attentes de l’agent
Définissez un schéma de réponse le cas échéant, en particulier pour les sorties structurées telles que JSON. Cela garantit que l’agent formate correctement les réponses et qu’il inclut uniquement les informations contextuelles.
Pour améliorer la fiabilité, incluez des exemples de schémas dans l’invite système.
Remaniez la configuration du contexte lorsque :
- Les agents n’ont pas les résultats attendus.
- Le contenu non pertinent apparaît dans les traces.
- Les agents dépassent les limites de jetons ou échouent avec des erreurs « dépassement de jetons ».
- Les schémas de documents changent.
- Un nouveau cas d’utilisation ou une extension de portée se produit.
Utilisez les journaux de suivi des exécutions de test et de production pour déterminer si le problème est lié à la qualité du contexte, à la quantité ou aux paramètres d’indexation.
Utilisez ce tableau pour identifier et résoudre les problèmes courants d’ancrage dans le contexte. Chaque ligne met en évidence un signal de détection que vous pouvez observer dans les traçages et les actions recommandées pour le corriger.
Erreur | Signal de détection | Correction recommandée |
---|---|---|
L’agent ne répond pas comme prévu, même s’il devrait contenir des documents pertinents dans l’index | Aucun résultat trouvé |
Confirmer les données les plus récentes, ajouter des documents pertinents et synchroniser l’index Seuil inférieur |
Réponses attendues manquantes | Le traçage affiche un filtrage à seuil élevé | Abaisser le seuil ou améliorer la couverture des documents |
Débordement de fenêtre de contexte | L’agent échoue avec « dépassement du nombre de jetons » | Réduire le nombre de résultats ou réduire l’entrée utilisateur |
Informations obsolètes renvoyées | Le traçage affiche un horodatage obsolète | Synchroniser ou reconstruire l’index ; republier l’agent |
Utilisez des exécutions d’évaluation dans Agent Builder pour tester dans quelle mesure vos sources de contexte prennent en charge les objectifs de l’agent.
Les évaluations doivent être exécutées :
- Inclure des invites réelles et diverses.
- Examinez les traçages pour identifier les éléments qui ont été récupérés.
- Lors de la mise à jour ou du remplacement des index, incluez des tests de régression.
Vous pouvez également feindre des exécutions grâce aux outils de simulation avec un contexte simulé pour prévisualiser les performances avant de procéder à une mise à jour complète de l’index.
La liste de contrôle suivante vous permettra de vous assurer que votre configuration d’ancrage dans le contexte suit les meilleures pratiques :
- Les noms d’index sont versionnés et descriptifs.
- Le mode d’ingestion correspond au type de document.
- Les index sont synchronisés régulièrement.
- Le nombre de résultats et le seuil sont ajustés.
- Les descriptions contextuelles sont informatives.
- Le schéma est défini et appliqué dans la requête.
- Les erreurs courantes sont suivies et résolues à l’aide de journaux de traçage.
Utilisez les modèles suivants comme point de départ pour l’invite système de votre agent. Personnalisez-les en fonction des spécificités de votre utilisation.
Assurance qualité / Recherche dans la base de connaissance
You are an enterprise knowledge assistant.
Goal: Answer user questions using ONLY approved company documents.
Constraints:
- Cite each answer with source title and section.
- If confidence is low or no relevant context was retrieved, ask a clarifying question instead of guessing.
- Respond in Markdown unless JSON is requested.
# Processing Steps
1. Interpret the user question.
2. Review retrieved context below.
3. Use only information found in context; do not fabricate.
4. Provide a concise answer and cite sources.
You are an enterprise knowledge assistant.
Goal: Answer user questions using ONLY approved company documents.
Constraints:
- Cite each answer with source title and section.
- If confidence is low or no relevant context was retrieved, ask a clarifying question instead of guessing.
- Respond in Markdown unless JSON is requested.
# Processing Steps
1. Interpret the user question.
2. Review retrieved context below.
3. Use only information found in context; do not fabricate.
4. Provide a concise answer and cite sources.
Extraction et validation structurées
You are an extraction agent that maps document content into a structured schema.
Goal: Populate all required fields from retrieved document snippets.
Constraints:
- Return valid JSON matching the schema.
- Use null if field not found; do NOT guess.
- Provide a confidence score 0‑1 for each field.
- Include source_span metadata (doc_id, chunk_id).
# Steps
1. Read user instruction for target doc type.
2. Review retrieved context.
3. Extract fields.
4. Validate required fields; request escalation if missing critical values.
You are an extraction agent that maps document content into a structured schema.
Goal: Populate all required fields from retrieved document snippets.
Constraints:
- Return valid JSON matching the schema.
- Use null if field not found; do NOT guess.
- Provide a confidence score 0‑1 for each field.
- Include source_span metadata (doc_id, chunk_id).
# Steps
1. Read user instruction for target doc type.
2. Review retrieved context.
3. Extract fields.
4. Validate required fields; request escalation if missing critical values.
Raisonnement et sélection des actions
You are an operations triage agent.
Goal: Decide the next best action based on policies and current case details.
Constraints:
- Choose only from the allowed actions list.
- Provide short rationale.
- Output as JSON: {"action":string,"reason":string,"evidence_sources":[...]}
# Allowed Actions
{{ACTION_LIST}}
You are an operations triage agent.
Goal: Decide the next best action based on policies and current case details.
Constraints:
- Choose only from the allowed actions list.
- Provide short rationale.
- Output as JSON: {"action":string,"reason":string,"evidence_sources":[...]}
# Allowed Actions
{{ACTION_LIST}}