agents
latest
false
Important :
La localisation du contenu nouvellement publié peut prendre 1 à 2 semaines avant d’être disponible.
UiPath logo, featuring letters U and I in white

Guide de l'utilisateur des agents

Dernière mise à jour 25 août 2025

Meilleures pratiques en matière d’ingénierie contextuelle

Un ancrage dans le contexte efficace garantit à votre agent l’accès aux bonnes connaissances au bon moment pour la tâche à accomplir. Lorsqu’elle est mise en œuvre correctement, elle augmente la précision, améliore les performances et réduit les coûts de jetons.

Dans cette section, vous apprendrez comment configurer et gérer vos sources de contexte à l’aide d’un ancrage dans le contexte, et notamment les meilleures pratiques pour la configuration des index, la conception des schémas et l’évaluation continue.

Pour plus d’informations sur le service d’ancrage dans le contexte, consultez la documentation dédiée : À propos de l’ancrage dans le contexte.

Comprendre ce qu’est l’ancrage dans le contexte

Grâce à l’ancrage dans le contexte, les agents se connectent aux connaissances de l’entreprise, telles que les documents, les FAQ, les e-mails et les procédures opérationnelles standard (SOP). Vous créez des index dans Orchestrator et les associez aux agents dans Studio Web pour activer cette connexion.

L’ancrage dans le contexte aide les agents à :

  • Analyser les données spécifiques à l’entreprise.
  • Éviter les hallucinations ou les inventions.
  • Répondre avec des connaissances à jour et encadrées par des règles.
  • Citer des sources lorsqu’il est configuré avec des contraintes de schéma.

Meilleures pratiques pour la configuration de l’ancrage dans le contexte

Pour créer des agents fiables et réactifs, adoptez les pratiques de base suivantes lors de la conception et de l’adaptation de votre contexte :

Utiliser des noms d’index descriptifs et versionnés

Nommez vos index en utilisant un modèle clair et cohérent. Exemple : HR-Policies-2025-Q3.

Cela facilite les opérations suivantes :

  • Revenir aux versions précédentes d’index.
  • Effectuer des tests A/B avec différentes bases de connaissances.
  • Suivre les mises à jour au fil du temps.

Créer un nouvel index dans Orchestrator lorsque le contenu change de manière significative et mettre à jour la définition de l’agent en conséquence.

Choisir le mode d’ingestion approprié

Lors de la création d’un index, sélectionnez le mode d’ingestion qui convient à votre contenu :

  • Mode basique : idéal pour les documents contenant principalement du texte simple.
  • Mode avancé : à utiliser pour les fichiers qui combinent texte et images (par exemple, les fichiers PDF numérisés ou les infographies).

Cela a un impact sur la couverture et les coûts liés à l’OCR. Choisissez en fonction du type de documents et de l’importance du contenu visuel pour la récupération.

Maintenir une cadence de synchronisation régulière

L’actualisation des index garantit que les agents référencent des informations à jour. Pour actualiser le contenu de l’index, utilisez l’action Synchroniser dans Orchestrator ou l’activité Mettre à jour l’index d’ancrage dans le contexte dans Studio. Vous pouvez planifier des synchronisations périodiques en fonction de la fréquence de mise à jour de votre contenu source.

Calibrer le nombre de résultats et le score seuil

  • Nombre de résultats : ajustez ce paramètre pour contrôler le nombre de fragments de contexte récupérés. Plus les résultats seront nombreux, plus la pertinence sera élevée, mais il en va de même pour l’utilisation de jetons.
  • Seuil : filtre le contexte peu pertinent. La valeur par défaut est 0. Il est possible de l’augmenter pour améliorer la précision si trop de passages sans rapport sont renvoyés. Cependant, si vous définissez la valeur du seuil au-dessus de 0 (zéro), cela signifie que des éléments pertinents peuvent être exclus des réponses, ce qui peut entraîner des hallucinations.

Équilibrez ces paramètres pour garantir un contexte pertinent sans dépasser les limites de jetons.

Utilisez des descriptions de contexte claires dans la conception de l’agent

Lorsque vous ajoutez un index de contexte à un agent, fournissez une description brève et précise de son contenu. Cela aide à guider la récupération et l’utilisation des connaissances par l’agent pendant l’exécution.

Les descriptions sont particulièrement utiles lorsque vous utilisez plusieurs sources de contexte.

Alignez le schéma sur les attentes de l’agent

Définissez un schéma de réponse le cas échéant, en particulier pour les sorties structurées telles que JSON. Cela garantit que l’agent formate correctement les réponses et qu’il inclut uniquement les informations contextuelles.

Pour améliorer la fiabilité, incluez des exemples de schémas dans l’invite système.

Quand et comment réaliser des itérations

Remaniez la configuration du contexte lorsque :

  • Les agents n’ont pas les résultats attendus.
  • Le contenu non pertinent apparaît dans les traces.
  • Les agents dépassent les limites de jetons ou échouent avec des erreurs « dépassement de jetons ».
  • Les schémas de documents changent.
  • Un nouveau cas d’utilisation ou une extension de portée se produit.

Utilisez les journaux de suivi des exécutions de test et de production pour déterminer si le problème est lié à la qualité du contexte, à la quantité ou aux paramètres d’indexation.

Erreurs courantes et comment les résoudre

Utilisez ce tableau pour identifier et résoudre les problèmes courants d’ancrage dans le contexte. Chaque ligne met en évidence un signal de détection que vous pouvez observer dans les traçages et les actions recommandées pour le corriger.

Tableau 1. Résolution des problèmes d’ancrage dans le contexte
ErreurSignal de détectionCorrection recommandée
L’agent ne répond pas comme prévu, même s’il devrait contenir des documents pertinents dans l’index Aucun résultat trouvé

Confirmer les données les plus récentes, ajouter des documents pertinents et synchroniser l’index

Seuil inférieur

Réponses attendues manquantesLe traçage affiche un filtrage à seuil élevéAbaisser le seuil ou améliorer la couverture des documents
Débordement de fenêtre de contexteL’agent échoue avec « dépassement du nombre de jetons »Réduire le nombre de résultats ou réduire l’entrée utilisateur
Informations obsolètes renvoyéesLe traçage affiche un horodatage obsolèteSynchroniser ou reconstruire l’index ; republier l’agent

Évaluation de la qualité du contexte

Utilisez des exécutions d’évaluation dans Agent Builder pour tester dans quelle mesure vos sources de contexte prennent en charge les objectifs de l’agent.

Les évaluations doivent être exécutées :

  • Inclure des invites réelles et diverses.
  • Examinez les traçages pour identifier les éléments qui ont été récupérés.
  • Lors de la mise à jour ou du remplacement des index, incluez des tests de régression.

Vous pouvez également feindre des exécutions grâce aux outils de simulation avec un contexte simulé pour prévisualiser les performances avant de procéder à une mise à jour complète de l’index.

Résumé de la liste de contrôle

La liste de contrôle suivante vous permettra de vous assurer que votre configuration d’ancrage dans le contexte suit les meilleures pratiques :

  • Les noms d’index sont versionnés et descriptifs.
  • Le mode d’ingestion correspond au type de document.
  • Les index sont synchronisés régulièrement.
  • Le nombre de résultats et le seuil sont ajustés.
  • Les descriptions contextuelles sont informatives.
  • Le schéma est défini et appliqué dans la requête.
  • Les erreurs courantes sont suivies et résolues à l’aide de journaux de traçage.

Exemples de modèles d’invites

Utilisez les modèles suivants comme point de départ pour l’invite système de votre agent. Personnalisez-les en fonction des spécificités de votre utilisation.

Assurance qualité / Recherche dans la base de connaissance

You are an enterprise knowledge assistant.
Goal: Answer user questions using ONLY approved company documents.
Constraints:
- Cite each answer with source title and section.
- If confidence is low or no relevant context was retrieved, ask a clarifying question instead of guessing.
- Respond in Markdown unless JSON is requested.

# Processing Steps
1. Interpret the user question.
2. Review retrieved context below.
3. Use only information found in context; do not fabricate.
4. Provide a concise answer and cite sources.You are an enterprise knowledge assistant.
Goal: Answer user questions using ONLY approved company documents.
Constraints:
- Cite each answer with source title and section.
- If confidence is low or no relevant context was retrieved, ask a clarifying question instead of guessing.
- Respond in Markdown unless JSON is requested.

# Processing Steps
1. Interpret the user question.
2. Review retrieved context below.
3. Use only information found in context; do not fabricate.
4. Provide a concise answer and cite sources.

Extraction et validation structurées

You are an extraction agent that maps document content into a structured schema.
Goal: Populate all required fields from retrieved document snippets.
Constraints:
- Return valid JSON matching the schema.
- Use null if field not found; do NOT guess.
- Provide a confidence score 01 for each field.
- Include source_span metadata (doc_id, chunk_id).

# Steps
1. Read user instruction for target doc type.
2. Review retrieved context.
3. Extract fields.
4. Validate required fields; request escalation if missing critical values.You are an extraction agent that maps document content into a structured schema.
Goal: Populate all required fields from retrieved document snippets.
Constraints:
- Return valid JSON matching the schema.
- Use null if field not found; do NOT guess.
- Provide a confidence score 0‑1 for each field.
- Include source_span metadata (doc_id, chunk_id).

# Steps
1. Read user instruction for target doc type.
2. Review retrieved context.
3. Extract fields.
4. Validate required fields; request escalation if missing critical values.

Raisonnement et sélection des actions

You are an operations triage agent.
Goal: Decide the next best action based on policies and current case details.
Constraints:
- Choose only from the allowed actions list.
- Provide short rationale.
- Output as JSON: {"action":string,"reason":string,"evidence_sources":[...]}

# Allowed Actions
{{ACTION_LIST}}You are an operations triage agent.
Goal: Decide the next best action based on policies and current case details.
Constraints:
- Choose only from the allowed actions list.
- Provide short rationale.
- Output as JSON: {"action":string,"reason":string,"evidence_sources":[...]}

# Allowed Actions
{{ACTION_LIST}}

Cette page vous a-t-elle été utile ?

Obtenez l'aide dont vous avez besoin
Formation RPA - Cours d'automatisation
Forum de la communauté UiPath
Uipath Logo
Confiance et sécurité
© 2005-2025 UiPath Tous droits réservés.