- Démarrage
- Sécurité et conformité des données
- Organisations
- Authentification et sécurité
- Licences
- À propos des licences
- Tarification unifiée : infrastructure du plan de licence
- Activation de votre licence Enterprise
- Migrer de Test Suite vers Test Cloud
- Migration de licence
- Attribuer des licences aux locataires
- Attribuer des licences utilisateur
- Révocation des licences utilisateur
- Surveillance de l’attribution des licences
- Surallocation de licences
- Notifications d'attribution de licence
- Gestion des licences utilisateur
- Locataires et services
- Comptes et rôles
- AI Trust Layer
- Applications externes
- Notifications
- Journalisation
- Test dans votre organisation
- Résolution des problèmes
- Migrer vers Test Cloud

Guide de l'administrateur de Test Cloud
Travailler avec l'ancrage dans le contexte
Cette section comprend des informations sur l'utilisation efficace de l'ancrage en contexte (Context Grid).
Démarrage
Pour utiliser l'ancrage dans le contexte avec des agents ou Autopilot for Everyone, créez un index en suivant les étapes décrites dans Créer des index.
Pour utiliser l'ancrage en contexte avec des activités, créez une connexion au connecteur des activités UiPath GenAI et assurez-vous d'utiliser Studio Web ou Studio Desktop version 2024.4 ou ultérieure.
Gestion du pipeline d'ingestion
Vous pouvez gérer les pipelines d'ingestion via :
- Orchestrator ou Agents sur la page Indexes . Voir Gérer les index.
- L’activité Mettre à jour l’index d’ancrage dans le contexte , qui fait partie du package d’activités UiPath GenAI.
Interroger des données avec l'ancrage dans le contexte
Après avoir créé un index dans Orchestrator, les index sont accessibles sur toute la plate-forme UiPath. Ces index servent de stockage persistant pour les documents ingérés à partir de vos sources de données, offrant une ressource réutilisable pour divers produits UiPath :
- Dans Autopilot for Everyone, l’ancrage dans le contexte améliore les interactions utilisateur en permettant d’effectuer des recherches dans les index existants afin de fournir des réponses précises aux requêtes. Pour de plus amples informations, consultez la section Ancrage dans le contexte dans Autopilot for Everyone.
- Les activités GenAI bénéficient de l’ancrage dans le contexte en permettant la génération de contenu basée sur des informations stockées dans des bases de connaissances nécessitant une autorisation. Pour de plus amples informations, consultez la section Activités GenAI.
- Aux agents, les index jouent un rôle crucial dans la fourniture de contexte lors des exécutions. Pour de plus amples informations, reportez-vous à la section Contextes.
Ancrage dans le contexte de la surveillance
Comprendre comment l'ancrage dans le contexte influence vos workflows est crucial pour optimiser les performances et le dépannage. Voici comment suivre et afficher les sorties d'ancrage dans le contexte pour différents produits UiPath.
Dans Agents, accédez à la vue Traçage de l'exécution de l'agent pour obtenir des détails complets. Cette vue fournit tous les résultats de recherche et les citations de la requête d’ancrage dans le contexte, offrant ainsi des informations sur le processus de prise de décision de l’agent.
Pour recueillir des informations détaillées sur l'ancrage en contexte dans les activités GenAI :
- Placez une activité Message du journal immédiatement après l’activité Génération de contenu dans votre séquence de workflow.
- Utilisez les variables de sortie suivantes pour capturer des informations spécifiques :
- Premier texte généré: affichez la réponse de la génération LLM après l’exécution du workflow.
- Bibliographie: examinez les résultats de la recherche sémantique qui ont influencé la sortie de la génération. Cela ne fonctionne que pour les données PDF et JSON.
Ancrage dans le contexte dans les activités GenAI
L'ancrage en contexte interagit avec vos données en trois phases :
- Établissez votre source de données pour l'ancrage dans le contexte.
- L'ancrage dans le contexte suit les autorisations de dossier partagées. Utilisez un dossier avec un accès approprié pour gérer et interroger à partir des données.
- Créez une connexion aux sources de données Integration Service prises en charge ou ajoutez des données à un emplacement partagé Orchestrator.
- Ingérer les données de votre source de données dans l'ancrage en contexte (Context Grid).
- Créer et synchroniser des index dans Orchestrator.
- Utilisez l’activité Mettre à jour l’index d’ancrage dans le contexte pour synchroniser un index que vous avez créé.
- Interrogez et ancréez des invites avec vos données.
- Utilisez l’activité de génération de contenu, des agents ou Autopilot for Everyone pour interroger des documents et utiliser des informations afin d’augmenter ou ancrer les invites.
Modèles d’ancrage dans le contexte commun
Les composants de base de l'ancrage en contexte sont conçus pour fournir un mécanisme qui prend en charge la recherche d’informations pertinentes dans et entre les documents, et ainsi apparaît uniquement les éléments les plus pertinents nécessaires pour une génération de haute qualité et à faible latence à partir d’un LLM.
Recherche dans les documents
Le service d’ancrage dans le contexte vous aide à trouver des informations spécifiques dans un seul document plus efficacement. Au lieu de simplement faire correspondre des mots clés, il comprend le sens et le contexte de votre requête de recherche. Par exemple, si vous recherchez des informations sur les « recues de tarte aux Apple » dans un livre de cookies, il comprendra que vous êtes intéressé par les widgets et la restauration, et non par la technologie ou la production de champs.
Recherche dans tous les documents
L'ancrage en contexte vous aide à trouver des informations réparties sur plusieurs documents. Elle peut comprendre les relations entre les différentes informations et fournir des résultats plus pertinents. Par exemple, si vous recherchez les « effet du changement CLI sur l’activité ;
Cela signifie que vous pouvez utiliser l'ancrage en contexte pour :
- Extraction et comparaison de données: l’ancrage dans le contexte peut identifier et extraire automatiquement des types d’informations spécifiques de documents, puis les comparer de manière significative. Imaginez que vous disposiez d'une pile de CV et que vous souhaitiez comparer les expériences professionnelles des candidats. Le service peut extraire des titres de poste, des durées et des responsabilités, puis les présenter de manière à faciliter la comparaison, même si les informations sont formatées différemment dans chaque processus.
- Résumé: l’ancrage dans le contexte peut créer des résumés de documents longs ou de plusieurs documents connexes. Elle ne choisit pas les phrases aléatoires, mais comprend les points clés et le message général. Par exemple, si vous avez un long rapport sur les tendances du marché, le service peut fournir un résumé mettant en évidence les principales résultats, les statistiques clés et les conclusions globales.
Notifications
Vous pouvez vous abonner pour recevoir des notifications de l’ancrage dans le contexte. Rendez-vous sur le panneau Notifications pour en savoir plus.
Les événements servent de déclencheurs de notifications. Les événements d'ancrage dans le contexte qui génèrent des notifications sont :
- Tâche d’ingestion terminée
- Échec de la tâche d’ingestion
- Tâche d’ingestion démarrée
Vous pouvez également créer un abonnement aux événements en fonction de leur gravité, comme Réussite ou Erreur.
Fournir votre propre base de données de vecteurs
Utilisez votre base de données de vecteurs existante pour ancrer les réponses des agents dans des données d’entreprise approuvées, sans dupliquer le contenu ou modifier votre architecture actuelle.
Ce guide montre comment connecter des bases de données de vecteurs gérées en externe (telles que Databricks Vector Search ou Azure AI Search) aux agents UiPath à l'aide de Workflows d'API, en permettant la génération augmentée de récupération (RAG) avec vos propres sources de données.
À la fin de ce guide, vous serez en mesure de :
- Interrogez une base de données de vecteurs externe depuis un agent UiPath.
- Renvoyez le contenu le plus pertinent en tant que contexte structuré.
- Ancrez les réponses des agents dans les données de votre organisation en toute sécurité et en temps réel.
Quand utiliser le modèle Apporter votre propre vecteur de base de données (BYOVD)
Utilisez BYOVD lorsque :
- Vos données sont déjà indexées dans un magasin de vecteurs externe.
- Vous souhaitez que les agents accèdent à des connaissances d’entreprise à jour.
- Vous devez éviter de copier ou de réindexer des données dans UiPath.
- Vous avez besoin d’un contrôle total sur le stockage des données, la sécurité et les intégrations.
Mode de fonctionnement
L’analyse de l’IA générative permet aux agents d’ancrer les réponses de l’IA générative dans vos sources de données approuvées. Au lieu de vous appuyer sur un index d’ancrage dans le contexte intégré, vous utilisez des workflows d’API qui interrogent votre base de données de vecteurs externe et renvoient le contexte pertinent au grand modèle de langage de l’agent.
Cette approche vous donne la flexibilité nécessaire pour intégrer n’importe quelle base de données de vecteurs à une API publique, tout en conservant le contrôle sur l’accès aux données, l’authentification et la logique de récupération.
UiPath active la fonctionnalité BYOVD via des workflows d'API qui servent d'outils aux agents. Au moment de l’exécution :
- Requête utilisateur: l'utilisateur soumet une requête à l'agent.
- Sélection d'outils: le LLM de l'agent détermine qu'un contexte supplémentaire est nécessaire et sélectionne l'outil de recherche de vecteurs personnalisés.
- Exécution du workflow d'API: l'agent invoque le workflow d'API publié, en passant la requête de l'utilisateur comme entrée.
- Recherche de vecteurs: le workflow interroge la base de données de vecteurs pour récupérer le contenu le plus pertinent sur le plan sémantique.
- Retour du contexte : le workflow renvoie le contenu récupéré au format JSON structuré.
- Formulation de réponse: l’agent utilise ce contexte pour générer une réponse précise et ancrée dans le contexte.
Cette approche prend en charge la génération augmentée de récupération (RAG) sans nécessiter d’ingestion native dans le service d’ancrage dans le contexte.
Présentation de l'architecture
La solution BYOVD se compose de trois composants principaux :
- Base de données de vecteurs: votre système existant (par exemple, Databricks Vector Search ou Azure AI Search).
- Workflow d'API: un workflow UiPath Integration Service qui :
- Accepte une requête.
- Appelle l'API de la base de données de vecteurs.
- Renvoie les résultats pertinents.
- Outil d’agent: le workflow d’API publié, ajouté en tant qu’outil que l’agent peut invoquer.
Gestion de la sécurité et des informations d’identification
Avant de créer le workflow, stockez toutes les clés API et tous les secrets en toute sécurité. Ne codez pas les informations d’identification en dur dans votre workflow. Utilisez plutôt le magasin d'informations d’identification Orchestrator :
- Stocker les informations d'identification dans Orchestrator: ajoutez vos clés API et autres clés secrètes en tant que ressources d'informations d'identification dans votre locataire Orchestrator. Il est donc possible d'assurer une gestion centralisée et sécurisée des informations sensibles.
- Récupérer les informations d'identification lors du runtime: dans votre workflow d'API, utilisez l'activité Obtenir l'identifiant pour accéder aux informations d'identification stockées lorsque le workflow s'exécute. L'activité renvoie le nom d'utilisateur sous forme de chaîne et le mot de passe (par exemple, une clé API) sous forme de
SecureString, empêchant l'exposition de clés secrètes dans les journaux ou les définitions de workflow.
Prérequis
Avant de commencer, effectuez les actions suivantes :
- Une base de données de vecteurs actifs (telle que Databricks Vector Search ou Azure AI Search) avec des données indexées.
- Un point de terminaison d'API et des informations d'identification valides stockés en tant que ressources d'informations d'identification dans Orchestrator.
- Un point de terminaison et une clé de modèle d’intégration, également stockés en toute sécurité (.
Configuration
Vous pouvez implémenter l’option BYOVD à l’aide de l’une de ces trois approches : les points de terminaison nœuds natifs du modèle, la Extraction des données du client, ou la Extraction intégrée des données.
Les sections suivantes fournissent des instructions étape par étape pour configurer chaque approche. Les exemples utilisent Databricks et Azure AI Search, mais le même modèle s’applique aux autres bases de données de vecteurs. Choisissez une configuration qui correspond à la façon dont votre base de données de vecteurs gère la vecteur des requêtes.
Recherche de vecteurs Databricks (point de terminaison modèle-natif)
Utilisez cette option lorsque Databricks gère la vecteur des requêtes de manière native.
Pourquoi utiliser cette option :
- Une configuration simple
- Un seul appel API par requête
- Aucun modèle d’intégration distinct requis
Étapes
- Obtenez les détails de Databricks :
- Récupérez l'URL du point de terminaison.
- Stockez votre jeton d’accès personnel Databricks en tant que ressource d’informations d’identification dans Orchestrator.
- Dans Studio, créez un nouveau projet de workflow d'API et définissez les arguments suivants :
in_QueryText(String)in_TopK(Int32, avec une valeur par défaut de5)out_Results(String)
- Utilisez l'activité Get Credential pour récupérer le jeton d'accès personnel Databricks d'Orchestrator au moment du runtime.
- Ajoutez une activité Requête HTTP pour appeler le point de terminaison Databricks :
- Point de terminaison: le point de terminaison de recherche de vecteurs Databricks
- Méthode:
POST - En-têtes:
Authorization: Bearer <Personal Access Token> - Corps: créez le corps JSON requis par l'API Databricks, en mappant vos variables d'entrée.
- Publiez le workflow sur votre locataire Orchestrator.
- Ajoutez le workflow en tant qu'outil à votre agent, en fournissant le nom et la description clairs du LLM à utiliser.
Recherche d’IA Azure ( typerisation côté client)
Utilisez cette option lorsque votre index Azure AI Search attend des entrées de vecteurs.
Pourquoi utiliser cette option :
- Contrôle total des modèles d’intégration
- Compatibilité avec les index de vecteurs existants
Étapes
- Obtenir les détails de l'API :
- Pour Azure AI Search : récupérez l' URL du point de terminaison, le nom de l'index et stockez votre clé API en tant que ressource d'informations d'identification dans Orchestrator.
- Pour le modèle d'intégration : récupérez l'URL du point de terminaison et stockez la clé API de votre service d'intégration en tant que ressource d'informations d'identification dans Orchestrator.
- Dans Studio, créez un nouveau projet de workflow d'API et définissez les arguments suivants :
in_QueryText(String)in_TopK(Int32, avec une valeur par défaut de5)out_Results(String)
- Tout d’abord, vecteurs de la requête :
- Ajoutez une activité Obtenir les informations d’identification pour récupérer la clé API de votre modèle d’intégration.
- Ajoutez une activité Requête HTTP pour appeler votre modèle d’intégration avec
in_QueryText. - Désérialisez la réponse JSON et enregistrez le vecteur d’intégration obtenu dans une variable (par exemple,
queryVector.
- Interroger la recherche Azure AI :
- Ajoutez une activité Obtenir les informations d’identification pour récupérer votre clé API Azure AI Search.
- Ajoutez une activité Demande HTTP et configurez-la comme suit :
- Point de terminaison: votre point de terminaison Azure AI Search.
- Méthode :
POST. - En-têtes : ajoutez un en-tête
api-keyavec votre variable de clé API Azure AI Search, comme suit :api-key: <API key>. - Corps : créez le corps JSON pour la requête de recherche de vecteurs Azure AI Search, en intégrant votre variable
queryVector.
- Publiez le workflow sur votre locataire Orchestrator.
- Ajoutez le workflow publié en tant qu'outil à votre agent, en fournissant une description claire du LLM à utiliser.
Recherche d’Azure AI (optimisation intégrée)
Utilisez cette option lorsque votre index Azure AI Search prend en charge la vecteur de numérisation intégrée.
Pourquoi utiliser cette option :
- Configuration Azure la plus simple
- Aucun appel d'intégration dans le workflow
- Unique requête API par requête
Étapes
- Obtenir les détails de l'API :
- Récupérez votre URL de point de terminaison Azure AI Search, le nom de l'index et stockez votre clé API en tant que ressource d'informations d'identification dans Orchestrator.
- Dans Studio, créez un nouveau projet de workflow d'API et définissez les arguments suivants :
in_QueryText(String)in_TopK(Int32, avec une valeur par défaut de5)out_Results(String)
- Ajoutez une activité Obtenir les informations d'identification pour récupérer votre clé API Azure AI Search à partir d'Orchestrator.
- Ajoutez une activité Demande HTTP et configurez-la comme suit :
- Point de terminaison:
https://<service>.search.windows.net/indexes/<index-name>/docs/search?api-version=2023-11-01https://<service>.search.windows.net/indexes/<index-name>/docs/search?api-version=2023-11-01 - Méthode:
POST - En-têtes: ajoutez un en-tête
api-keyavec votre variable de clé API Azure AI Search, comme suit :api-key: <API key> - Corps: créez le corps JSON pour effectuer une recherche de vecteurs à l’aide du texte de la requête. Azure AI Search gère automatiquement la vecteur de la vecteur de données.
{ "vectorQueries": [ { "kind": "text", "text": "<%= in_QueryText %>", "fields": "contentVector", "k": "<%= in_TopK %>" } ], "select": "chunk, source_document" }{ "vectorQueries": [ { "kind": "text", "text": "<%= in_QueryText %>", "fields": "contentVector", "k": "<%= in_TopK %>" } ], "select": "chunk, source_document" }
- Point de terminaison:
- Publiez le workflow sur votre locataire Orchestrator.
- Ajoutez le workflow publié en tant qu'outil à votre agent, en fournissant une description claire du LLM.
Questions fréquemment posées
Qu'est-ce que l'ancrage dans le contexte ?
L’ancrage dans le contexte est une nouvelle fonctionnalité UiPath® qui fait partie de la politique AI Trust Layer. Il fournit un mécanisme permettant de rechercher et de récupérer le contexte pertinent à partir des données afin d’ancrer les invites et de guider des générations plus précises à partir de modèles LLM via les fonctionnalités et les produits UiPath GenAI.
Pourquoi l'ancrage dans le contexte est-il important ?
L’ancrage dans le contexte fournit des preuves via des données fournies par l’utilisateur aux LLM afin d’influencer leurs générations. Cela rend les prédictions plus adaptées à vos cas d'utilisation et à vos données, plutôt que de se baser sur les données générales sur lesquelles les LLM sont entraînés. Cela permet aux automatisations assistées et non assistées qui exploitent GenAI d'être plus précises et plus précises.
Comment fonctionne l'ancrage dans le contexte ?
L'ancrage en contexte propose deux services :
- Une base de données de vecteurs gérée en tant que service : nous vous permettons de convertir facilement vos données en représentations d’intégration.
- Génération augmentée de récupération (RAG) en tant que service: l’ancrage dans le contexte interroge les données de différents produits d’automatisation, récupère les résultats les plus pertinents et augmente les invites avec ces résultats pour garantir que les générations sont plus spécifiques.
Comment utiliser l'ancrage dans le contexte ?
Vous pouvez utiliser l'ancrage dans le contexte via les activités UiPath GenAI, Autopilot for Everyone et Agents.
L'ancrage dans le contexte élimine-t-il les options ?
Non, mais cela réduit considérablement les Idées de génération d' options, car les générations sont basées sur des informations interrogées à partir des données fournies par l'utilisateur. Par défaut, l'ancrage dans le contexte fournit une citation ou une preuve de connaissances sur laquelle la génération était basée. Cela signifie que vous pouvez vérifier et valider la source. Lorsque Contexte d'ancrage n'est pas en mesure de trouver une réponse correspondante hautement fiable dans les données fournies, il n'essaie pas de fournir des réponses. Au lieu de cela, il génère une réponse telle que : « Une réponse n'a pas pu être trouvée ».
Ai-je accès à l'ancrage dans le contexte ?
L’ancrage dans le contexte est accessible à tous les locataires et toutes les organisations.
Pour plus de détails sur la résidence des données, consultez la page Résidence des données.
Comment l'ancrage dans le contexte est-il autorisé ?
Des frais d’ancrage dans le contexte pour les recherches ou la RAG lorsqu’elle est exécutée via ses applications de produits UiPath prises en charge. Pour de plus amples informations, consultez la section Licences d'ancrage dans le contexte.
L'ancrage dans le contexte est-il disponible uniquement dans les déploiements Cloud ?
À partir de la version 2.2510, l'ancrage dans le contexte est également disponible dans Automation Suite.
Quels types de données puis-je utiliser dans l'ancrage dans le contexte ?
L'ancrage en contexte fonctionne actuellement avec les formats de données suivants : PDF, JSON, CSV, DOCX, TXT, XLS.
Puis-je importer des données d'entreprise supplémentaires dans l'ancrage en contexte ?
Pour exploiter l’ancrage dans le contexte, vous devez importer des données dans des compartiments ou des index de stockage UiPath Orchestrator. Vous pouvez ensuite utiliser des activités d’ancrage dans le contexte pour ingérer et indexer, et gérer les données interrogées pour garantir des résultats hautement pertinents.
La quantité de données que je peux inclure dans l'ancrage dans le contexte est-elle limitée ?
La limite des données que vous pouvez utiliser pour ancrer vos invites est basée sur les limites de taille des jetons de la fenêtre de contexte du modèle. Reportez-vous au modèle que vous utilisez pour exécuter le RAG (par exemple, dans les activités GenAI) pour déterminer les seuils potentiels de limite des jetons.
- Limite d'index: il y a une limite de dix index par locataire. Nous vous recommandons de maintenir une relation 1-1 entre les compartiments Orchestrator à partir desquels vous ingérez les données, afin d'éviter les fuites de données entre les dossiers et assurer la séparation logique des données qui peuvent devoir être interrogées par différents utilisateurs à des fins différentes. L’ancrage dans le contexte tire parti des autorisations d’autorisation de dossier pour aider à appliquer cette recommandation.
- Stockage: il n'y a pas de limite au stockage sur ou dans ces index. Cependant, nous formons certains limites aux clients qui ont ingéré une quantité trop élevée de données.
L'ancrage dans le contexte est-il le même que RAG ?
L'ancrage au contexte fournit un service RAG au moment du runtime pour les expériences UiPath GenAI. Cependant, il fournit également une base de données de vecteurs gérée en tant que service pour aider à gérer les données utilisées au moment de l'exécution. Cela garantit une recherche de haute qualité et des résultats générés.
Comment mes données sont-elles stockées ou partagées avec l'ancrage en contexte ?
Toutes les données partagées avec UiPath sont traitées selon les normes de conformité d'entreprise, de chiffrement et de sécurité standard.
L'ancrage en contexte fait partie de l'AI Trust Layer, ce qui signifie que vos données ne sont jamais stockées en dehors d'UiPath, ni utilisées pour entraîner des modèles tiers.
Comment assurez-vous la sécurité des données ?
L'ancrage en contexte est à l'échelle du locataire et tire parti des politiques RBAC et AuthZ existantes dans UiPath, en plus de chiffrer les données au repos et en transit.
Comme elle est à l'échelle du locataire, aucune donnée n'est partagée entre les index au sein du même locataire ou entre les locataires.
Comment l'ancrage dans le contexte est-il autorisé ?
L'ancrage dans le contexte s'effectue à l'échelle du locataire. Nous prenons en charge l'autorisation au niveau du dossier dans les compartiments Orchestrator, et l'ancrage en contexte s'appuie sur les politiques d'authentification et d'Automation Ops existantes appliquées aux activités GenAI.
Puis-je sélectionner dynamiquement le LLM à utiliser ?
Dans les activités UiPath GenAI, vous pouvez sélectionner le LLM à utiliser pour exécuter la partie RAG prise en charge par l’ancrage dans le contexte. Vous pouvez sélectionner n'importe quel LLM disponible dans la passerelle LLM. UiPath gère ensuite les stratégies d’ingestion et de recherche sémantique pour optimiser la génération.
- Démarrage
- Gestion du pipeline d'ingestion
- Interroger des données avec l'ancrage dans le contexte
- Ancrage dans le contexte dans les activités GenAI
- Modèles d’ancrage dans le contexte commun
- Notifications
- Fournir votre propre base de données de vecteurs
- Mode de fonctionnement
- Présentation de l'architecture
- Gestion de la sécurité et des informations d’identification
- Prérequis
- Configuration
- Recherche de vecteurs Databricks (point de terminaison modèle-natif)
- Recherche d’IA Azure ( typerisation côté client)
- Recherche d’Azure AI (optimisation intégrée)
- Questions fréquemment posées