ixp
latest
false
UiPath logo, featuring letters U and I in white

Guide de l’utilisateur de Communications Mining

Dernière mise à jour 7 oct. 2025

Comparaison des LLM CommPath et Preview

Pour générer vos extractions, vous pouvez choisir parmi les différents LLM suivants :
  • CommPath LLM
  • Aperçu de LLM

Les sections suivantes résument certains des éléments à prendre en compte lors du choix d'un LLM à utiliser. Si votre cas d'utilisation nécessite l'extraction de plus de 30 champs par message, il est recommandé d'utiliser l' Preview LLM.

CommPath LLM

  • Exploite le LLM propriétaire d’UiPath®, optimisé pour les données de communication.
  • Limité à l'extraction d'environ 30 champs par message.
  • Moins de latence que le Preview LLM​.
  • Vous pouvez l’affiner en fonction de vos données.
  • L’amélioration des performances pour CommPath constitue une priorité élevée pour l’amélioration du nombre de champs pouvant être extraits, ainsi que pour la vitesse d’inférence du modèle.
  • Fournit des confiances d'occurrence spécifiques par rapport au Preview LLM.​ Pour plus de détails, consultez Automatisation avec l’extraction générative.

Aperçu LLM​

  • Utilise le modèle Azure OpenAI GPT comme LLM sous-jacent.
  • UiPath® ne peut pas garantir un temps de disponibilité, car cela dépend entièrement des points de terminaison Azure OpenAI. Si les points de terminaison sont bas ou surchargés, UiPath ne peut garantir la disponibilité.
  • Vous pouvez extraire plus de 30 champs par message.
  • Plus de latence par rapport à CommPath LLM.
  • Limité à l'apprentissage en contexte.
    Remarque : lorsque vous utilisez l'apprentissage en contexte, la plate-forme ne peut apprendre qu'à partir de ce que vous lui avez demandé. Communications Mining™ peut affiner automatiquement l'invite dans une certaine mesure, mais le modèle n'apprend à partir d'aucune validation générée par l'utilisateur.

Utilisez les paramètres illustrés dans les images suivantes pour sélectionner le LLM que vous souhaitez utiliser pour l’extraction générative.

CommPath LLM est activé par défaut. Pour activer l' Preview LLM, assurez-vous d'activer Utiliser les fonctionnalités d'IA générative et Utiliser le modèle d'extraction génératif d'aperçu.



Si l'option Utiliser le modèle d'extraction générative de l'aperçu est désactivée, cela signifie que vous utilisez le CommPath LLM.

Lorsque les options Utiliser les fonctionnalités d’IA générative et Utiliser le modèle d’extraction générative de l’aperçu sont activées, la plate-forme utilise le point de terminaison UiPath Azure OpenAI dans le processus d’extraction.

Approche recommandée

  1. Commencez à entraîner vos extractions avec CommPath LLM.
  2. Si les extractions sont correctement extraites, continuez à entraîner les extractions à l’aide du CommPath LLM. Si ce n’est pas le cas, en raison du nombre élevé de champs ou de tables volumineuses dans chaque message, passez à l’ Preview LLM. ​

    Pour déterminer si vos extractions sont correctes, vérifiez les statistiques de validation dans l'onglet Extraction générative ( Generative Extraction ), sur la page Validation . Si la précision et le rappel des extractions sont appropriés pour votre cas d'utilisation, continuez à utiliser le LLM CommPath.

    Si des points de données ne sont pas extraits comme prévu avec CommPath LLM:

    1. Épinglez la version actuelle du modèle en accédant aux modèles et sélectionnez épingler la version du modèle la plus récente.
    2. Contactez votre représentant UiPath® en notant la version du modèle pour laquelle les extractions n’ont pas bien fonctionné. Votre représentant UiPath travaille directement avec l’équipe produit Communications Mining™ pour rechercher et mettre en œuvre des améliorations.​
  3. Si vous utilisez l' Aperçu LLM ( Preview LLM), continuez à entraîner votre modèle de la même manière que vous avez entraîné le LLM CommPath. Parcourez-le et fournissez des exemples corrects pour chacune de vos extractions.
Remarque : lorsque vous sélectionnez le modèle Aperçu, seul ce modèle sera entraîné pour l’extraction générative, sans entraîner simultanément un modèle CommPath. Cela se traduit par un entraînement et une validation plus rapides pour les utilisateurs du modèle Preview. Si vous passez à CommPath, les prédictions continueront d’être fournies par le Preview LLM jusqu’à ce qu’une version de modèle CommPath ait été entraînée, et vice versa.

  • CommPath LLM
  • Aperçu LLM​
  • Approche recommandée

Cette page vous a-t-elle été utile ?

Obtenez l'aide dont vous avez besoin
Formation RPA - Cours d'automatisation
Forum de la communauté UiPath
Uipath Logo
Confiance et sécurité
© 2005-2025 UiPath Tous droits réservés.