- Introduction
- Configuration de votre compte
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- Champs généraux
- Libellés (prédictions, niveaux de confiance, hiérarchie des libellés et sentiment des libellés)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages annotés et non annotés
- Extraction des champs
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Contrôle et administration de l'accès
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Créer ou supprimer une source de données dans l'interface graphique
- Téléchargement d’un fichier CSV dans une source
- Préparation des données en vue du téléchargement du fichier .CSV
- Création d'un ensemble de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modification des paramètres du jeu de données
- Supprimer un message
- Supprimer un jeu de données
- Exporter un ensemble de données
- Utilisation d'intégrations Exchange
- Entraînement et maintenance du modèle
- Comprendre les libellés, les champs généraux et les métadonnées
- Hiérarchie de libellés et meilleures pratiques
- Comparer les cas d’utilisation des analyses et des automatisations
- Transformer vos objectifs en libellés
- Présentation du processus d'entraînement du modèle
- Annotation générative
- Statut du jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Entraînement des données de chat et d'appels
- Comprendre les exigences de données
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Affiner et réorganiser votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation
- Comprendre et améliorer les performances du modèle
- Raisons de la faible précision moyenne des libellés
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Utilisation de champs généraux
- Extraction générative
- Vue d'ensemble (Overview)
- Comparaison des LLM CommPath et Preview
- Configurer des champs
- Filtrage par type de champ d’extraction
- Génération de vos extractions
- Validation et annotation des extractions générées
- Meilleures pratiques et considérations
- Comprendre la validation des extractions et des performances d'extraction
- Questions fréquemment posées (FAQ)
- Utilisation des analyses et de la surveillance
- Automations et Communications Mining™
- Développeur
- Charger des données
- Téléchargement de données
- Intégration avec l'utilisateur du service Azure
- Intégration avec l'authentification d'application Azure
- Intégration d’Exchange avec l’authentification et le graphique d’application Azure
- Récupérer des données pour Tableau avec Python
- Intégration d'Elasticsearch
- Extraction de champ général
- Intégration avec Exchange auto-hébergée
- Infrastructure d’automatisation UiPath®
- Activités officielles UiPath®
- Comment les machines apprennent à comprendre les mots : guide d'intégration dans NLP
- Apprentissage basé sur des invites avec des Transformers
- Efficient Transformers II : Dilarisation des connaissances et affinement
- Transformateurs efficaces I : mécanismes d'attention
- Modélisation de l'intention hiérarchique profonde non supervisée : obtenir de la valeur sans données d'entraînement
- Correction des biais d’annotation avec Communications Mining™
- Apprentissage actif : de meilleurs modèles d'ML en moins de temps
- Tout est dans les chiffres : évaluer les performances du modèle avec des métriques
- Pourquoi la validation du modèle est importante
- Comparaison de Communications Mining™ et de Google AutoML pour l’information sur des données conversationnelles
- Licences
- FAQ et plus encore

Guide de l’utilisateur de Communications Mining
- CommPath LLM
- Aperçu de LLM
Les sections suivantes résument certains des éléments à prendre en compte lors du choix d'un LLM à utiliser. Si votre cas d'utilisation nécessite l'extraction de plus de 30 champs par message, il est recommandé d'utiliser l' Preview LLM.
- Exploite le LLM propriétaire d’UiPath®, optimisé pour les données de communication.
- Limité à l'extraction d'environ 30 champs par message.
- Moins de latence que le Preview LLM.
- Vous pouvez l’affiner en fonction de vos données.
- L’amélioration des performances pour CommPath constitue une priorité élevée pour l’amélioration du nombre de champs pouvant être extraits, ainsi que pour la vitesse d’inférence du modèle.
- Fournit des confiances d'occurrence spécifiques par rapport au Preview LLM. Pour plus de détails, consultez Automatisation avec l’extraction générative.
- Utilise le modèle Azure OpenAI GPT comme LLM sous-jacent.
- UiPath® ne peut pas garantir un temps de disponibilité, car cela dépend entièrement des points de terminaison Azure OpenAI. Si les points de terminaison sont bas ou surchargés, UiPath ne peut garantir la disponibilité.
- Vous pouvez extraire plus de 30 champs par message.
- Plus de latence par rapport à CommPath LLM.
- Limité à l'apprentissage en contexte.
Remarque : lorsque vous utilisez l'apprentissage en contexte, la plate-forme ne peut apprendre qu'à partir de ce que vous lui avez demandé. Communications Mining™ peut affiner automatiquement l'invite dans une certaine mesure, mais le modèle n'apprend à partir d'aucune validation générée par l'utilisateur.
Utilisez les paramètres illustrés dans les images suivantes pour sélectionner le LLM que vous souhaitez utiliser pour l’extraction générative.
CommPath LLM est activé par défaut. Pour activer l' Preview LLM, assurez-vous d'activer Utiliser les fonctionnalités d'IA générative et Utiliser le modèle d'extraction génératif d'aperçu.
Si l'option Utiliser le modèle d'extraction générative de l'aperçu est désactivée, cela signifie que vous utilisez le CommPath LLM.
Lorsque les options Utiliser les fonctionnalités d’IA générative et Utiliser le modèle d’extraction générative de l’aperçu sont activées, la plate-forme utilise le point de terminaison UiPath Azure OpenAI dans le processus d’extraction.
- Commencez à entraîner vos extractions avec CommPath LLM.
- Si les extractions sont correctement extraites, continuez à entraîner les extractions à l’aide du CommPath LLM. Si ce n’est pas le cas, en raison du nombre élevé de champs ou de tables volumineuses dans chaque message, passez à l’ Preview LLM.
Pour déterminer si vos extractions sont correctes, vérifiez les statistiques de validation dans l'onglet Extraction générative ( Generative Extraction ), sur la page Validation . Si la précision et le rappel des extractions sont appropriés pour votre cas d'utilisation, continuez à utiliser le LLM CommPath.
Si des points de données ne sont pas extraits comme prévu avec CommPath LLM:
- Épinglez la version actuelle du modèle en accédant aux modèles et sélectionnez épingler la version du modèle la plus récente.
- Contactez votre représentant UiPath® en notant la version du modèle pour laquelle les extractions n’ont pas bien fonctionné. Votre représentant UiPath travaille directement avec l’équipe produit Communications Mining™ pour rechercher et mettre en œuvre des améliorations.
- Si vous utilisez l' Aperçu LLM ( Preview LLM), continuez à entraîner votre modèle de la même manière que vous avez entraîné le LLM CommPath. Parcourez-le et fournissez des exemples corrects pour chacune de vos extractions.