- Démarrage
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- Champs généraux (anciennement entités)
- Libellés (prédictions, niveaux de confiance, hiérarchie, etc.)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages examinés et non examinés
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Administration
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Créer ou supprimer une source de données dans le graphique
- Téléchargement d’un fichier CSV dans une source
- Préparation des données en vue du téléchargement du fichier .CSV
- Créer un nouveau jeu de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modifier les paramètres d’un jeu de données
- Supprimer des messages via l'interface utilisateur
- Supprimer un jeu de données
- Exporter un jeu de données
- Utilisation des intégrations Exchange
- Entraînement et maintenance du modèle
- Comprendre les libellés, les champs généraux et les métadonnées
- Hiérarchie des libellés et bonnes pratiques
- Définition de vos objectifs de taxonomie
- Cas d'utilisation d'analyse vs d'automatisation
- Transformer vos objectifs en libellés
- Construire votre structure de taxonomie
- Meilleures pratiques de conception de taxonomie
- Importation de votre taxonomie
- Présentation du processus d'entraînement du modèle
- Annotation générative (New)
- Statut du jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Comprendre les exigences de données
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Réduction et réorganisation de votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation ?
- Comprendre et améliorer les performances du modèle
- Pourquoi un libellé peut-il avoir une précision moyenne faible ?
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Utilisation de champs généraux
- Extraction générative
- Utilisation des analyses et de la surveillance
- Automatisations et Communications Mining
- Informations de licence
- FAQ et plus encore
Guide de l'utilisateur de Communications Mining
CommPath LLM vs Preview LLM
- CommPath LLM
- Aperçu de LLM
Vous trouverez ci-dessous un aperçu de certaines des considérations à prendre en compte lors du choix d'une LLM à utiliser. Si votre cas d'utilisation nécessite l'extraction de plus de 30 champs par message, nous vous recommandons actuellement d'utiliser l' Aperçu LLM (Preview LLM).
- Utilise le LLM propriétaire d’UiPath®, affiné pour les données de communications.
- Actuellement limité à l'extraction d'env. 30 champs par message.
- Moins de latence que le LLM d'aperçu.
- Peut être affiné en fonction de vos données.
- L'amélioration des performances de CommPath, à la fois en termes de nombre de champs pouvant être extraits et de vitesse d'inférence du modèle, constitue une priorité élevée.
- Fournit des confiances d'occurrence spécifiques (consultez la section Automatisation avec GenEx pour plus de détails) par rapport à Aperçu LLM.
- Utilise le modèle GPT d’Azure OpenAI comme LLM sous-jacent.
- UiPath® ne peut pas garantir la disponibilité, car cela dépend entièrement des points de terminaison Azure OpenAI. Si les points de terminaison sont en panne ou surchargés, UiPath® ne peut pas garantir la disponibilité.
- Vous pouvez extraire plus de 30 champs par message.
- Une latence plus élevée par rapport à CommPath LLM.
- Limité à l'apprentissage en contexte.
Remarque : Lorsque vous utilisez l'apprentissage en contexte, la plate-forme ne peut apprendre qu'à partir de ce que vous lui invitez. Communications Mining peut affiner automatiquement l'invite dans une certaine mesure, mais le modèle n'apprend à partir d'aucune validation générée par l'utilisateur.
Utilisez les paramètres illustrés ci-dessous pour sélectionner le LLM que vous souhaitez utiliser pour l' Extraction générative.
CommPath LLM est activé par défaut. Pour activer l' Aperçu LLM ( Preview LLM), les bascules de l'image suivante sont requises.
Si le bouton Utiliser le modèle d' extraction générative (Use preview Generative Extraction model) est désactivé, cela signifie que vous utilisez CommPath LLM.
Lorsque les options Utiliser les fonctionnalités d’IA génératives ( Use generative AI features ) et Utiliser le modèle d’extraction génératif d’ aperçu (Use preview Generative Extraction model) activées, la plate-forme utilise le point de terminaison UiPath® Azure OpenAI dans le processus d’extraction.
- Commencez à entraîner vos extractions avec CommPath LLM.
- Si les extractions sont extraites correctement, continuez à entraîner les extractions à l'aide de CommPath LLM. Sinon, en raison du nombre élevé de champs ou des tables volumineuses dans chaque message, passez à l' Aperçu LLM ( Preview LLM).
Pour déterminer si vos extractions sont correctes, vérifiez les statistiques de validation dans l'onglet Extraction générative ( Generative Extraction ), sur la page Validation . Si la précision et le rappel des extractions sont appropriés pour votre cas d'utilisation, continuez à utiliser le LLM CommPath.
Si des points de données ne sont pas extraits comme prévu avec CommPath LLM:
- Épinglez la version actuelle du modèle en accédant aux modèles et sélectionnez épingler sur la version de modèle la plus récente.
- Contactez votre représentant UiPath®, en notant la version du modèle sur laquelle les extractions ne fonctionnaient pas bien. Votre représentant UiPath® travaillera directement avec l’équipe produit Communications Mining pour rechercher et mettre en œuvre des améliorations.
- Si vous utilisez l' Aperçu LLM ( Preview LLM), continuez à entraîner votre modèle de la même manière que vous avez entraîné le LLM CommPath. Parcourez-le et fournissez des exemples corrects pour chacune de vos extractions.