- Démarrage
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- General fields (previously Entities)
- Libellés (prédictions, niveaux de confiance, hiérarchie, etc.)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages examinés et non examinés
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Administration
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Créer une source de données dans l'interface graphique
- Téléchargement d’un fichier CSV dans une source
- Créer un nouveau jeu de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modifier les paramètres d’un jeu de données
- Supprimer des messages via l'interface utilisateur
- Supprimer un jeu de données
- Exporter un jeu de données
- Utilisation des intégrations Exchange
- Préparation des données en vue du téléchargement du fichier .CSV
- Entraînement et maintenance du modèle
- Understanding labels, general fields and metadata
- Hiérarchie des libellés et bonnes pratiques
- Définition de vos objectifs de taxonomie
- Cas d'utilisation d'analyse vs d'automatisation
- Transformer vos objectifs en libellés
- Construire votre structure de taxonomie
- Meilleures pratiques de conception de taxonomie
- Importation de votre taxonomie
- Présentation du processus d'entraînement du modèle
- Annotation générative (New)
- Comprendre le statut de votre jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Réduction et réorganisation de votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation ?
- Comprendre et améliorer les performances du modèle
- Pourquoi un libellé peut-il avoir une précision moyenne faible ?
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Defining and setting up your general fields
- Understanding general fields
- Which pre-trained general fields are available?
- Enabling, disabling, updating and creating general fields
- General field filtering
- Reviewing and applying general fields
- Validation for general fields
- Improving general field performance
- Building custom regex general fields
- Extraction générative
- Utilisation des analyses et de la surveillance
- Automatisations et Communications Mining
- FAQ et plus encore
![](https://docs.uipath.com/_next/static/media/grid.05ebd128.png?w=3840&q=100)
CommPath LLM vs Preview LLM
- CommPath LLM
- Preview LLM
Below is an outline of some of the considerations when deciding on an LLM to use. If your use case requires extracting more than 30 fields per message, we currently recommend using the Preview LLM.
- Leverages UiPath’s proprietary LLM, fine-tuned for Communications data.
- Currently limited to extracting approx. 30 fields per message.
- Less latency than the Preview LLM.
- Can be fine-tuned based on your data.
- Improving performance for CommPath, both in terms of the number of fields which can be extracted and the inference speed for the model is a high priority for 2024.
- Higher occurrence confidences (check the Automating with GenEx section for more details) compared to the Preview LLM.
- Leverages Azure OpenAI’s GPT model as the underlying LLM.
- UiPath cannot guarantee uptime, as this is entirely dependent on the Azure OpenAI endpoints. If the endpoints are down or overloaded, UiPath cannot guarantee availability.
- You can extract more than 30 fields per message.
- Higher amount of latency compared to CommPath LLM.
- Limited to in-context learning.
Note: When using in-context learning, the platform can only learn from what you prompt it with. Communications Mining can automatically refine the prompt to an extent, but the model doesn't learn from any user-led validation.
Use the settings illustrated below, to select which LLM you want to use for the Generative Extraction.
CommPath LLM is enabled by default. To enable the Preview LLM, the toggles from the following image are required.
If the Use preview Generative Extraction model toggle is turned off, it means that you are using the CommPath LLM.
Having the Use generative AI features and Use preview Generative Extraction model toggles turned on means the platform uses the UiPath Azure OpenAI endpoint in the extraction process.
- Start training your extractions with the CommPath LLM.
- If the extractions extract correctly, continue to train the extractions using the CommPath LLM. If not, due to high number of fields or large tables in each message, switch to the Preview LLM.
To determine if your extractions predict correctly, check the validation statistics in the Generative Extraction tab, on the Validation page. If the precision and recall of the extractions are appropriate for your use case, continue to use the CommPath LLM.
If any data points don't extract as expected with the CommPath LLM:
- Pin the current model version by going to models and select pin on the most recent model version.
- Reach out to your UiPath Representative, making note of the model version where the extractions were not performing well on. Your UiPath Representative will work directly with the Communications Mining product team to investigate and implement improvements.
- If you use the Preview LLM, continue to train your model the same way you trained the CommPath LLM. Go through it, and provide correct examples for each of your extractions.