- Démarrage
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- General fields (previously Entities)
- Libellés (prédictions, niveaux de confiance, hiérarchie, etc.)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages examinés et non examinés
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Administration
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Créer une source de données dans l'interface graphique
- Téléchargement d’un fichier CSV dans une source
- Créer un nouveau jeu de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modifier les paramètres d’un jeu de données
- Supprimer des messages via l'interface utilisateur
- Supprimer un jeu de données
- Exporter un jeu de données
- Utilisation des intégrations Exchange
- Préparation des données en vue du téléchargement du fichier .CSV
- Entraînement et maintenance du modèle
- Understanding labels, general fields and metadata
- Hiérarchie des libellés et bonnes pratiques
- Définition de vos objectifs de taxonomie
- Cas d'utilisation d'analyse vs d'automatisation
- Transformer vos objectifs en libellés
- Construire votre structure de taxonomie
- Meilleures pratiques de conception de taxonomie
- Importation de votre taxonomie
- Présentation du processus d'entraînement du modèle
- Annotation générative (New)
- Comprendre le statut de votre jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Réduction et réorganisation de votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation ?
- Comprendre et améliorer les performances du modèle
- Pourquoi un libellé peut-il avoir une précision moyenne faible ?
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Defining and setting up your general fields
- Understanding general fields
- Which pre-trained general fields are available?
- Enabling, disabling, updating and creating general fields
- General field filtering
- Reviewing and applying general fields
- Validation for general fields
- Improving general field performance
- Building custom regex general fields
- Extraction générative
- Utilisation des analyses et de la surveillance
- Vue d'ensemble (Overview)
- Utilisation des rapports
- Filtrage des rapports
- Autopilot for Communications Mining - Conversational filters (Preview)
- Surveillance
- Automatisations et Communications Mining
- FAQ et plus encore
![](https://docs.uipath.com/_next/static/media/grid.05ebd128.png?w=3840&q=100)
AperçuAutopilot for Communications Mining - Conversational filters (Preview)
Conversational filtering is an Autopilot for Communications Mining feature that helps you get to the answers you need more quickly.
It turns natural language queries into the set of filters required to answer them. If you are unsure which filters you need to answer a question, or how to apply them correctly, it does the hard work for you. This helps you get the best out of the analytics in Communications Mining, with minimal experience.
Conversational filters are available to all users who have the Use generative AI features toggle enabled in the dataset settings. The toggle is typically enabled at dataset creation.
To use conversational filters, follow these steps:
- Type in a query, such as show me transactional messages, and hit Enter.
- Wait for Communications Mining to understand the query, map it to the correct set of filters, and apply them for you.
- The filter outputs a response. The response confirms how many filters were identified in the message, and how many were successfully applied. This helps identify if a query was partially successful, and allow you to edit the query if needed, or manually apply any remaining filters.
If a request was partially successful, one of the values in the query was probably unidentifiable and may not be present in the dataset.
If you need to edit the query to refine it, adjust the wording, then hit Enter again. It automatically clears the currently applied filters, and then applies the set of filters identified in the query.
Conversational filters only switch from Message view to Threads view whilst in Reports. Threads view is not available in Explore, as messages are already shown in the context of their thread.
Exemples :
From a specific time period
- Show me messages from [insert time period]
From a specific sender or sender domain
- Show me messages from [insert email / email domain]
- Whilst in Reports, you can make it switch from Messages view to Threads view by adding show me threads or show me conversations to your query.
- Similarly, to return to the Messages view, add show me messages or show me emails.
Opportunity discovery
- Show me transactional messages - these have short thread lengths (2-4 messages), and can be prime candidates for automation.
- Show me requests containing documents accepted by Document Understanding - these can be candidates for processing with Document Understanding downstream.
- Show me messages showing very poor [or very bad] service levels – if you have Quality of Service enabled and configured, this helps identify problematic messages and labels.
If the filter fails to recognize the request, or the request times out, an error message is displayed.
If a request was unsuccessful, the values in the query were probably unidentifiable and may not be present in the dataset.
Edit the query, check for typos or errors, and try again.