- Introducción
- Configuración de su cuenta
- Equilibrio
- Clústeres
- Deriva del concepto
- Cobertura
- Conjuntos de datos
- Campos generales
- Etiquetas (predicciones, niveles de confianza, jerarquía de etiquetas y sentimiento de etiqueta)
- Modelos
- Transmisiones
- Clasificación del modelo
- Proyectos
- Precisión
- Recordar
- Mensajes anotados y no anotados
- Campos extraídos
- Fuentes
- Taxonomías
- Formación
- Predicciones positivas y negativas verdaderas y falsas
- Validación
- Mensajes
- Control y administración de acceso
- Gestionar fuentes y conjuntos de datos
- Comprender la estructura de datos y los permisos
- Crear o eliminar un origen de datos en la GUI
- Cargar un archivo CSV en un origen
- Preparando datos para cargar archivos .CSV
- Crear un conjunto de datos
- Fuentes y conjuntos de datos multilingües
- Habilitar sentimiento en un conjunto de datos
- Modificar la configuración del conjunto de datos
- Eliminar un mensaje
- Eliminar un conjunto de datos
- Exportar un conjunto de datos
- Utilizar integraciones de Exchange
- Entrenamiento y mantenimiento de modelos
- Comprender las etiquetas, los campos generales y los metadatos
- Jerarquía de etiquetas y mejores prácticas
- Comparar casos de uso de análisis y automatización
- Convertir tus objetivos en etiquetas
- Descripción general del proceso de entrenamiento del modelo
- Anotación generativa
- Estado de Dastaset
- Entrenamiento de modelos y mejores prácticas de anotación
- Entrenamiento con análisis de sentimiento de etiqueta habilitado
- Chat de entrenamiento y datos de llamadas
- Comprender los requisitos de datos
- Entrenamiento
- Introducción a Refinar
- Explicación de la precisión y la recuperación
- Precisión y recuperación
- Cómo funciona la validación
- Comprender y mejorar el rendimiento del modelo
- Razones para etiquetar una precisión media baja
- Entrenamiento utilizando la etiqueta Comprobar y la etiqueta Perdida
- Entrenamiento mediante la etiqueta de aprendizaje (refinar)
- Entrenamiento mediante Buscar (Refinar)
- Comprender y aumentar la cobertura
- Mejorar el equilibrio y utilizar Reequilibrar
- Cuándo dejar de entrenar tu modelo
- Uso de campos generales
- Extracción generativa
- Uso de análisis y supervisión
- Automations and Communications Mining™
- Desarrollador
- Uso de la API
- Tutorial de la API
- Fuentes
- Conjuntos de datos
- Comentarios
- Archivos adjuntos
- Predictions
- Crear una transmisión
- Actualizar una transmisión
- Obtener una transmisión por nombre
- Obtener todas las transmisiones
- Eliminar una transmisión
- Obtener resultados de la transmisión
- Obtener comentarios de una transmisión (heredado)
- Avanzar una transmisión
- Restablecer una transmisión
- Etiquetar una excepción
- Desetiquetar una excepción
- Eventos de auditoría
- Obtener todos los usuarios
- Cargar datos
- Descargando datos
- Integración de Exchange con la autenticación de aplicaciones de Azure
- Integración de Exchange con Azure Application Authentication y Graph
- Obtener datos para Tableau con Python
- Integración de Elasticsearch
- Integración de Exchange autohospedado
- Marco de automatización de UiPath®
- Actividades de UiPath® Marketplace
- Actividades oficiales de UiPath®
- Cómo aprenden las máquinas a entender palabras: una guía para las incrustaciones en PNL
- Aprendizaje basado en solicitudes con Transformers
- Efficient Transformers II: destilación de conocimientos y ajuste
- Transformadores eficientes I: mecanismos de atención
- Modelado de intenciones jerárquico profundo no supervisado: obtener valor sin datos de entrenamiento
- Corregir el sesgo de anotación con Communications Mining™
- Aprendizaje activo: mejores modelos ML en menos tiempo
- Todo está en los números: evaluar el rendimiento del modelo con métricas
- Por qué es importante la validación del modelo
- Comparación de Communications Mining™ y Google AutoML para la inteligencia de datos conversacional
- Licencia
- Preguntas frecuentes y más

Guía del usuario de Communications Mining
La página Explorar tiene varios modos de entrenamiento, y esta fase se centra principalmente en tres de ellos:
- Shuffle - Shows a random selection of messages for users to annotate. Make sure you complete a significant chunk of training in Shuffle, in order to create a training set of examples that is representative of the wider dataset.
- Teach - Used for for unreviewed messages. As soon as the platform makes some reasonable predictions for a label, you can improve the ability of predicting the label for more varied examples by reviewing messages in the default Teach mode, which is for unreviewed messages. This will show you messages where the platform is unsure whether the selected label applies or not.
- Low Confidence - Shows you messages that are not well covered by informative label predictions. These messages will have either no predictions or very low confidence predictions for labels that the platform understands to be informative.
This section will also cover training using Search in Explore, similar to training using Search in Discover.
Teach, for reviewed messages, is another training mode in Explore. For more details, check Refining models and using Validation.
The layout from the previously shown image is explained in the following table:
1 | Adjust the date range or period of messages shown. |
2 | Add various other filters based on the metadata of the messages, e.g. score or sender. |
3 | Add a general field filter. |
4 | Toggle from all messages to either reviewed or unreviewed messages, also adjusts pinned vs predicted label counts. |
5 | Add a label filter. |
6 | Search for specific labels within your taxonomy. |
7 | Add additional labels. |
8 | Expand message's metadata. |
9 | Refresh the current query. |
10 | Switch between different training modes such as recent, shuffle, teach and low confidence, and select label to sort by. |
11 | Search the dataset for messages containing specific words or phrases. |
12 | Download all of the messages on this page or export the dataset with applied filters as a CSV file. |
El número de ejemplos necesarios para predecir con precisión cada etiqueta puede variar mucho en función de la amplitud o la especificidad de un concepto de etiqueta.
Puede ser que una etiqueta se asocie normalmente con palabras, frases o intenciones muy específicas y fácilmente identificables, y la plataforma sea capaz de predecirla de forma coherente con relativamente pocos ejemplos de entrenamiento. También podría ocurrir que una etiqueta capture un tema amplio con muchas variaciones diferentes de lenguaje que se le asocien, en cuyo caso podría requerir muchos más ejemplos de entrenamiento para permitir que la plataforma identifique de forma coherente las instancias en las que debería aplicarse la etiqueta.
The platform can often start making predictions for a label with as little as five examples, though in order to accurately estimate the performance of a label, that is, how well the platform is able to predict it, each label requires at least 25 examples.
When annotating in Explore, the little red dials next to each label indicate whether more examples are needed to accurately estimate the performance of the label. The dial starts to disappear as you provide more training examples and will disappear completely once you reach 25.
This does not mean that with 25 examples the platform will be able to accurately predict every label, but it will at least be able to validate how well it can predict each label and alert you if additional training is required.
During the Explore phase, make sure that you have provided at least 25 examples for all of the labels that you are interested in, using a combination of the steps mentioned previously, that is, mostly Shuffle, and Teach and Unreviewed.
During the Refine phase it may become clear that more training is required for certain labels to improve their performance. For more details, check Refining models and using Validation.
In Explore, once you reach 25 pinned examples for a label, you may notice one of the following label performance indicators in place of the training dial:
- Grey is an indicator that the platform is calculating the performance of that label. This means that it will update to either disappear, or an amber or red circle once calculated.
- Amber is an indicator that the label has slightly less than satisfactory performance and could be improved.
- Red is an indicator that the label is performing poorly and needs additional training or corrective actions to improve it.
- If there is no circle, the label is performing at a satisfactory level, though it may still need improving depending on the use case and desired accuracy levels.
- To understand more about label performance and how to improve it, check Understanding and improving model performance.
If you select the tick icon, as shown in the following images, at the top of the label filter bar to filter to reviewed messages, you will be shown the number of reviewed messages that have that label applied.
If you select the computer icon to filter to unreviewed messages, you will be shown the total number of predictions for that label, which includes the number of reviewed examples too.
En Explorar, cuando no se selecciona ni revisado ni sin revisar, la plataforma muestra el número total de mensajes anclados para una etiqueta de forma predeterminada. En Informes, el valor predeterminado es mostrar el total previsto.
- The model can make predictions with only a few annotated messages, though for it to make reliable predictions, you should annotate at a minimum of 25 messages per label. Some will require more than this, it will depend on the complexity of the data, the label and the consistency with which the labels have been applied
- In Explore, you should also try and find messages where the model has predicted a label incorrectly. You should remove incorrect labels and apply correct ones. This process helps to prevent the model from making a similar incorrect prediction in future