- Introducción
- Configuración de su cuenta
- Equilibrio
- Clústeres
- Deriva del concepto
- Cobertura
- Conjuntos de datos
- Campos generales
- Etiquetas (predicciones, niveles de confianza, jerarquía de etiquetas y sentimiento de etiqueta)
- Modelos
- Transmisiones
- Clasificación del modelo
- Proyectos
- Precisión
- Recordar
- Mensajes anotados y no anotados
- Campos extraídos
- Fuentes
- Taxonomías
- Formación
- Predicciones positivas y negativas verdaderas y falsas
- Validación
- Mensajes
- Control y administración de acceso
- Gestionar fuentes y conjuntos de datos
- Comprender la estructura de datos y los permisos
- Crear o eliminar un origen de datos en la GUI
- Cargar un archivo CSV en un origen
- Preparando datos para cargar archivos .CSV
- Crear un conjunto de datos
- Fuentes y conjuntos de datos multilingües
- Habilitar sentimiento en un conjunto de datos
- Modificar la configuración del conjunto de datos
- Eliminar un mensaje
- Eliminar un conjunto de datos
- Exportar un conjunto de datos
- Utilizar integraciones de Exchange
- Entrenamiento y mantenimiento de modelos
- Comprender las etiquetas, los campos generales y los metadatos
- Jerarquía de etiquetas y mejores prácticas
- Comparar casos de uso de análisis y automatización
- Convertir tus objetivos en etiquetas
- Descripción general del proceso de entrenamiento del modelo
- Anotación generativa
- Estado de Dastaset
- Entrenamiento de modelos y mejores prácticas de anotación
- Entrenamiento con análisis de sentimiento de etiqueta habilitado
- Chat de entrenamiento y datos de llamadas
- Comprender los requisitos de datos
- Entrenamiento
- Introducción a Refinar
- Explicación de la precisión y la recuperación
- Precisión y recuperación
- Cómo funciona la validación
- Comprender y mejorar el rendimiento del modelo
- Razones para etiquetar una precisión media baja
- Entrenamiento utilizando la etiqueta Comprobar y la etiqueta Perdida
- Entrenamiento mediante la etiqueta de aprendizaje (refinar)
- Entrenamiento mediante Buscar (Refinar)
- Comprender y aumentar la cobertura
- Mejorar el equilibrio y utilizar Reequilibrar
- Cuándo dejar de entrenar tu modelo
- Uso de campos generales
- Extracción generativa
- Uso de análisis y supervisión
- Automations and Communications Mining™
- Desarrollador
- Uso de la API
- Tutorial de la API
- Fuentes
- Conjuntos de datos
- Comentarios
- Archivos adjuntos
- Predictions
- Crear una transmisión
- Actualizar una transmisión
- Obtener una transmisión por nombre
- Obtener todas las transmisiones
- Eliminar una transmisión
- Obtener resultados de la transmisión
- Obtener comentarios de una transmisión (heredado)
- Avanzar una transmisión
- Restablecer una transmisión
- Etiquetar una excepción
- Desetiquetar una excepción
- Eventos de auditoría
- Obtener todos los usuarios
- Cargar datos
- Descargando datos
- Integración de Exchange con el usuario del servicio de Azure
- Integración de Exchange con la autenticación de aplicaciones de Azure
- Integración de Exchange con Azure Application Authentication y Graph
- Obtener datos para Tableau con Python
- Integración de Elasticsearch
- Extracción de campos general
- Integración de Exchange autohospedado
- Marco de automatización de UiPath®
- Actividades oficiales de UiPath®
- Cómo aprenden las máquinas a entender palabras: una guía para las incrustaciones en PNL
- Aprendizaje basado en solicitudes con Transformers
- Efficient Transformers II: destilación de conocimientos y ajuste
- Transformadores eficientes I: mecanismos de atención
- Modelado de intenciones jerárquico profundo no supervisado: obtener valor sin datos de entrenamiento
- Corregir el sesgo de anotación con Communications Mining™
- Aprendizaje activo: mejores modelos ML en menos tiempo
- Todo está en los números: evaluar el rendimiento del modelo con métricas
- Por qué es importante la validación del modelo
- Comparación de Communications Mining™ y Google AutoML para la inteligencia de datos conversacional
- Licencia
- Preguntas frecuentes y más

Guía del usuario de Communications Mining
Introducción
El uso de los modos de entrenamiento Comprobar etiqueta y Etiqueta perdida es la parte de la fase Refinar en la que se intenta identificar cualquier incoherencia o etiquetas perdidas en los mensajes que ya se han revisado. Esto es diferente al paso Enseñar etiqueta , que se centra en los mensajes no revisados que tienen predicciones realizadas por la plataforma, en lugar de etiquetas asignadas.
Comprobar etiqueta muestra los mensajes en los que la plataforma cree que la etiqueta seleccionada puede haberse aplicado incorrectamente, es decir, que potencialmente no debería haberse aplicado.
Etiqueta perdida muestra los mensajes en los que la plataforma cree que puede faltar la etiqueta seleccionada, es decir, que potencialmente debería haberse aplicado pero no se aplicó. En este caso, la etiqueta seleccionada normalmente aparecerá como una sugerencia, como se muestra en la siguiente imagen.
Las sugerencias de la plataforma en cualquiera de los modos no son necesariamente correctas, estos son solo los casos en los que la plataforma no está segura en función del entrenamiento que se ha completado hasta el momento. Puedes optar por ignorarlas si no estás de acuerdo con las sugerencias de la plataforma después de revisarlas.
El uso de estos modos de entrenamiento es una forma muy eficaz de encontrar ocurrencias en las que el usuario puede no haber sido coherente al aplicar etiquetas. Al utilizarlos, puede corregir estas ocasiones y, por lo tanto, mejorar el rendimiento de la etiqueta.
Cuándo utilizar Comprobar etiqueta y Etiqueta perdida
The simplest answer of when to use either training mode is when they are one of the recommended actions in the Model Rating section or specific label view in the Validation page. For more details, check Understanding and improving model performance.
Como regla general, cualquier etiqueta que tenga un número significativo de ejemplos anclados pero que tenga una precisión media baja, lo que puede indicarse mediante advertencias de etiqueta roja en la página Validación o en las barras de filtro de etiquetas, probablemente se beneficiará de algún entrenamiento correctivo en Comprobar etiqueta y modo de etiqueta perdida .
Al validar el rendimiento de un modelo, la plataforma determinará si cree que una etiqueta se ha aplicado de forma incorrecta a menudo, o si cree que se ha pasado por alto con regularidad, y priorizará la acción correctiva que considere más beneficiosa para mejorar el rendimiento de una etiqueta.
Missed label is also a very useful tool if you have added a new label to an existing taxonomy with lots of reviewed examples. Once you've provided some initial examples for the new label concept, Missed label can quickly help you identify any examples in the previously reviewed messages where it should also apply. For more details, check Adding new labels to existing taxonomies.
Uso de Comprobar etiqueta y Etiqueta perdida
Para llegar a cualquiera de estos modos de entrenamiento, existen las siguientes opciones principales:
-
If it is a recommended action in Validation for a label, the action card acts as a link that takes you directly to that training mode for the selected label.
- Como alternativa, puedes seleccionar cualquier modo de entrenamiento en el menú desplegable de la parte superior de la página en Explorar y, a continuación, seleccionar una etiqueta por la que ordenar. Puedes encontrar un ejemplo en la imagen anterior.
En cada modo, la plataforma te mostrará hasta 20 ejemplos por página de mensajes revisados en los que cree que la etiqueta seleccionada puede haberse aplicado incorrectamente, Comprobar etiqueta, o puede faltar la etiqueta seleccionada, Etiqueta perdida.
Comprobar etiqueta
Etiqueta perdida
En Etiqueta perdida, revisa cada uno de los ejemplos de la página para ver si la etiqueta seleccionada se ha perdido. Si es así, selecciona la sugerencia de etiqueta, como se muestra en la imagen anterior, para aplicar la etiqueta. Si no es así, ignora la sugerencia y continúa.
El hecho de que la plataforma sugiera una etiqueta en un mensaje revisado no significa que el modelo lo considere una predicción, ni contará para ninguna estadística sobre el número de etiquetas en un conjunto de datos. Si una sugerencia es incorrecta, puedes ignorarla.
Por lo tanto, añadir etiquetas que se han perdido puede tener un gran impacto en el rendimiento de una etiqueta, al garantizar que el modelo tenga ejemplos correctos y coherentes a partir de los cuales hacer predicciones para esa etiqueta.