- Introducción
- Configuración de su cuenta
- Equilibrio
- Clústeres
- Deriva del concepto
- Cobertura
- Conjuntos de datos
- Campos generales
- Etiquetas (predicciones, niveles de confianza, jerarquía de etiquetas y sentimiento de etiqueta)
- Modelos
- Transmisiones
- Clasificación del modelo
- Proyectos
- Precisión
- Recordar
- Mensajes anotados y no anotados
- Campos extraídos
- Fuentes
- Taxonomías
- Formación
- Predicciones positivas y negativas verdaderas y falsas
- Validación
- Mensajes
- Control y administración de acceso
- Gestionar fuentes y conjuntos de datos
- Comprender la estructura de datos y los permisos
- Crear o eliminar un origen de datos en la GUI
- Cargar un archivo CSV en un origen
- Preparando datos para cargar archivos .CSV
- Crear un conjunto de datos
- Fuentes y conjuntos de datos multilingües
- Habilitar sentimiento en un conjunto de datos
- Modificar la configuración del conjunto de datos
- Eliminar un mensaje
- Eliminar un conjunto de datos
- Exportar un conjunto de datos
- Utilizar integraciones de Exchange
- Entrenamiento y mantenimiento de modelos
- Comprender las etiquetas, los campos generales y los metadatos
- Jerarquía de etiquetas y mejores prácticas
- Comparar casos de uso de análisis y automatización
- Convertir tus objetivos en etiquetas
- Descripción general del proceso de entrenamiento del modelo
- Anotación generativa
- Estado de Dastaset
- Entrenamiento de modelos y mejores prácticas de anotación
- Entrenamiento con análisis de sentimiento de etiqueta habilitado
- Comprender los requisitos de datos
- Entrenamiento
- Introducción a Refinar
- Explicación de la precisión y la recuperación
- Precisión y recuperación
- Cómo funciona la validación
- Comprender y mejorar el rendimiento del modelo
- Razones para etiquetar una precisión media baja
- Entrenamiento utilizando la etiqueta Comprobar y la etiqueta Perdida
- Entrenamiento mediante la etiqueta de aprendizaje (refinar)
- Entrenamiento mediante Buscar (Refinar)
- Comprender y aumentar la cobertura
- Mejorar el equilibrio y utilizar Reequilibrar
- Cuándo dejar de entrenar tu modelo
- Uso de campos generales
- Extracción generativa
- Uso de análisis y supervisión
- Automations and Communications Mining™
- Desarrollador
- Uso de la API
- Tutorial de la API
- Fuentes
- Conjuntos de datos
- Comentarios
- Archivos adjuntos
- Predictions
- Crear una transmisión
- Actualizar una transmisión
- Obtener una transmisión por nombre
- Obtener todas las transmisiones
- Eliminar una transmisión
- Obtener resultados de la transmisión
- Obtener comentarios de una transmisión (heredado)
- Avanzar una transmisión
- Restablecer una transmisión
- Etiquetar una excepción
- Desetiquetar una excepción
- Eventos de auditoría
- Obtener todos los usuarios
- Cargar datos
- Descargando datos
- Integración de Exchange con el usuario del servicio de Azure
- Integración de Exchange con la autenticación de aplicaciones de Azure
- Integración de Exchange con Azure Application Authentication y Graph
- Obtener datos para Tableau con Python
- Integración de Elasticsearch
- Extracción de campos general
- Integración de Exchange autohospedado
- Marco de automatización de UiPath®
- Actividades oficiales de UiPath®
- Cómo aprenden las máquinas a entender palabras: una guía para las incrustaciones en PNL
- Aprendizaje basado en solicitudes con Transformers
- Efficient Transformers II: destilación de conocimientos y ajuste
- Transformadores eficientes I: mecanismos de atención
- Modelado de intenciones jerárquico profundo no supervisado: obtener valor sin datos de entrenamiento
- Corregir el sesgo de anotación con Communications Mining™
- Aprendizaje activo: mejores modelos ML en menos tiempo
- Todo está en los números: evaluar el rendimiento del modelo con métricas
- Por qué es importante la validación del modelo
- Comparación de Communications Mining™ y Google AutoML para la inteligencia de datos conversacional
- Licencia
- Preguntas frecuentes y más

Guía del usuario de Communications Mining
El rendimiento general de un modelo de aprendizaje automático está determinado por una serie de factores contribuyentes, que deben considerarse en combinación entre sí. No es suficiente considerar solo si las etiquetas de un modelo tienen una precisión promedio alta, o solo observar qué parte de un conjunto de datos está cubierto por las predicciones por sí solo.
Para estar seguros de que un modelo es una representación real de un conjunto de datos, con predicciones de etiquetas precisas y fiables y una alta cobertura, evaluamos los siguientes factores principales. Para obtener más información, consulta Cómo funciona la validación.
- Todas las etiquetas : evalúa el rendimiento medio de todas las etiquetas de la taxonomía
- Etiquetas de bajo rendimiento : evalúa el rendimiento del 10 % de las etiquetas que tienen los problemas de rendimiento más significativos o el estado general más bajo
- Cobertura : evalúa la proporción de mensajes que se prevé que tengan al menos una etiqueta informativa
- Equilibrio : evalúa si los datos revisados son un representante eficaz y equilibrado de todo el conjunto de datos
La plataforma combina su evaluación de estos 4 factores en una única calificación de modelo patentada y fácil de entender. Esta calificación es la mejor medida del rendimiento del modelo, ya que tiene en cuenta todos los factores más importantes en los que debe evaluarse un modelo de etiqueta, ponderados por su importancia relativa.
La calificación del modelo es una puntuación de 0 a 100, que equivale a una calificación de Pobre (0-49), Regular (50-69), Bueno (70-89) o Excelente (90-100).
La validación también proporciona un desglose de cada uno de estos factores: a cada factor se le asigna su propia calificación cualitativa, además de mostrar las métricas que contribuyen a esa calificación. Estos se analizan con más detalle a continuación.
Cada factor puede tener una contribución positiva o negativa a la Calificación del modelo, dependiendo de su rendimiento. Es muy posible que los modelos con calificaciones Pobres en cada factor tengan una calificación general de cero, particularmente cuando es muy temprano en el proceso de entrenamiento del modelo.
El menú desplegable Versión del modelo te permite ver todas las puntuaciones de validación en versiones anteriores del modelo en un conjunto de datos determinado. También puedes priorizar o "destacar" los individuales para que aparezcan en la parte superior de la lista en el futuro. Esta herramienta puede ser útil para realizar un seguimiento y comparar el progreso a medida que construyes tu modelo.
El menú desplegable garantiza que no tengas que anclar una versión del modelo para ver las puntuaciones de validación. Anclar una versión del modelo solo debe utilizarse para las versiones del modelo que desea poder llamar en sentido descendente a través de la API (por ejemplo, para el enrutamiento automatizado).
La pestaña Factores en Validación, como se ha mostrado anteriormente, ofrece un desglose de cada uno de los factores clave que se tienen en cuenta al calcular la Calificación del modelo.
Cada tarjeta de factor muestra:
- La calificación del factor y una descripción cualitativa del mismo
- Los contribuyentes, que son los diferentes componentes que contribuyen a la calificación de ese factor
- Acciones recomendadas, enumeradas en orden de prioridad, que pueden ayudar a mejorar la calificación del factor
Todas las etiquetas
- Este factor evalúa el rendimiento medio de todas las etiquetas de la taxonomía,
- Se basa principalmente en la precisión media media (MAP) en todas las etiquetas, ponderada por la frecuencia con la que se asignan
- También tiene en cuenta cuando hay etiquetas en la taxonomía que tienen advertencias de rendimiento rojas o ámbar
- Las acciones recomendadas para este factor suelen estar diseñadas para aumentar la precisión media de etiquetas específicas o para eliminar sus advertencias de rendimiento
Etiquetas de bajo rendimiento
- Este factor evalúa el rendimiento del 10 % de las etiquetas de la taxonomía que tienen los problemas de rendimiento más significativos o el estado general más bajo de la etiqueta (si no se devuelven advertencias)
- Si incluso el 10 % inferior de tus etiquetas sigue funcionando muy bien, esta es una gran señal de que tu modelo está en buen estado
- Esto depende del MAP de las etiquetas de menor rendimiento, así como de si estas etiquetas tienen advertencias de rendimiento significativas (por ejemplo, advertencias rojas o ámbar)
- Las acciones recomendadas para este factor suelen estar diseñadas para aumentar la precisión media de etiquetas específicas de bajo rendimiento y eliminar cualquier otra advertencia de rendimiento individual
Cobertura
- Este factor evalúa la proporción de mensajes que se prevé que tengan al menos una etiqueta informativa. Para obtener más información, consulta Cómo funciona la validación.
- Es muy importante que un modelo de buen rendimiento "cubra" la mayor parte posible del conjunto de datos con predicciones de etiquetas informativas
- Las acciones recomendadas para este factor están diseñadas para ayudar a aumentar la cobertura del conjunto de datos. La mayoría de las veces se entrenará en modo de baja confianza .
- Para obtener más información sobre la cobertura, consulta Comprender y aumentar la cobertura.
Equilibrio
- Este factor evalúa si los datos revisados son una representación eficaz y equilibrada de todo el conjunto de datos, y está diseñado para detectar posibles sesgos de anotación. Para obtener más información, consulta Cómo funciona la validación.
- Se basa en una puntuación de similitud, que resulta de comparar los datos revisados con los datos no revisados en el conjunto de datos, así como de si se ha utilizado suficiente modo aleatorio al anotar los datos.
- Es importante que los datos revisados en un conjunto de datos sean lo más similares posible a los datos no revisados, para que la plataforma pueda identificar de forma fiable tanto como sea posible.
- Las acciones recomendadas para este factor están diseñadas para reducir cualquier posible sesgo de anotación y aumentar la puntuación de similitud de los datos revisados.
- Para obtener más información sobre la comprensión y la mejora del equilibrio del conjunto de datos, consulta Mejorar el equilibrio y utilizar Reequilibrar.
Métricas
La pestaña Métricas de la página Validación muestra algunas estadísticas de rendimiento promedio de las etiquetas, así como un gráfico que muestra la precisión promedio de cada etiqueta en comparación con el tamaño de su conjunto de entrenamiento. El gráfico también marca las etiquetas que tienen advertencias de rendimiento de color ámbar o rojo.
Las estadísticas de rendimiento de la etiqueta que se muestran son:
Esencialmente, cuanto mayor sea tu puntuación MAP , mejor será el rendimiento general del modelo en lo que respecta a la precisión de sus predicciones, pero esto variará entre conjuntos de datos dependiendo del tipo de datos y los objetivos en los que hayas centrado tu taxonomía.
Sin embargo, MAP no es una buena medida de cobertura o equilibrio y no debe confiarse únicamente en él para determinar si tu modelo es adecuado para el propósito. Para obtener más información, consulta Comprender y aumentar la cobertura y Comprender y mejorar el rendimiento del modelo.
El gráfico de rendimiento de la etiqueta que se muestra en la pestaña Métricas de la página Validación ofrece una indicación visual inmediata de cómo está funcionando cada etiqueta individual.
Para que una etiqueta aparezca en este gráfico, debe tener al menos 20 ejemplos anclados presentes en el conjunto de entrenamiento utilizado por la plataforma durante la validación. Para garantizar que esto suceda, los usuarios deben asegurarse de proporcionar un mínimo de 25 (a menudo más) ejemplos anclados por etiqueta.
Cada etiqueta se trazará como uno de los tres colores, en función de la comprensión del modelo de cómo está funcionando la etiqueta. A continuación, explicamos lo que significan:
Indicadores de rendimiento de etiquetas
- Las etiquetas representadas en azul en el gráfico tienen un nivel de rendimiento satisfactorio. Esto se basa en numerosos factores que contribuyen, incluido el número y la variedad de ejemplos, el sesgo de anotación y la precisión promedio para esa etiqueta.
- Las etiquetas representadas en ámbar tienen un rendimiento ligeramente menos que satisfactorio. Es posible que tengan una precisión media relativamente baja, que no sean suficientes ejemplos de entrenamiento o que se hayan anotado de forma sesgada. Estas etiquetas requieren un poco de entrenamiento/corrección para mejorar su rendimiento o para reducir el sesgo en la forma en que fueron entrenadas.
- Las etiquetas representadas en rojo son etiquetas de bajo rendimiento. Pueden tener una precisión media muy baja, no tener suficientes ejemplos de entrenamiento o estar muy sesgados en la forma en que se anotaron. Estas etiquetas pueden requerir un entrenamiento/corrección considerablemente mayor para llevar su rendimiento a un nivel satisfactorio o para reducir significativamente el sesgo en la forma en que fueron entrenadas.
Los usuarios pueden seleccionar etiquetas individuales desde la barra de filtro de etiquetas, o seleccionando el gráfico de la etiqueta en el gráfico Todas las etiquetas , para ver las estadísticas de rendimiento de la etiqueta. La vista de etiqueta específica también mostrará cualquier advertencia de rendimiento y sugerencias de mejores acciones recomendadas para ayudar a mejorar su rendimiento.
La vista de etiqueta mostrará la precisión promedio de la etiqueta, así como su precisión frente a la recuperación en función de un umbral de confianza dado que los usuarios pueden ajustar para ver cómo cambia. Para obtener más información, consulta Comprender el control deslizante de umbral de etiqueta.
Si tu modelo o una etiqueta específica tiene una advertencia de rendimiento, la plataforma recomienda la siguiente mejor acción que cree que ayudará a abordar esa advertencia. Esto se realizará a través de una de las tarjetas de factores (como se muestra a continuación) o cuando selecciones una etiqueta específica de la taxonomía o el gráfico Todas las etiquetas , como se muestra anteriormente.
Para algunas etiquetas que tienen una precisión media muy baja, puede que no siempre esté claro por qué tienen un mal rendimiento. Las posibles razones por las que una etiqueta puede tener una precisión media baja y cómo mejorarla se analizan en el siguiente artículo Razones para la precisión media baja de la etiqueta. La plataforma siempre proporcionará las que crea que son las mejores acciones correctivas para mejorar la etiqueta, enumeradas en orden de prioridad.
Cuando no estás en la página de Validación , las advertencias de rendimiento en rojo y ámbar siguen apareciendo en el filtro de taxonomía en Explorar e Informes, por lo que pueden ser un indicador útil para comprobar la Validación y ver las acciones correctivas recomendadas.
Las siguientes sugerencias de mejores acciones actúan como enlaces que puedes seleccionar para llevarte directamente a la vista de entrenamiento que sugiere la plataforma para mejorar el rendimiento de la etiqueta o reducir su sesgo. Las sugerencias se ordenan de forma inteligente con la acción de mayor prioridad para mejorar la etiqueta enumerada en primer lugar.
Estas son la herramienta más importante para ayudarte a comprender el rendimiento de tu modelo, y deben utilizarse regularmente como guías al intentar mejorar el rendimiento de una etiqueta.
El siguiente artículo cubre en detalle las razones por las que una etiqueta puede tener una precisión media baja. Los últimos artículos de esta sección de la base de conocimientos también cubren los otros modos de entrenamiento que la plataforma puede sugerir para mejorar el rendimiento de tu modelo, que son Comprobar etiqueta, Etiqueta perdida y Reequilibrar.
% en el cuadro, o simplemente arrastrar el control deslizante a lo largo de la escala.
Observa cómo en la imagen anterior, el umbral de confianza para la etiqueta Presupuesto > Motor se establece en 68,7 %, lo que da una precisión del 100 % y una recuperación del 85 %.
A continuación, en la siguiente imagen, el umbral de confianza se ha ajustado utilizando el control deslizante al 17 %, lo que reduce la precisión al 84 %, pero aumenta la recuperación al 100 %.
Para obtener más información sobre la relación entre precisión y recuperación, consulta Precisión y recuperación.
Para obtener más información sobre cómo seleccionar los umbrales que se utilizarán en las automatizaciones, consulta Seleccionar umbrales de confianza de etiquetas.