- Introducción- Configuración de su cuenta
- Equilibrio
- Clústeres
- Deriva del concepto
- Cobertura
- Conjuntos de datos
- Campos generales
- Etiquetas (predicciones, niveles de confianza, jerarquía de etiquetas y sentimiento de etiqueta)
- Modelos
- Transmisiones
- Clasificación del modelo
- Proyectos
- Precisión
- Recordar
- Mensajes anotados y no anotados
- Campos extraídos
- Fuentes
- Taxonomías
- Formación
- Predicciones positivas y negativas verdaderas y falsas
- Validación
- Mensajes
 
 
- Control y administración de acceso
- Gestionar fuentes y conjuntos de datos- Comprender la estructura de datos y los permisos
- Crear o eliminar un origen de datos en la GUI
- Cargar un archivo CSV en un origen
- Preparando datos para cargar archivos .CSV
- Crear un conjunto de datos
- Fuentes y conjuntos de datos multilingües
- Habilitar sentimiento en un conjunto de datos
- Modificar la configuración del conjunto de datos
- Eliminar un mensaje
- Eliminar un conjunto de datos
- Exportar un conjunto de datos
- Utilizar integraciones de Exchange
 
- Entrenamiento y mantenimiento de modelos- Comprender las etiquetas, los campos generales y los metadatos
- Jerarquía de etiquetas y mejores prácticas
- Comparar casos de uso de análisis y automatización
- Convertir tus objetivos en etiquetas
- Descripción general del proceso de entrenamiento del modelo
- Anotación generativa
- Estado de Dastaset
- Entrenamiento de modelos y mejores prácticas de anotación
- Entrenamiento con análisis de sentimiento de etiqueta habilitado
 
- Comprender los requisitos de datos
- Entrenamiento
- Introducción a Refinar
- Explicación de la precisión y la recuperación
- Precisión y recuperación
- Cómo funciona la validación
- Comprender y mejorar el rendimiento del modelo
- Razones para etiquetar una precisión media baja
- Entrenamiento utilizando la etiqueta Comprobar y la etiqueta Perdida
- Entrenamiento mediante la etiqueta de aprendizaje (refinar)
- Entrenamiento mediante Buscar (Refinar)
- Comprender y aumentar la cobertura
- Mejorar el equilibrio y utilizar Reequilibrar
- Cuándo dejar de entrenar tu modelo
 
- Uso de campos generales
 
- Extracción generativa
- Uso de análisis y supervisión
- Automations and Communications Mining™
- Desarrollador- Uso de la API
- Tutorial de la API
- Fuentes
- Conjuntos de datos
- Comentarios
- Archivos adjuntos
- Predictions
- Crear una transmisión
- Actualizar una transmisión
- Obtener una transmisión por nombre
- Obtener todas las transmisiones
- Eliminar una transmisión
- Obtener resultados de la transmisión
- Obtener comentarios de una transmisión (heredado)
- Avanzar una transmisión
- Restablecer una transmisión
- Etiquetar una excepción
- Desetiquetar una excepción
 
- Eventos de auditoría
- Obtener todos los usuarios
 
 
- Cargar datos
- Descargando datos
- Integración de Exchange con el usuario del servicio de Azure
- Integración de Exchange con la autenticación de aplicaciones de Azure
- Integración de Exchange con Azure Application Authentication y Graph
- Obtener datos para Tableau con Python
- Integración de Elasticsearch
- Extracción de campos general
- Integración de Exchange autohospedado
- Marco de automatización de UiPath®
- Actividades oficiales de UiPath®
 
 
- Cómo aprenden las máquinas a entender palabras: una guía para las incrustaciones en PNL
- Aprendizaje basado en solicitudes con Transformers
- Efficient Transformers II: destilación de conocimientos y ajuste
- Transformadores eficientes I: mecanismos de atención
- Modelado de intenciones jerárquico profundo no supervisado: obtener valor sin datos de entrenamiento
- Corregir el sesgo de anotación con Communications Mining™
- Aprendizaje activo: mejores modelos ML en menos tiempo
- Todo está en los números: evaluar el rendimiento del modelo con métricas
- Por qué es importante la validación del modelo
- Comparación de Communications Mining™ y Google AutoML para la inteligencia de datos conversacional
 
 
- Licencia
- Preguntas frecuentes y más

Guía del usuario de Communications Mining
La página Explorar tiene varios modos de entrenamiento, y esta fase se centra principalmente en tres de ellos:
- Aleatorio : muestra una selección aleatoria de mensajes para que los usuarios los anoten. Asegúrate de completar una parte significativa del entrenamiento en Aleatorio para crear un conjunto de ejemplos de entrenamiento que sea representativo del conjunto de datos más amplio.
- Enseñar : se utiliza para mensajes no revisados. Tan pronto como la plataforma haga algunas predicciones razonables para una etiqueta, puedes mejorar la capacidad de predecir la etiqueta para ejemplos más variados revisando mensajes en el modo de enseñanza predeterminado, que es para mensajes no revisados. Esto te mostrará mensajes en los que la plataforma no está segura de si la etiqueta seleccionada se aplica o no.
- Confianza baja : te muestra los mensajes que no están bien cubiertos por las predicciones de etiquetas informativas. Estos mensajes no tendrán predicciones o tendrán predicciones de muy baja confianza para las etiquetas que la plataforma entiende que son informativas.
Esta sección también cubrirá el entrenamiento utilizando Buscar en Explorar, similar al entrenamiento utilizando Buscar en Descubrir.
Enseñar, para mensajes revisados, es otro modo de entrenamiento en Explorar. Para obtener más información, consulta Refinar modelos y utilizar Validación.
El diseño de la imagen mostrada anteriormente se explica en la siguiente tabla:
| 1 | Ajuste el intervalo de fechas o el período de los mensajes mostrados. | 
| 2 | Añade varios otros filtros basados en los metadatos de los mensajes, por ejemplo puntuación o remitente. | 
| 3 | Añade un filtro de campo general. | 
| 4 | Cambia de todos los mensajes a mensajes revisados o no revisados, también ajusta los recuentos de etiquetas ancladas frente a las previstas. | 
| 5 | Añade un filtro de etiqueta. | 
| 6 | Busca etiquetas específicas dentro de tu taxonomía. | 
| 7 | Añade etiquetas adicionales. | 
| 8 | Expandir los metadatos del mensaje. | 
| 9 | Actualizar la consulta actual. | 
| 10 | Cambia entre diferentes modos de entrenamiento, como reciente, aleatorio, enseñar y baja confianza, y selecciona etiqueta para ordenar. | 
| 11 | Busca en el conjunto de datos mensajes que contengan palabras o frases específicas. | 
| 12 | Descarga todos los mensajes de esta página o exporta el conjunto de datos con los filtros aplicados como archivo CSV. | 
El número de ejemplos necesarios para predecir con precisión cada etiqueta puede variar mucho en función de la amplitud o la especificidad de un concepto de etiqueta.
Puede ser que una etiqueta se asocie normalmente con palabras, frases o intenciones muy específicas y fácilmente identificables, y la plataforma sea capaz de predecirla de forma coherente con relativamente pocos ejemplos de entrenamiento. También podría ocurrir que una etiqueta capture un tema amplio con muchas variaciones diferentes de lenguaje que se le asocien, en cuyo caso podría requerir muchos más ejemplos de entrenamiento para permitir que la plataforma identifique de forma coherente las instancias en las que debería aplicarse la etiqueta.
La plataforma a menudo puede empezar a hacer predicciones para una etiqueta con tan solo cinco ejemplos, aunque para estimar con precisión el rendimiento de una etiqueta, es decir, lo bien que la plataforma es capaz de predecirla, cada etiqueta requiere al menos 25 ejemplos.
Al anotar en Explorar, las pequeñas esferas rojas junto a cada etiqueta indican si se necesitan más ejemplos para estimar con precisión el rendimiento de la etiqueta. El dial comienza a desaparecer a medida que proporcionas más ejemplos de entrenamiento y desaparecerá por completo una vez que llegues a 25.
Esto no significa que con 25 ejemplos la plataforma pueda predecir con precisión cada etiqueta, pero al menos podrá validar lo bien que puede predecir cada etiqueta y alertarte si se requiere entrenamiento adicional.
Durante la fase Explorar, asegúrate de haber proporcionado al menos 25 ejemplos para todas las etiquetas que te interesan, utilizando una combinación de los pasos mencionados anteriormente, es decir, principalmente Aleatorio y Enseñar y Sin revisar.
Durante la fase Refinar puede quedar claro que se requiere más entrenamiento para que ciertas etiquetas mejoren su rendimiento. Para obtener más información, consulta Refinar modelos y utilizar Validación.
En Explorar, una vez que alcances los 25 ejemplos anclados para una etiqueta, puedes notar uno de los siguientes indicadores de rendimiento de la etiqueta en lugar del dial de entrenamiento:
- Gris es un indicador de que la plataforma está calculando el rendimiento de esa etiqueta. Esto significa que se actualizará para desaparecer o para mostrar un círculo ámbar o rojo una vez calculado.
- El ámbar es un indicador de que la etiqueta tiene un rendimiento ligeramente menos que satisfactorio y podría mejorarse.
- El rojo es un indicador de que la etiqueta tiene un rendimiento deficiente y necesita formación adicional o acciones correctivas para mejorarlo.
- Si no hay un círculo, la etiqueta está funcionando a un nivel satisfactorio, aunque es posible que aún deba mejorarse dependiendo del caso de uso y los niveles de precisión deseados.
- Para obtener más información sobre el rendimiento de las etiquetas y cómo mejorarlo, consulta Comprender y mejorar el rendimiento del modelo.
Si seleccionas el icono de marca, como se muestra en las siguientes imágenes, en la parte superior de la barra de filtro de etiquetas para filtrar los mensajes revisados, se mostrará el número de mensajes revisados que tienen esa etiqueta aplicada.
Si seleccionas el icono del ordenador para filtrar los mensajes no revisados, se mostrará el número total de predicciones para esa etiqueta, que incluye también el número de ejemplos revisados.
En Explorar, cuando no se selecciona ni revisado ni sin revisar, la plataforma muestra el número total de mensajes anclados para una etiqueta de forma predeterminada. En Informes, el valor predeterminado es mostrar el total previsto.
- El modelo puede hacer predicciones con solo unos pocos mensajes anotados, aunque para que haga predicciones fiables, debes anotar un mínimo de 25 mensajes por etiqueta. Algunos requerirán más que esto, dependerá de la complejidad de los datos, la etiqueta y la coherencia con la que se hayan aplicado las etiquetas
- En Explorar, también debes intentar encontrar mensajes en los que el modelo haya predicho una etiqueta incorrectamente. Debes eliminar las etiquetas incorrectas y aplicar las correctas. Este proceso ayuda a evitar que el modelo haga una predicción incorrecta similar en el futuro