- Introducción
- Configuración de su cuenta
- Equilibrio
- Clústeres
- Deriva del concepto
- Cobertura
- Conjuntos de datos
- Campos generales
- Etiquetas (predicciones, niveles de confianza, jerarquía de etiquetas y sentimiento de etiqueta)
- Modelos
- Transmisiones
- Clasificación del modelo
- Proyectos
- Precisión
- Recordar
- Mensajes anotados y no anotados
- Campos extraídos
- Fuentes
- Taxonomías
- Formación
- Predicciones positivas y negativas verdaderas y falsas
- Validación
- Mensajes
- Control y administración de acceso
- Gestionar fuentes y conjuntos de datos
- Comprender la estructura de datos y los permisos
- Crear o eliminar un origen de datos en la GUI
- Cargar un archivo CSV en un origen
- Preparando datos para cargar archivos .CSV
- Crear un conjunto de datos
- Fuentes y conjuntos de datos multilingües
- Habilitar sentimiento en un conjunto de datos
- Modificar la configuración del conjunto de datos
- Eliminar un mensaje
- Eliminar un conjunto de datos
- Exportar un conjunto de datos
- Utilizar integraciones de Exchange
- Entrenamiento y mantenimiento de modelos
- Comprender las etiquetas, los campos generales y los metadatos
- Jerarquía de etiquetas y mejores prácticas
- Comparar casos de uso de análisis y automatización
- Convertir tus objetivos en etiquetas
- Descripción general del proceso de entrenamiento del modelo
- Anotación generativa
- Estado de Dastaset
- Entrenamiento de modelos y mejores prácticas de anotación
- Entrenamiento con análisis de sentimiento de etiqueta habilitado
- Comprender los requisitos de datos
- Entrenamiento
- Introducción a Refinar
- Explicación de la precisión y la recuperación
- Precisión y recuperación
- Cómo funciona la validación
- Comprender y mejorar el rendimiento del modelo
- Razones para etiquetar una precisión media baja
- Entrenamiento utilizando la etiqueta Comprobar y la etiqueta Perdida
- Entrenamiento mediante la etiqueta de aprendizaje (refinar)
- Entrenamiento mediante Buscar (Refinar)
- Comprender y aumentar la cobertura
- Mejorar el equilibrio y utilizar Reequilibrar
- Cuándo dejar de entrenar tu modelo
- Uso de campos generales
- Extracción generativa
- Uso de análisis y supervisión
- Automations and Communications Mining™
- Desarrollador
- Uso de la API
- Tutorial de la API
- Fuentes
- Conjuntos de datos
- Comentarios
- Archivos adjuntos
- Predictions
- Crear una transmisión
- Actualizar una transmisión
- Obtener una transmisión por nombre
- Obtener todas las transmisiones
- Eliminar una transmisión
- Obtener resultados de la transmisión
- Obtener comentarios de una transmisión (heredado)
- Avanzar una transmisión
- Restablecer una transmisión
- Etiquetar una excepción
- Desetiquetar una excepción
- Eventos de auditoría
- Obtener todos los usuarios
- Cargar datos
- Descargando datos
- Integración de Exchange con el usuario del servicio de Azure
- Integración de Exchange con la autenticación de aplicaciones de Azure
- Integración de Exchange con Azure Application Authentication y Graph
- Obtener datos para Tableau con Python
- Integración de Elasticsearch
- Extracción de campos general
- Integración de Exchange autohospedado
- Marco de automatización de UiPath®
- Actividades oficiales de UiPath®
- Cómo aprenden las máquinas a entender palabras: una guía para las incrustaciones en PNL
- Aprendizaje basado en solicitudes con Transformers
- Efficient Transformers II: destilación de conocimientos y ajuste
- Transformadores eficientes I: mecanismos de atención
- Modelado de intenciones jerárquico profundo no supervisado: obtener valor sin datos de entrenamiento
- Corregir el sesgo de anotación con Communications Mining™
- Aprendizaje activo: mejores modelos ML en menos tiempo
- Todo está en los números: evaluar el rendimiento del modelo con métricas
- Por qué es importante la validación del modelo
- Comparación de Communications Mining™ y Google AutoML para la inteligencia de datos conversacional
- Licencia
- Preguntas frecuentes y más

Guía del usuario de Communications Mining
El proceso de validación de extracción es necesario para comprender el rendimiento de estas extracciones a través de Validación.
Decide la extracción que quieres entrenar. Informe > Extracto de cuentas es un ejemplo de un esquema para entrenar.
Para automatizar este proceso, extrae los siguientes puntos de datos para introducirlos en un sistema posterior:
Utiliza este modo de entrenamiento según sea necesario, para aumentar el número de ejemplos de entrenamiento para cada extracción, es decir, un conjunto de campos asignados a una etiqueta, a al menos 25. Esto permite que el modelo estime con precisión el rendimiento de la extracción.
Para generar tus extracciones, procede de la siguiente manera:
- Ve a la pestaña Explorar .
- Selecciona Etiqueta y, a continuación, selecciona la etiqueta en la que deseas generar extracciones.
- Selecciona Predecir extracciones, que genera extracciones por página en Explorar. Esto significa que aplica predicciones en todos los comentarios de una página determinada.
Nota: Cada vez que vayas a la página siguiente, deberás volver a seleccionar Predecir extracciones .
Además, puedes generar extracciones en un nivel de comentario individual seleccionando Anotar campos y luego Predecir extracciones. Para obtener más información, consulta Predicción de extracciones.
-
Después de hacer las predicciones de extracción, si el modelo recogió extracciones de campo en el comentario, resalta el intervalo relevante en el texto. El modelo muestra el valor extraído en el panel lateral. Para aprender a validar los valores predichos, consulta Validar y anotar extracciones generadas.
Esta sección describe lo que sucede cuando predices extracciones:
- El modelo utiliza modelos generativos y asigna cada uno de los puntos de datos que definiste previamente en nuestro esquema de extracción, para relacionarlos con una intención, es decir, una etiqueta.
- Los extrae y los devuelve en un esquema estructurado, para que una SME los revise y los confirme.
- El esquema estructurado está diseñado para habilitar automatizaciones más complejas, y está estructurado en formato JSON en la API para su consumo por parte de cualquier automatización posterior.