- Primeros pasos
- Equilibrio
- Clústeres
- Deriva del concepto
- Cobertura
- Conjuntos de datos
- Campos generales (anteriormente entidades)
- Etiquetas (predicciones, niveles de confianza, jerarquía, etc.)
- Modelos
- Transmisiones
- Clasificación del modelo
- Proyectos
- Precisión
- Recordar
- Mensajes revisados y no revisados
- Fuentes
- Taxonomías
- Formación
- Predicciones positivas y negativas verdaderas y falsas
- Validación
- Mensajes
- Administración
- Gestionar fuentes y conjuntos de datos
- Comprender la estructura de datos y los permisos
- Create or delete a data source in the GUI
- Cargar un archivo CSV en un origen
- Preparando datos para cargar archivos .CSV
- Crear un nuevo conjunto de datos
- Fuentes y conjuntos de datos multilingües
- Habilitar sentimiento en un conjunto de datos
- Modificar la configuración de un conjunto de datos
- Eliminar mensajes a través de la IU
- Eliminar un conjunto de datos
- Exportar un conjunto de datos
- Uso de integraciones de Exchange
- Entrenamiento y mantenimiento de modelos
- Comprender las etiquetas, los campos generales y los metadatos
- Jerarquía de etiquetas y mejores prácticas
- Definición de los objetivos de taxonomía
- Casos de uso de análisis frente a automatización
- Convertir tus objetivos en etiquetas
- Crear tu estructura de taxonomía
- Mejores prácticas de diseño de taxonomía
- Importar tu taxonomía
- Descripción general del proceso de entrenamiento del modelo
- Anotación generativa (NUEVO)
- Estado de Dastaset
- Entrenamiento de modelos y mejores prácticas de anotación
- Entrenamiento con análisis de sentimiento de etiqueta habilitado
- Comprender los requisitos de datos
- Entrenamiento
- Introducción a Refinar
- Explicación de la precisión y la recuperación
- Precisión y recuperación
- ¿Cómo funciona la validación?
- Comprender y mejorar el rendimiento del modelo
- ¿Por qué una etiqueta puede tener una precisión media baja?
- Entrenamiento utilizando la etiqueta Comprobar y la etiqueta Perdida
- Entrenamiento mediante la etiqueta de aprendizaje (refinar)
- Entrenamiento mediante Buscar (Refinar)
- Comprender y aumentar la cobertura
- Mejorar el equilibrio y utilizar Reequilibrar
- Cuándo dejar de entrenar tu modelo
- Uso de campos generales
- Extracción generativa
- Uso de análisis y supervisión
- Minería de automatizaciones y comunicaciones
- Información de licencia
- Preguntas frecuentes y más
Guía de usuario de Communications Mining
Entrenamiento utilizando la etiqueta Comprobar y la etiqueta Perdida
Permisos de usuario necesarios: 'Ver fuentes' Y 'Revisar y anotar'.
Anteriormente, la función 'Enseñar ', cuando se filtraba a los mensajes revisados, mostraba los mensajes en los que la plataforma pensaba que la etiqueta seleccionada podía haberse aplicado incorrectamente o haberse perdido. 'Comprobar etiqueta ' y 'Etiqueta perdida ' los dividen en dos vistas separadas, con 'Comprobar etiqueta' mostrando los mensajes con la etiqueta potencialmente mal aplicada, y 'Etiqueta perdida' mostrando los mensajes a los que les puede faltar la etiqueta seleccionada.
Introducción al uso de 'Comprobar etiqueta' y 'Etiqueta perdida'
El uso de los modos de entrenamiento 'Comprobar etiqueta ' y 'Etiqueta perdida ' es la parte de la fase de perfeccionamiento en la que se intenta identificar cualquier incoherencia o etiquetas perdidas en los mensajes que ya se han revisado. Esto es diferente al paso "Enseñar etiqueta", que se centra en los mensajes no revisados que tienen predicciones hechas por la plataforma, en lugar de etiquetas asignadas.
'Comprobar etiqueta' muestra los mensajes en los que la plataforma cree que la etiqueta seleccionada puede haberse aplicado incorrectamente, es decir, potencialmente no debería haberse aplicado.
"Etiqueta perdida" muestra los mensajes a los que la plataforma cree que les puede faltar la etiqueta seleccionada, es decir, podría haberse aplicado pero no se ha aplicado. Aquí, la etiqueta seleccionada aparecerá normalmente como una sugerencia, como se muestra en la siguiente imagen.
Las sugerencias de la plataforma en cualquiera de los modos no son necesariamente correctas, estos son solo los casos en los que la plataforma no está segura en función del entrenamiento que se ha completado hasta el momento. Puedes optar por ignorarlas si no estás de acuerdo con las sugerencias de la plataforma después de revisarlas.
El uso de estos modos de entrenamiento es una forma muy eficaz de encontrar ocurrencias en las que el usuario puede no haber sido coherente al aplicar etiquetas. Al utilizarlos, puede corregir estas ocasiones y, por lo tanto, mejorar el rendimiento de la etiqueta.
¿Cuándo usar 'Comprobar etiqueta' y 'Etiqueta perdida'?
La respuesta más sencilla a cuándo utilizar cualquiera de los modos de entrenamiento es cuando se trata de una de las 'Acciones recomendadas ' en la sección Calificación del modelo o una vista de etiqueta específica en la página Validación (consulta aquí).
Como regla general, cualquier etiqueta que tenga un número significativo de ejemplos anclados pero que tenga una precisión media baja (lo que puede indicarse mediante advertencias de etiqueta roja en la página de Validación o en las barras de filtro de etiquetas) probablemente se beneficiará de algún entrenamiento correctivo en Modo 'Comprobar etiqueta ' y 'Etiqueta perdida '.
Al validar el rendimiento de un modelo, la plataforma determinará si cree que una etiqueta se ha aplicado de forma incorrecta a menudo, o si cree que se ha pasado por alto con regularidad , y dará prioridad a la acción correctiva que considere más beneficiosa para mejorar el rendimiento de una etiqueta.
"Etiqueta perdida" también es una herramienta muy útil si has añadido una nueva etiqueta a una taxonomía existente con muchos ejemplos revisados. Una vez que hayas proporcionado algunos ejemplos iniciales para el nuevo concepto de etiqueta, "Etiqueta perdida" puede ayudarte a identificar rápidamente cualquier ejemplo en los mensajes revisados anteriormente donde también debería aplicarse. Consulta aquí para obtener más detalles.
Cómo utilizar 'Comprobar etiqueta' y 'Etiqueta perdida':
Para llegar a cualquiera de estos modos de entrenamiento, hay dos opciones principales:
-
Si se trata de una acción recomendada en Validación para una etiqueta, la tarjeta de acción actúa como un enlace que te lleva directamente a ese modo de entrenamiento para la etiqueta seleccionada
- Alternativamente, puedes seleccionar cualquiera de los modos de entrenamiento en el menú desplegable de la parte superior de la página en Explorar, y luego seleccionar una etiqueta para ordenar (consulta la imagen de arriba, por ejemplo)
Ten en cuenta: primero debes seleccionar una etiqueta antes de que aparezca "Comprobar etiqueta" o "Etiqueta perdida" en el menú desplegable. Ambos modos también deshabilitan la capacidad de filtrar entre mensajes revisados y no revisados , ya que son exclusivamente para mensajes revisados)
En cada modo, la plataforma te mostrará hasta 20 ejemplos por página de mensajes revisados en los que cree que la etiqueta seleccionada puede haberse aplicado incorrectamente ("Comprobar etiqueta") o puede faltar la etiqueta seleccionada ("Etiqueta perdida").
'Comprobar etiqueta'
En "Comprobar etiqueta", revisa cada uno de los ejemplos de la página para confirmar que son ejemplos auténticos de la etiqueta seleccionada. Si es así, continúa sin realizar ninguna acción. Si no lo están, elimina la etiqueta (haciendo clic en la 'X' al pasar el ratón por encima) y asegúrate de aplicar las etiquetas correctas en su lugar.
Revisa tantas páginas de mensajes revisados como sea necesario para identificar cualquier incoherencia en el conjunto revisado y mejorar la comprensión de la etiqueta por parte del modelo. La corrección de etiquetas añadidas por error puede tener un gran impacto en el rendimiento de una etiqueta, al garantizar que el modelo tenga ejemplos correctos y coherentes a partir de los cuales hacer predicciones para esa etiqueta.
"Etiqueta perdida"
En "Etiqueta perdida", revisa cada uno de los ejemplos de la página para ver si la etiqueta seleccionada se ha perdido. Si es así, haz clic en la sugerencia de etiqueta (como se muestra en la imagen anterior) para aplicar la etiqueta. Si no es así, ignora la sugerencia y continúa.
El hecho de que la plataforma "sugiera" una etiqueta en un mensaje revisado no significa que el modelo lo considere una predicción, ni contará para ninguna estadística sobre el número de etiquetas en un conjunto de datos. Si una sugerencia es incorrecta, puedes ignorarla.
Revisa tantas páginas de mensajes revisados como sea necesario para identificar cualquier ejemplo en el conjunto revisado que deba tener la etiqueta seleccionada pero no la tenga. Los mensajes parcialmente anotados pueden ser muy perjudiciales para la capacidad del modelo de predecir una etiqueta, ya que cuando no se aplica una etiqueta a un mensaje, básicamente se le dice al modelo "este no es un ejemplo de este concepto de etiqueta". Si de hecho es un ejemplo correcto, esto puede ser muy confuso para el modelo, especialmente si hay otros ejemplos muy similares que SÍ tienen la etiqueta aplicada.
Por lo tanto, añadir etiquetas que se han perdido puede tener un gran impacto en el rendimiento de una etiqueta, al garantizar que el modelo tenga ejemplos correctos y coherentes a partir de los cuales hacer predicciones para esa etiqueta.
Una vez que el modelo haya tenido tiempo de volver a entrenarse después de tu entrenamiento correctivo en estos modos, puedes volver a comprobar en Validación para ver el impacto positivo que tus acciones han tenido en la Calificación del modelo y el rendimiento de las etiquetas específicas que has entrenado.