- Información general
- Primeros pasos
- Crear modelos
- Consumir modelos
- Detalles del modelo
- Puntos finales públicos para Automation Cloud y Test Cloud
- Puntos finales públicos para Automation Cloud y Test Cloud Public Sector
- 1040: tipo de documento
- 1040 Anexo C: tipo de documento
- 1040 Anexo D: tipo de documento
- 1040 Anexo E: tipo de documento
- 1040x: tipo de documento
- 3949a: tipo de documento
- 4506T: tipo de documento
- 709: tipo de documento
- 941x: tipo de documento
- 9465: tipo de documento
- ACORD125: tipo de documento
- ACORD126: tipo de documento
- ACORD131: tipo de documento
- ACORD140: tipo de documento
- ACORD25: tipo de documento
- Estados de cuenta bancarios: tipo de documento
- Facturas de carga: tipo de documento
- Certificado de incorporación: tipo de documento
- Certificado de origen: tipo de documento
- Comprobaciones: tipo de documento
- Certificado de producto secundario: tipo de documento
- CMS 1500: tipo de documento
- Declaración de conformidad de la UE: tipo de documento
- Estados financieros: tipo de documento
- FM1003: tipo de documento
- I9: tipo de documento
- Tarjetas de identificación: tipo de documento
- Facturas: tipo de documento
- Facturas2: tipo de documento
- Facturas Australia: tipo de documento
- Facturas China: tipo de documento
- Facturas Hebreo: tipo de documento
- Facturas India: tipo de documento
- Facturas Japón: tipo de documento
- Remisión de facturas: tipo de documento
- Listas de embalaje: tipo de documento
- Nóminas: tipo de documento
- Pasaportes: tipo de documento
- Órdenes de compra: tipo de documento
- Recibos: tipo de documento
- Recibos2: tipo de documento
- Recibos Japón: tipo de documento
- Notificaciones de remesas: tipo de documento
- UB04: tipo de documento
- Divulgación de cierre de hipotecas en EE. UU.: tipo de documento
- Facturas de servicios públicos: tipo de documento
- Títulos de vehículos: tipo de documento
- W2: tipo de documento
- W9: tipo de documento
- Idiomas admitidos
- Paneles de insights
- Datos y seguridad
- Registro
- Licencia
- Tutorial
- Solución de problemas

Guía del usuario de Document Understanding
Medida
Puedes comprobar el estado general de tu proyecto y comprobar las áreas con potencial de mejora en la sección Medida.
Medida del proyecto
La medición principal de la página es la puntuación del proyecto general.
Esta medida influye en las puntuaciones de clasificador y del extractor para todos los tipos de documentos. La puntuación de cada factor corresponde a la calificación del modelo y puede verse en Medida de clasificación y Medida de extracción, respectivamente.
La calificación del modelo es una funcionalidad destinada a ayudarte a visualizar el rendimiento de un modelo de clasificación. Se expresa como una puntuación del modelo de 0 a 100 de la siguiente manera:
- Deficiente (0-49)
- Promedio (50-69)
- Bueno (70-89)
- Excelente (90-100)
Independientemente de la puntuación del modelo, depende de ti decidir cuándo detener el entrenamiento, en función de las necesidades de tu proyecto. Incluso si un modelo tiene la calificación de Excelente, eso no significa que vaya a cumplir todos los requisitos empresariales.
Medida de clasificación
La puntuación de la Clasificación influye en el rendimiento del modelo, así como en el tamaño y la calidad del conjunto de datos.
La puntuación de clasificación solo está disponible si tienes más de un tipo de documento creado.
Si seleccionas Clasificación, se muestran dos pestañas en el lado derecho:
-
Factores: proporciona recomendaciones sobre cómo mejorar el rendimiento de tu modelo. Puedes obtener recomendaciones sobre el tamaño del conjunto de datos o el rendimiento del modelo entrenado para cada tipo de documento.
-
Métricas: proporciona métricas útiles, como el número de documentos de entrenamiento y prueba, precisión, exactitud, recuperación y puntuación F1 para cada tipo de documento.

Medida de extracción
La puntuación de extracción influye en el rendimiento general del modelo, así como en el tamaño y la calidad del conjunto de datos. Esta vista se divide en tipos de documentos. También puedes ir directamente a la vista Anotar de cada tipo de documento seleccionando Anotar.
Si seleccionas cualquiera de los tipos de documento disponibles en la vista de extracción, se muestran tres pestañas en el lado derecho:
-
Factores: proporciona recomendaciones sobre cómo mejorar el rendimiento de tu modelo. Puedes obtener recomendaciones sobre el tamaño del conjunto de datos (número de documentos cargados, número de documentos anotados) o el rendimiento del modelo entrenado (precisión de los campos) para el tipo de documento seleccionado.
-
Conjunto de datos: proporciona información sobre los documentos utilizados para entrenar el modelo, el número total de páginas importadas y el número total de páginas etiquetadas.
-
Métricas: proporciona información y métricas útiles, como el nombre del campo, el número de estados de entrenamiento y la precisión para el tipo de documento seleccionado. También puedes acceder a métricas avanzadas para tus modelos de extracción utilizando el botón Descargar métricas avanzadas . Esta característica te permite descargar un archivo de Excel con métricas detalladas y resultados del modelo por lote.

Diagnóstico de conjuntos de datos
La pestaña Conjunto de datos te ayuda a crear conjuntos de datos eficaces proporcionando retroalimentación y recomendaciones de los pasos necesarios para lograr una buena precisión para el modelo entrenado.

Hay tres niveles de estado del conjunto de datos expuestos en la barra de administración:
- Rojo: se necesitan más datos de entrenamiento etiquetados.
- Naranja: se recomienda que haya más datos de entrenamiento etiquetados.
- Verde claro: los datos de entrenamiento etiquetados están dentro de las recomendaciones.
- Verde oscuro : los datos de entrenamiento etiquetados están dentro de las recomendaciones. Sin embargo, es posible que se necesiten más datos para los campos de bajo rendimiento.
Si no se crea ningún campo en la sesión, el nivel de estado del conjunto de datos es gris.
Comparar modelo
Puedes comparar el rendimiento de dos versiones de un modelo de clasificación o extracción desde la sección Medir.
Comparación de modelos de clasificación
Para comparar el rendimiento de dos versiones de un modelo de clasificación, ve primero a la sección Medir. A continuación, selecciona Comparar modelo para el modelo de clasificación en el que estás interesado.
Puedes elegir las versiones que quieres comparar de la lista desplegable en la parte superior de cada columna. De forma predeterminada, la versión actual, que indica la versión más reciente disponible, se selecciona a la izquierda y la versión publicada más reciente a la derecha.
Figura 1. Comparación de modelos de clasificación

Comparar modelos de clasificación depende de cuatro métricas clave:
- Precisión: la proporción de instancias positivas predichas correctamente sobre el total de instancias predichas como positivas. Un modelo con una alta precisión indica menos falsos positivos.
- Precisión: la proporción de predicciones correctas (incluidos tanto positivos verdaderos como negativos verdaderos) del total de instancias.
- Recuperación: la proporción de casos positivos reales que se identificaron correctamente.
- Puntuación F1: la media geométrica de precisión y recuperación, que tiene como objetivo lograr un equilibrio entre estas dos métricas. Esto sirve como una compensación entre falsos positivos y falsos negativos.
El orden de los tipos de documento que se muestra es el utilizado en la versión más reciente de la comparación. Si un tipo de documento no está disponible en una de las versiones comparadas, los valores para cada medida se reemplazan con N/A.
Si un campo se eliminó en la versión actual pero estaba disponible en la versión anterior antes de que estuviera disponible la característica Comparar modelo , el nombre se reemplaza por Desconocido.
Comparación de modelos de extracción
Para comparar el rendimiento de dos versiones de un modelo de extracción, ve primero a la sección Medir. A continuación, selecciona Comparar modelo para el modelo de extracción en el que estás interesado.
Puedes elegir las versiones que quieres comparar de la lista desplegable en la parte superior de cada columna. De forma predeterminada, la versión actual, que indica la versión más reciente disponible, se selecciona a la izquierda y la versión publicada más reciente a la derecha.
Figura 2. Comparación de modelos de extracción

La comparación de modelos de extracción se basa en las siguientes métricas clave:
- Nombre del campo: el nombre del campo de anotación.
- Tipo de contenido: el tipo de contenido del campo:
- Cadena
- Número
- Fecha
- Teléfono
- Número de identificación
- Clasificación: puntuación del modelo destinada a ayudarte a visualizar el rendimiento del campo extraído.
- Precisión: la fracción del número total de predicciones que el modelo hace que son correctas.
El orden de los nombres de los campos que se muestra es el utilizado en la versión más reciente de la comparación. Si un nombre de campo no está disponible en una de las versiones comparadas, los valores para cada medida se reemplazan con N/A.
Si un campo se eliminó en la versión actual pero estaba disponible en la versión anterior antes de que estuviera disponible la característica Comparar modelo , el nombre se reemplaza por Desconocido.
También puedes comparar la puntuación de campo de las tablas de la sección Tabla.
Puedes descargar el archivo de métricas avanzadas para cada versión desde la página de comparación desde el botón Descargar métricas avanzadas.