- Información general
- Primeros pasos
- Crear modelos
- Consumir modelos
- Paquetes ML
- 1040: paquete ML
- 1040 Anexo C - Paquete ML
- 1040 Anexo D - Paquete ML
- 1040 Anexo E - Paquete ML
- 1040x: paquete ML
- 3949a: paquete ML
- 4506T: paquete ML
- 709: paquete ML
- 941x: paquete ML
- 9465: paquete ML
- ACORD125: paquete ML
- ACORD126 - Paquete ML
- ACORD131 - Paquete ML
- ACORD140 - Paquete ML
- ACORD25 - Paquete ML
- Extractos bancarios: paquete ML
- Conocimientos de embarque: paquete ML
- Certificado de incorporación: paquete ML
- Certificado de origen: paquete ML
- Cheques: paquete ML
- Certificado de producto secundario: paquete ML
- CMS1500 - Paquete ML
- Declaración de conformidad de la UE: Paquete ML
- Estados financieros: paquete ML
- FM1003: paquete ML
- I9 - Paquete ML
- Documentos de identidad: paquete ML
- Facturas: paquete ML
- FacturasAustralia: paquete ML
- FacturasChina - Paquete ML
- Facturas en hebreo: paquete ML
- FacturasIndia - Paquete ML
- FacturasJapón - Paquete ML
- Envío de facturas: paquete ML
- Listas de embalaje: paquete ML
- Nóminas - - Paquete ML
- Pasaportes: paquete ML
- Órdenes de compra: paquete ML
- Recibos: paquete ML
- ConsejosDeRemesas: paquete ML
- UB04 - Paquete ML
- Facturas de servicios públicos: paquete ML
- Títulos de vehículos: paquete ML
- W2 - Paquete ML
- W9 - Paquete ML
- Puntos finales públicos
- Idiomas admitidos
- Paneles de insights
- Datos y seguridad
- Licencia
- Tutorial
- Solución de problemas

Guía del usuario de proyectos modernos de Document Understanding
Medida
Puedes comprobar el estado general de tu proyecto y comprobar las áreas con potencial de mejora en la sección Medida.
La medición principal de la página es la puntuación del proyecto general.
Esta medida influye en las puntuaciones de clasificador y del extractor para todos los tipos de documentos. La puntuación de cada factor corresponde a la calificación del modelo y puede verse en Medida de clasificación y Medida de extracción, respectivamente.
- Deficiente (0-49)
- Promedio (50-69)
- Bueno (70-89)
- Excelente (90-100)
Independientemente de la puntuación del modelo, depende de ti decidir cuándo detener el entrenamiento, en función de las necesidades de tu proyecto. Incluso si un modelo tiene la calificación de Excelente, eso no significa que vaya a cumplir todos los requisitos empresariales.
La puntuación de la Clasificación influye en el rendimiento del modelo, así como en el tamaño y la calidad del conjunto de datos.
- Factores: proporciona recomendaciones sobre cómo mejorar el rendimiento de tu modelo. Puedes obtener recomendaciones sobre el tamaño del conjunto de datos o el rendimiento del modelo entrenado para cada tipo de documento.
- Métricas: proporciona métricas útiles, como el número de documentos de entrenamiento y prueba, la precisión, la exactitud, la recuperación y la puntuación F1 para cada tipo de documento.
La Puntuación de extracción influye en el rendimiento general del modelo, así como en el tamaño y la calidad del conjunto de datos. Esta vista está dividida en tipos de documentos. También puedes ir directamente a la vista Anotar de cada tipo de documento haciendo clic en Anotar.
- Factores: proporciona recomendaciones sobre cómo mejorar el rendimiento de tu modelo. Puedes obtener recomendaciones sobre el tamaño del conjunto de datos (número de documentos cargados, número de documentos anotados) o el rendimiento del modelo entrenado (precisión de los campos) para el tipo de documento seleccionado.
- Conjunto de datos: proporciona información sobre los documentos usados para el entrenamiento del modelo, el número total de páginas importadas y el número total de páginas etiquetadas.
- Métricas: proporciona métricas e información útiles, como el nombre del campo, el número de estado de entrenamiento y la precisión para el tipo de documento seleccionado. También puedes acceder a métricas avanzadas para tus modelos de extracción utilizando el botón Descargar métricas avanzadas. Esta funcionalidad te permite descargar un archivo de Excel con métricas detalladas y resultados del modelo por lote.
La pestaña Conjunto de datos te ayuda a crear conjuntos de datos eficaces proporcionando retroalimentación y recomendaciones de los pasos necesarios para lograr una buena precisión para el modelo entrenado.
Hay tres niveles de estado del conjunto de datos expuestos en la barra de administración:
- Rojo: se necesitan más datos de entrenamiento etiquetados.
- Naranja: se recomienda que haya más datos de entrenamiento etiquetados.
- Light green - Labelled training data is within recommendations.
- Dark green - Labelled training data is within recommendations. However, more data might be needed for underperforming fields.
Si no se crea ningún campo en la sesión, el nivel de estado del conjunto de datos es gris.
Puedes comparar el rendimiento de dos versiones de un modelo de clasificación o extracción desde la sección Medir .
Para comparar el rendimiento de dos versiones de un modelo de clasificación, primero ve a la sección Medir . A continuación, selecciona Comparar modelo para el modelo de clasificación que te interesa.
Puedes elegir las versiones que quieres comparar de la lista desplegable en la parte superior de cada columna. De forma predeterminada, la versión actual, que indica la versión más reciente disponible, se selecciona a la izquierda y la versión publicada más reciente a la derecha.
- Precisión: la relación entre las instancias positivas predichas correctamente y el total de instancias que se predijeron como positivas. Un modelo con una alta precisión indica menos falsos positivos.
- Precisión: la proporción de predicciones correctas (incluidos tanto los verdaderos positivos como los verdaderos negativos) del total de instancias.
- Recuperación: la proporción de casos positivos reales que se identificaron correctamente.
- Puntuación F1: la media geométrica de precisión y recuperación, con el objetivo de lograr un equilibrio entre estas dos métricas. Esto sirve como compensación entre falsos positivos y falsos negativos.
El orden de los tipos de documentos mostrados es el utilizado en la última versión de la comparación. Si un tipo de documento no está disponible en una de las versiones comparadas, los valores de cada medida se sustituyen por N/A.
Para comparar el rendimiento de dos versiones de un modelo de extracción, primero ve a la sección Medir . A continuación, selecciona Comparar modelo para el modelo de extracción que te interesa.
Puedes elegir las versiones que quieres comparar de la lista desplegable en la parte superior de cada columna. De forma predeterminada, la versión actual, que indica la versión más reciente disponible, se selecciona a la izquierda y la versión publicada más reciente a la derecha.
- Nombre del campo: el nombre del campo de anotación.
- Tipo de contenido: el tipo de contenido del campo:
- Cadena
- Número
- Fecha
- Teléfono
- Número de identificación
- Calificación: puntuación del modelo destinada a ayudarte a visualizar el rendimiento del campo extraído.
- Precisión: la fracción del número total de predicciones que hace el modelo que son correctas.
El orden de los nombres de campo mostrados es el utilizado en la última versión de la comparación. Si un nombre de campo no está disponible en una de las versiones comparadas, los valores de cada medida se sustituyen por N/A.
También puedes comparar la puntuación de campo para las tablas desde la sección Tabla .
Puedes descargar el archivo de métricas avanzadas para cada versión desde la página de comparación desde el botón Descargar métricas avanzadas .