document-understanding
2022.10
false
- Información general
- Proceso de Document Understanding
- Tutoriales de inicio rápido
- Componentes de marco
- Resumen de la clasificación de documentos
- Asistente para Configurar clasificadores de Clasificar ámbito de documento
- Clasificador basado en palabras clave
- Clasificador inteligente de palabra clave
- Clasificador de CapturaFlexible
- Clasificador de aprendizaje automático
- Actividades relacionadas con la clasificación de documentos
- Consumo de datos
- Paquetes ML
- Procesos
- Administrador de documentos
- Servicios de OCR
- Document Understanding implementado en Automation Suite
- Instalar y utilizar
- Primera experiencia de ejecución
- Implementar UiPathDocumentOCR
- Implementar un paquete ML listo para usar
- Paquetes sin conexión 2022.10.0
- Paquetes sin conexión 2022.10.2
- Paquetes sin conexión 2022.10.4
- Paquetes sin conexión 2022.10.6
- Paquetes sin conexión 2022.10.9
- Paquetes sin conexión 2022.10.10
- Paquetes sin conexión 2022.10.11
- Paquetes sin conexión 2022.10.12
- Paquetes sin conexión 2022.10.13
- Paquetes sin conexión 2022.10.14
- Utiliza Document Manager
- Utilizar el marco
- Document Understanding implementado en AI Center independiente
- Aprendizaje profundo
- Licencia
- Referencias
- Actividades.DeUipath
- UiPath.AbbyyEmbedded.Activities
- UiPath.DocumentUnderstanding.ML.Activities
- UiPath.DocumentUnderstanding.OCR.LocalServer.Activities
- UiPath.IntelligentOCR.Activities
- UiPath.OCR.Activities
- UiPath.OCR.Contracts
- UiPath.DocumentProcessing.Contracts
- UiPath.OmniPage.Activities
- UiPath.PDF.Activities
Procesos de evaluación
Guía del usuario de Document Understanding
Última actualización 11 de nov. de 2024
Procesos de evaluación
Un proceso de evaluación se utiliza para evaluar un modelo ML entrenado.
Configura el proceso de evaluación de la siguiente manera:
- En el campo Tipo de proceso, selecciona Ejecución de evaluación.
- En el campo Elegir paquete, selecciona el paquete que deseas evaluar.
- En el campo Elegir la versión principal del paquete, selecciona una versión principal para tu paquete.
- En el campo Elegir la versión secundaria del paquete, selecciona la versión secundaria que deseas evaluar.
- En el campo Elegir conjunto de datos de evaluación, selecciona un conjunto de datos de evaluación representativo.
- En la sección Introducir parámetros, existe una variable de entorno, relevante para los procesos de evaluación, que puedes utilizar:
eval.redo_ocr
que, si se establece en Verdadero, te permite volver a ejecutar el OCR al ejecutar el proceso para evaluar el impacto del OCR en la precisión de la extracción. Esto presupone que se ha configurado un motor OCR cuando se ha creado el paquete ML.- El control deslizante de Habilitar GPU está desactivado de manera predeterminada, en cuyo caso el proceso se ejecuta en la CPU. Se recomienda encarecidamente que los procesos de evaluación se ejecuten únicamente en la CPU.
-
Selecciona una de las opciones de cuando debe ejecutarse el proceso: Ejecutar ahora, Basado en tiempo o Recurrente.
Tras configurar todos los campos, haz clic en Crear. El proceso se creará.
En el caso de un proceso de evaluación, el panel de resultados también incluye una carpeta artifacts / eval_metrics que contiene dos archivos:
evaluation_default.xlsx
es una hoja de cálculo de Excel con tres hojas diferentes:- La primera hoja presenta un resumen de las puntuaciones globales y de las puntuaciones por lote, para cada campo: Regular, Columna y Clasificación. También se proporciona un porcentaje de los documentos correctamente extraídos, tanto para cada lote como para el conjunto de los documentos.
- La segunda hoja presenta una comparación paralela, codificada por colores, de los Campos regulares, para aumentar la precisión de los documentos. Los documentos más inexactos se presentan en la parte superior para facilitar el diagnóstico y la resolución de problemas.
-
La tercera hoja presenta una comparación paralela, codificada por colores, de los campos de columna.
Todas las puntuaciones mostradas en el archivo de Excel representan puntuaciones de precisión.
evaluation_metrics_default.txt
contiene las puntuaciones de F1 de los campos predichos.