automation-suite
2022.4
false
- Información general
- Requisitos
- Instalación
- Preguntas y respuestas: plantillas de implementación
- Descarga de los paquetes de instalación
- parámetros de install-uipath.sh
- Habilitar el complemento de alta disponibilidad (HAA) de Redis para el clúster
- Archivo de configuración de Document Understanding
- Inclusión de un nodo agente dedicado compatible con GPU
- Conexión de la aplicación Task Mining
- Añadir un nodo agente dedicado a Task Mining
- Después de la instalación
- Administración de clústeres
- Gestionar los productos
- Gestionar el clúster en ArgoCD
- Configurar el servidor NFS externo
- Automatizado: Habilitar la copia de seguridad en el clúster
- Automatizado: Deshabilitar la copia de seguridad en el clúster
- Automatizado, en línea: restaurar el clúster
- Automatizado, sin conexión: restaurar el clúster
- Manual: Habilitar la copia de seguridad en el clúster
- Manual : Deshabilitar la copia de seguridad en el clúster
- Manual, en línea: restaurar el clúster
- Manual, sin conexión: restaurar el clúster
- Configuración adicional
- Migrating objectstore from persistent volume to raw disks
- Supervisión y alertas
- Migración y actualización
- Opciones de migración
- Paso 1: Mover los datos de la organización de identidad de independiente a Automation Suite
- Paso 2: restaurar la base de datos del producto independiente
- Paso 3: Realizar una copia de seguridad de la base de datos de la plataforma en Automation Suite
- Paso 4: Fusionar organizaciones en Automation Suite
- Paso 5: actualizar las cadenas de conexión de los productos migrados
- Paso 6: migrar Insights independiente
- Paso 7: eliminar el tenant predeterminado
- B) Migración de tenant único
- Configuración específica del producto
- Buenas prácticas y mantenimiento
- Solución de problemas
- Cómo solucionar los problemas de los servicios durante la instalación
- Cómo desinstalar el clúster
- Cómo limpiar los artefactos sin conexión para mejorar el espacio en disco
- Cómo borrar datos de Redis
- Cómo habilitar el registro de Istio
- Cómo limpiar manualmente los registros
- Cómo limpiar los registros antiguos almacenados en el depósito sf-logs
- Cómo deshabilitar los registros de transmisión para AI Center
- Cómo depurar instalaciones de Automation Suite fallidas
- Cómo eliminar imágenes del instalador antiguo después de la actualización
- Cómo limpiar automáticamente las instantáneas de Longhorn
- Cómo deshabilitar la descarga de la suma de comprobación TX
- Cómo abordar los cifrados débiles en TLS 1.2
- No se puede ejecutar una instalación sin conexión en el sistema operativo RHEL 8.4
- Error al descargar el paquete
- La instalación sin conexión falla porque falta un binario
- Problema de certificado en la instalación sin conexión
- First installation fails during Longhorn setup
- Error de validación de la cadena de conexión SQL
- Error en la comprobación de requisitos previos para el módulo iscsid de selinux
- Azure disk not marked as SSD
- Fallo tras la actualización del certificado
- Automation Suite not working after OS upgrade
- Automation Suite requiere que Backlog_wait_time se establezca 1
- El volumen no se puede montar porque no está listo para las cargas de trabajo
- RKE2 falla durante la instalación y la actualización
- Fallo al cargar o descargar datos en el almacén de objetos
- PVC resize does not heal Ceph
- Fallo en el redimensionamiento de PVC de objectstore
- Rook Ceph o Looker pod atascados en estado Init
- Error de archivo adjunto de volumen de StatefulSet
- Fallo en la creación de volúmenes persistentes
- Parche de reclamación de almacenamiento
- La copia de seguridad falló debido al error
- Todas las réplicas de Longhorn son defectuosas
- Establecer un intervalo de tiempo de espera para los portales de gestión
- Actualizar las conexiones del directorio subyacente
- No se puede iniciar la sesión después de la migración
- kinit: no se puede encontrar la KDC para el territorio <AD Domain> mientras se obtienen las credenciales iniciales
- kinit: keytab no contiene claves adecuadas para *** mientras se obtienen las credenciales iniciales
- La operación GSSAPI ha fallado con un error: se ha suministrado un código de estado no válido (las credenciales del cliente han sido revocadas).
- Alarma recibida por trabajo de actualización Kerberos-tgt fallido
- Proveedor SSPI: servidor no encontrado en la base de datos de Kerberos
- Inicio de sesión fallido para el usuario <ADDOMAIN><aduser>. Razón: cuenta deshabilitada.
- ArgoCD login failed
- Fallo en la obtención de la imagen de Sandbox
- Los pods no se muestran en la interfaz de usuario de ArgoCD
- Fallo de la sonda Redis
- El servidor RKE2 no se inicia
- Secreto no encontrado en el espacio de nombres UiPath
- Después de la instalación inicial, la aplicación ArgoCD pasó al estado de progreso
- Pods MongoDB en CrashLoopBackOff o pendientes de aprovisionamiento de PVC tras su eliminación
- Inconsistencia inesperada, ejecuta fsck manualmente
- MongoDB o aplicaciones empresariales degradadas después de la restauración del clúster
- Falta el operador de Self-heal y el repositorio de Sf-k8-utils
- Servicios en mal estado después de la restauración o reversión del clúster
- El pod de RabbitMQ se atasca en CrashLoopBackOff
- Prometheus en estado CrashloopBackoff con error de falta de memoria (OOM)
- Faltan métricas de Ceph-rook en los paneles de supervisión
- Los pods no pueden comunicarse con FQDN en un entorno de proxy
- Document Understanding no se encuentra en la barra izquierda de Automation Suite
- Estado fallido al crear una sesión de etiquetado de datos
- Estado fallido al intentar implementar una habilidad ML
- El trabajo de migración falla en ArgoCD
- El reconocimiento de la escritura manual con el extractor de formularios inteligente no funciona
- Uso de la herramienta de diagnóstico de Automation Suite
- Uso de la herramienta del paquete de soporte de Automation Suite
- Explorar registros
Archivo de configuración de Document Understanding
Importante :
Este contenido se ha localizado parcialmente a partir de un sistema de traducción automática.
Guía de instalación de Automation Suite
Last updated 4 de nov. de 2024
Archivo de configuración de Document Understanding
documentunderstanding
es una propiedad del archivo de configuración de Automation Suite', cluster_config.json
. Contiene valores configurables que controlan la conducta del servicio de Document Understanding. El instalador genera los valores predeterminados. Pueden realizarse más cambios para configurar mejor el servicio de Document Understanding. Si tiene que cambiar ajustes relacionados con Document Understanding, puede editar la sección documentunderstanding
en cluster_config.json
y volver a ejecutar el instalador.
De forma alternativa, estos mismos cambios se pueden realizar en la aplicación de UiPath en ArgoCD.
"documentunderstanding": {
"enabled": Boolean,
"datamanager": {
"sql_connection_str" : "String"
}
"handwriting": {
"enabled": Boolean,
"max_cpu_per_pod": "Number"
}
}
"documentunderstanding": {
"enabled": Boolean,
"datamanager": {
"sql_connection_str" : "String"
}
"handwriting": {
"enabled": Boolean,
"max_cpu_per_pod": "Number"
}
}
Nota:
La cadena de conexión SQL de Data Manager es opcional solamente si desea sobrescribir la base de datos predeterminada con la suya.
La escritura manual está siempre habilitada para la instalación en línea.
"documentunderstanding": {
"enabled": true,
"datamanager": {
"sql_connection_str": "mssql+pyodbc://testadmin:myPassword@mydev-sql.database.windows.net:1433/datamanager?driver=ODBC+Driver+17+for+SQL+Server",
},
"handwriting": {
"enabled": true,
"max_cpu_per_pod": "2"
}
}
"documentunderstanding": {
"enabled": true,
"datamanager": {
"sql_connection_str": "mssql+pyodbc://testadmin:myPassword@mydev-sql.database.windows.net:1433/datamanager?driver=ODBC+Driver+17+for+SQL+Server",
},
"handwriting": {
"enabled": true,
"max_cpu_per_pod": "2"
}
}
Nota: El valor para
max_cpu_per_pod
es 2
por defecto, pero se puede ajustar según tus necesidades. Para obtener más información sobre cómo hacerlo, consulta la sección CPU máxima (opcional) por parámetro de pod .
- Cadena de conexión para Data Manager
- Obligatorio: Falso.
- No es necesario que configures esta propiedad, pues la genera y rellena el instalador, salvo que desees anular la cadena de conexión predeterminada. Para más detalles sobre la conexión a SQL, consulta la página Uso del archivo de configuración.
- Configuración de la funcionalidad de reconocimiento de escritura manual (parte de IntelligentFormExtractor)
- Obligatorio: Falso.
- Al configurar este valor como True se crean los recursos necesarios para realizar el reconocimiento de escritura manual. Debe establecerse en verdadero para usar IntelligentFormExtractor.
- Obligatorio: Falso
- Esta propiedad siempre está habilitada para la instalación en línea y deshabilitada para la instalación sin conexión (aislada). Para la instalación aislada, debe instalar el paquete sin conexión de Document Understanding antes de habilitar la escritura manual.
- La cantidad máxima de CPU que se permite utilizar a cada contenedor. El valor recomendado es 2.
- Obligatorio: Falso.
- Predeterminado: 2.
Si tiene previsto usar el Extractor inteligente de formularios con la función de detección de escritura manual, puede que tenga que ajustar el parámetro
handwriting.max_cpu_per_pod
para conseguir una mayor capacidad de procesamiento.
Los siguientes factores son necesarios para calcular el tamaño correcto:
- volumen total de documentos/año = V
- número esperado de fragmentos de escritura manual/documento = S
- días en los que el flujo de trabajo procesa documentos (días laborables, todos los días, fines de semana, etc.) = d
- horas en las que el flujo de trabajo procesa documentos = h
- Número de CPU = (V x S / (d x h)) / 1500
Por ejemplo, si espera procesar 1 millón de documentos al año mediante el Extractor inteligente de formularios para la detección de escritura manual, con una media de 50 segmentos, los días laborables de 00:00 a 08:00 (8 horas), el cálculo sería:
Number of CPUs = (1,000,000 x 50 / (250 x 8)) / 1500
= 25,000 / 1500
= 17 CPUs
Number of CPUs = (1,000,000 x 50 / (250 x 8)) / 1500
= 25,000 / 1500
= 17 CPUs
Para el modo de evaluación de nodo único, debe establecer el parámetro
max_cpu_per_pod
en 17.
Para el modo de producción multinodo preparado para alta disponibilidad (3 nodos), establezca el parámetro
max_cpu_per_pod
en 5-6.