- Notas relacionadas
- Requisitos
- Instalación
- Primeros pasos
- Proyectos
- Conjuntos de datos
- Paquetes ML
- Procesos
- Habilidades ML
- Logs de ML
- Document Understanding en AI Fabric
- Guía básica de resolución de problemas
Nodo único de AI Fabric
Al más alto nivel, la instalación de AI Fabric debe ejecutar estos pasos:
Paso | Tiempo activo | Tiempo de espera |
---|---|---|
1. Aprovisionar máquina AIF | <5 min | -- |
2. Configurar la base de datos | <1 min | -- |
3. Configurar Orchestrator | <5 min | -- |
4. Ejecutar el instalador de la infraestructura de AI Fabric | <1 min | ~20 minutos |
5. Ejecutar el instalador de la aplicación AI Fabric | <5 min | ~20 minutos |
6. Verificar la instalación | ~5 min | -- |
- La máquina Linux donde se instalará AI Fabric debe poder conectarse a la máquina de Orchestrator (dominio y puerto).
- La máquina Linux donde se instalará AI Fabric debe poder conectarse al servidor SQL Server (dominio/IP y puerto).
- Los UiPath Robots/Studio que utilicen AI Fabric necesitan conectividad a la máquina Linux de AI Fabric.
Para los componentes periféricos de Document Understanding (Data Manager y los motores OCR):
- Data Manager necesita acceso a AI Fabric local: <port_number> o a puntos finales de SaaS públicos como https://invoices.uipath.com en caso de que se necesite el preetiquetado (el preetiquetado es opcional).
- Data Manager necesita acceso al motor de OCR: <port_number>. El motor de OCR puede ser UiPath Document OCR local, Omnipage OCR local, Google Cloud Vision OCR, Microsoft Read Azure y Microsoft Read local.
- Los robots necesitan acceso a OCR: <port_number>. Las mismas opciones de OCR que las anteriores, excepto para Omnipage, que está disponible en los robots directamente como paquete de actividades.
La instalación de AI Fabric Online se refiere a una instalación On-Premises que descarga la aplicación AI Fabric y todos los artefactos relacionados (por ejemplo, modelos de aprendizaje automático) de Internet.
El instalador de AI Fabric descarga imágenes de contenedores y modelos de aprendizaje automático para rellenar tu instancia de AI Fabric con aprendizaje automático listo para usar (esto incluye modelos de Document Understanding). Por este motivo, en el momento de la instalación, la máquina Linux necesita acceso a estos puntos de conexión a través de https (puerto 443):
Nombre de host | Propósito |
---|---|
registry.replicated.com | Las imágenes originales de Docker se extraen a través de registry.replicated.com. Este dominio es propiedad de Replicated, Inc, que está ubicado en Los Ángeles, California. |
proxy.replicated.com | Las imágenes originales de Docker se extraen a través de proxy.replicated.com. El cliente de docker On-Premises utiliza un ID de licencia para autenticarse en proxy.replicated.com. Este dominio es propiedad de Replicated, Inc, que está ubicado en Los Ángeles, California. |
replicated.app | El archivo YAML de la aplicación básica y los metadatos se extraen de replicated.app. Se enviará la versión actual de la aplicación (si hubiera alguna) además de un ID de licencia. Los ID de la aplicación se envían a replicated.app para autenticar y recibir estos archivos YAML. Este dominio es propiedad de Replicated, Inc, que está ubicado en Los Ángeles, California. |
get.replicated.com | Sincroniza los artefactos desde los replicados. Este dominio es propiedad de Replicated, Inc, que está ubicado en Los Ángeles, California. |
api.replicated.com | Solicitudes de API para el instalador de infraestructura. Este dominio es propiedad de Replicated, Inc, que está ubicado en Los Ángeles, California. |
k8s.kurl.sh | Los scripts de instalación de clúster de Kubernetes y los artefactos se sirven desde kurl.sh. Se envía un identificador de aplicación en una ruta de URL, y se sirven scripts bash y ejecutables binarios desde kurl.sh. Este dominio es propiedad de Replicated, Inc, que está ubicado en Los Ángeles, California. |
kurl-sh.s3.amazonaws.com | Los paquetes tar.gz se descargan de Amazon S3 durante las instalaciones de clúster integradas. Los rangos de IP que debes añadir a una lista de confianza para acceder a estos paquetes pueden descartarse de forma dinámica desde la documentación de los rangos de dirección IP de AWS. |
*.docker.io | Las imágenes originales de Docker se extraen de docker.io. Puede haber varios subdominios como registry-1.docker.io, por lo que debe permitirse el patrón a la derecha. |
*.docker.com | Se extraen otras imágenes originales de Docker de docker.com. Puede haber varios subdominios, por lo que se debe permitir el patrón a la derecha. |
raw.githubusercontent.com | Para que los scripts creen la implementación de la solicitud de volumen persistente. |
quay.io | Proporciona imágenes de contenedor. |
registry.k8s.io | Las imágenes originales se extraen de registry.k8s.io. |
Estos puntos finales solo deben permitir conexiones para usar una GPU con AI Fabric. Toda la instalación de la GPU se realiza a través de nuestro script de instalador de GPU en 4. Ejecuta el instalador de infraestructura de AI Fabric .
Nombre de host | Propósito |
---|---|
developer.download.nvidia.com | Descarga los controladores de la GPU de NVIDIA. |
nvidia.github.io | Descarga https://nvidia.github.io/nvidia-docker/gpgkey y nvidia-docker.list. |
raw.githubusercontent.com | El script descargará un archivo YAML de github.com/NVIDIA/k8s-device-plugin de forma interna. |
En el runtime, un AI Fabric que se instaló a través del instalador en línea se conecta a estos puntos de conexión:
Nombre de host | Propósito |
---|---|
du-metering.uipath.com | Para responder de ello y validar las licencias de Document Understanding. |
registry.replicated.com | Las imágenes originales de Docker se extraen a través de un registro privado de docker de registry.replicated.com. Este dominio es propiedad de Replicated, Inc, que está ubicado en Los Ángeles, California. |
raw.githubusercontent.com | Para que los scripts actualicen los modelos OOB a diario. |
github.com | Para que los scripts actualicen los modelos OOB a diario. |
personalizado (opcional) | Esto depende de cómo la persona que usa AI Fabric haya elegido crear sus paquetes ml. AI Fabric crea dinámicamente una imagen de contenedor. Las dependencias para esa imagen pueden agruparse dentro del propio paquete ML (en cuyo caso no se realizan llamadas de red salientes adicionales), o pueden especificarse en un archivo requirements.txt. Este archivo puede especificar la ubicación desde la que se descargarán las dependencias. |
La instalación aislada de AI Fabric se refiere a una instalación On-Premises que se activa después de una descarga de un solo uso desde un dominio de UiPath.
No se requiere conexión a Internet en el momento de la instalación. (Nota: si el nodo tiene una GPU, esto supone que la versión 450.51.06 del controlador NVIDIA y el runtime nvidia-container-runtime se han instalado como se explica en el requisito previo para una instalación aislada).
En el tiempo de ejecución de la aplicación, si se requiere conectividad o no depende completamente del usuario de AI Fabric. Un usuario de AI Fabric crea paquetes ml que se pueden implementar y entrenar en AI Fabric. AI Fabric crea dinámicamente una imagen de contenedor a partir de ese paquete ML. Las dependencias para esa imagen pueden agruparse dentro del propio paquete ML (en cuyo caso no se realizan llamadas de red salientes adicionales), o pueden especificarse en un archivo requirements.txt. Este archivo puede especificar la ubicación desde la que se descargarán las dependencias, como un repositorio de dependencias interno y seguro de paquetes de Python.