- Notas de Versão
- Requisitos
- Instalação
- Introdução
- Projetos
- Conjuntos de dados
- Pacotes de ML
- Pipelines
- Habilidades de ML
- Logs de ML
- Document Understanding no AI Fabric
- Guia básico de solução de problemas
AI Fabric de nó único
Em resumo, a instalação do AI Fabric precisa executar essas etapas:
Etapa | Tempo ativo | Tempo de espera |
---|---|---|
1. Fornecimento de Máquina AIF | < 5 min | -- |
2. Configure o banco de dados | < 1 min | -- |
3. Configure o Orchestrator | < 5 min | -- |
4. Execute o instalador da infraestrutura AI Fabric | < 1 min | ~20 min |
5. Execute o instalador do aplicativo AI Fabric | < 5 min | ~20 min |
6. Verifique a instalação | ~5 min | -- |
- A máquina Linux na qual o AI Fabric será instalado precisa ser capaz de se conectar à máquina do Orchestrator (domínio e porta).
- A máquina Linux na qual o AI Fabric será instalado precisa ser capaz de se conectar ao SQL Server (domínio/IP e porta).
- Os Robots/Studio que usarão o AI Fabric precisam de conectividade com a máquina Linux do AI Fabric.
Para componentes periféricos do Document Understanding (Data Manager e mecanismos de OCR):
- O Data Manager precisa de acesso ao AI Fabric no local:<port_number> ou a endpoints SaaS públicos como https://invoices.uipath.com caso seja necessário pré-rótulo (pré-rótulo é opcional).
- O Data Manager precisa acessar o mecanismo OCR:<port_number>. O mecanismo de OCR pode ser UiPath Document OCR no local, Omnipage OCR no local, Google Cloud Vision OCR, Microsoft Read Azure, Microsoft Read no local.
- Os robôs precisam acessar o OCR :<port_number>. As mesmas opções de OCR acima, exceto para Omnipage, que está disponível nos robôs diretamente como um pacote de atividades.
A instalação do AI Fabric Online se refere a uma instalação local que baixa o aplicativo do AI Fabric e todos os artefatos relacionados (por exemplo, modelos de aprendizado de máquina) da internet.
O instalador do AI Fabric baixa imagens de contêiner e modelos de aprendizado de máquina para preencher sua instância do AI Fabric com aprendizado de máquina pronto para uso (isso inclui modelos do Document Understanding). Por esse motivo, no momento da instalação, a máquina Linux precisa acessar esses endpoints sobre https (porta 443):
Nome do Host | Finalidade |
---|---|
registry.replicated.com | As imagens upstream do Docker são obtidas por meio do registry.replicated.com. Esse domínio é de propriedade da Replicated, Inc, que está sediada em Los Angeles, CA, EUA |
proxy.replicated.com | As imagens upstream do Docker são obtidas por meio do proxy.replicated.com. O cliente do docker no local usa uma ID de licença para se autenticar no proxy.replicated.com. Esse domínio é de propriedade da Replicated, Inc, que está sediada em Los Angeles, CA, EUA |
replicated.app | O YAML e os metadados do aplicativo upstream são obtidos de replicated.app. A versão atual em execução do aplicativo (se houver) será enviada, além de uma ID de licença. As IDs dos aplicativos são enviadas para o replicated.app para autenticar e receber esses arquivos do YAML. Esse domínio é de propriedade da Replicated, Inc, que está sediada em Los Angeles, CA, EUA |
get.replicated.com | Sincronize os artefatos em relação aos replicados. Esse domínio é de propriedade da Replicated, Inc, que está sediada em Los Angeles, CA, EUA |
api.replicated.com | Solicitações de API para o instalador da infraestrutura. Esse domínio é de propriedade da Replicated, Inc, que está sediada em Los Angeles, CA, EUA |
k8s.kurl.sh | Os scripts e artefatos de instalação do cluster do Kubernetes são servidos a partir de kurl.sh. Um identificador do aplicativo é enviado em um caminho de URL, e os scripts do bash e executáveis binários são servidos a partir de kurl.sh. Esse domínio é de propriedade da Replicated, Inc, que está sediada em Los Angeles, CA, EUA |
kurl-sh.s3.amazonaws.com | Os pacotes tar.gz são baixados do Amazon S3 durante as instalações do cluster integrado. Os intervalos de IP para liberar acesso na lista de permissões podem ser extraídos dinamicamente a partir da documentação do AWS IP Address Ranges1. |
*.docker.io | As imagens do Docker a montante são retiradas do docker.io. Pode haver vários subdomínios, como registry-1.docker.io; assim, o padrão para a direita deve ser permitido. |
*.docker.com | Outras imagens upstream do docker são obtidas de docker.com. Pode haver vários subdomínios e, assim, o padrão para a direita deve ser permitido. |
raw.githubusercontent.com | Para os scripts criarem a implantação da alegação de volume persistente. |
quay.io | Fornece imagens de contêineres. |
registry.k8s.io | As imagens upstream são baixadas do registry.k8s.io. |
Esses endpoints só precisam ter permissão para fazer conexões para usar uma GPU com o AI Fabric. Toda a instalação da GPU é feita por meio do script do instalador da GPU em 4. Execute o instalador da infraestrutura do AI Fabric .
Nome do Host | Finalidade |
---|---|
developer.download.nvidia.com | Baixe os drivers da GPU da NVIDIA. |
nvidia.github.io | Baixe https://nvidia.github.io/nvidia-docker/gpgkey e nvidia-docker.list |
raw.githubusercontent.com | O script baixará internamente um arquivo do YAML do github.com/NVIDIA/k8s-device-plugin |
No runtime, um AI Fabric que foi instalado por meio do instalador online se conecta a esses endpoints:
Nome do Host | Finalidade |
---|---|
du-metering.uipath.com | Para contabilizar e validar as licenças do Document Understanding. |
registry.replicated.com | As imagens upstream do docker são obtidas por meio de um registro do docker privado do registry.replicated.com. Esse domínio é de propriedade da Replicated, Inc, que está sediada em Los Angeles, CA, EUA. |
raw.githubusercontent.com | Para os scripts atualizarem os modelos prontos para uso diariamente. |
github.com | Para os scripts atualizarem os modelos prontos para uso diariamente. |
personalizado (opcional) | Isso depende de como a persona que usa o AI Fabric optou por criar seus pacotes de ML. O AI Fabric cria dinamicamente uma imagem do contêiner. As dependências dessa imagem podem ser agrupadas no próprio pacote de ML (nesse caso, não há chamadas de rede de saída extras feitas) ou podem ser especificadas em um arquivo requirements.txt. Esse arquivo pode especificar o local a partir do qual as dependências serão baixadas. |
A instalação do AI Fabric isolado se refere a uma instalação no local acionada após um download único de um domínio da uipath.
Não é necessária uma conexão com a internet durante a instalação (observação: se o nó tiver uma GPU, isso supõe que a versão 450.51.06 do driver do NVIDIA e o nvidia-container-runtime foram instalados conforme detalhado no pré-requisito para uma instalação isolada).
No tempo de execução do aplicativo, depende completamente do usuário do AI Fabric se a conectividade será necessária ou não. Um usuário do AI Fabric cria pacotes de ml que podem ser implantados e treinados no AI Fabric. O AI Fabric cria dinamicamente uma imagem do contêiner desse pacote de ML. As dependências dessa imagem podem ser agrupadas no próprio pacote de ML (nesse caso, não há chamadas de rede de saída extras feitas) ou podem ser especificadas em um arquivo requirements.txt. Esse arquivo pode especificar o local a partir do qual as dependências serão baixadas, como um repositório de dependências de pacotes Python seguro e interno.