- Notas de versão
- Visão geral
- Configuração e Instalação
- Requisitos de software
- Requisitos de Hardware
- Implantação do servidor
- Conexão ao servidor
- Licenciamento
- Armazenamento de dados
Requisitos de software
Os sistemas operacionais compatíveis com o servidor do Computer Vision são:
- Microsoft Windows 10 21H2, Windows 11
- Ubuntu v16.04, v18.04, v20.04, v22.04
- RHEL 8, 9
O servidor do Windows Computer Vision usa uma implantação baseada em contêiner com Docker no Windows Subsystem for Linux (WSL) 2. O seguinte precisa estar instalado:
- WSL 2
- Docker Desktop para Windows ou Docker Engine (se instalado diretamente no WSL)
- Driver de vídeo Nvidia Windows 11
- Nvidia Container Toolkit
Os seguintes recursos devem ser instalados na máquina em que você deseja implantar:
- CUDA v11.1
- cuDNN8 v8.2.1
- Docker
- Nvidia Container Toolkit
Por conveniência, a UiPath fornece um script para instalar esses pré-requisitos. Este script é fornecido "no estado em que está", sem qualquer garantia implícita ou explícita. Para instalar os pré-requisitos usando esse script, execute a seguinte linha no terminal da máquina da GPU:
curl -fsSL https://raw.githubusercontent.com/UiPath/Infrastructure/main/ML/ml_prereq_all.sh | sudo bash -s -- --env gpu
curl -fsSL https://raw.githubusercontent.com/UiPath/Infrastructure/main/ML/ml_prereq_all.sh | sudo bash -s -- --env gpu
Essa linha executa um script hospedado pelo UiPath, que baixa e instala automaticamente os recursos acima. Terminado o script e instalados os recursos, para iniciar uma instância de servidor de qualquer modelo de Machine Learning, é necessário um arquivo zip contendo o modelo. Este arquivo zip contém um script de ponto de entrada e um script de teste de velocidade local.
Se quiser saber mais sobre os detalhes técnicos deste script, você pode visitar o UiPath Infrastructure Github Repository.
Os seguintes recursos devem ser instalados na máquina em que você deseja implantar:
- CUDA v11.1
- cuDNN8 v8.2.1
- Podman
Por conveniência, a UiPath fornece um script para instalar esses pré-requisitos. Este script é fornecido "no estado em que está", sem qualquer garantia implícita ou explícita. Para instalar os pré-requisitos usando esse script, execute a seguinte linha no terminal da máquina da GPU:
curl -fsSL https://raw.githubusercontent.com/UiPath/Infrastructure/main/ML/ml_prereq_podman_rhel8.sh | sudo bash -s -- --env gpu
curl -fsSL https://raw.githubusercontent.com/UiPath/Infrastructure/main/ML/ml_prereq_podman_rhel8.sh | sudo bash -s -- --env gpu
Essa linha executa um script hospedado pelo UiPath, que baixa e instala automaticamente os recursos acima. Terminado o script e instalados os recursos, para iniciar uma instância de servidor de qualquer modelo de Machine Learning, é necessário um arquivo zip contendo o modelo. Este arquivo zip contém um script de ponto de entrada e um script de teste de velocidade local.
Se quiser saber mais sobre os detalhes técnicos deste script, você pode visitar o UiPath Infrastructure Github Repository.