- Visão geral
- Processo do Document Understanding
- Tutoriais de início rápido
- Componentes do framework
- Pacotes de ML
- Sobre os pacotes de ML
- Configuração de OCR
- Requisitos de Hardware
- Pipelines
- Document Manager
- Serviços de OCR
- Document Understanding implantado no Automation Suite
- Document Understanding implantado no AI Center autônomo
- Aprendizagem profunda
- Licenciamento
- Referências
- UiPath.Abbyy.Activities
- UiPath.AbbyyEmbedded.Activities
- UiPath.DocumentUnderstanding.ML.Activities
- UiPath.DocumentUnderstanding.OCR.LocalServer.Activities
- UiPath.IntelligentOCR.Activities
- UiPath.OCR.Activities
- UiPath.OCR.Contracts
- UiPath.DocumentProcessing.Contracts
- UiPath.OmniPage.Activities
- UiPath.PDF.Activities
Requisitos de Hardware
A execução de Pacotes de ML do Document Understanding em uma GPU inclui uma otimização destinada a acelerar o processo de treinamento.
Como resultado, o treinamento em GPU é cinco vezes mais rápido do que em CPU (anteriormente era de 10 a 20 vezes mais rápido). Isso também possibilita treinar modelos em CPU com até 5.000 páginas (anteriormente eram 500 no máximo).
Esteja ciente de que os modelos de treinamento do Document Understanding na GPU exigem uma GPU com pelo menos 11 GB de RAM de vídeo para ser executado com sucesso.
Use a tabela abaixo para verificar a compatibilidade entre os Pacotes de ML, a versão CUDA e a versão do driver GPU.
Versão de pacotes de ML |
Versão CUDA |
Driver NVIDIA (versão compatível mais antiga) |
Geração de hardware |
---|---|---|---|
2022.10 | CIDA 11.3 | R450.80.03 | Ampere, Turing, Volta, Pascal, Maxwell, Kepler |
2022.4 | CUDA 11.3 | R450.36.06 | Ampere, Turing, Volta, Pascal, Maxwell, Kepler |
CUDA é retrocompatível, o que significa que os aplicativos CUDA existentes podem continuar a ser usados com versões CUDA mais recentes.
Mais informações sobre compatibilidade podem ser encontradas aqui.
Você pode usar o framework do Document Understanding para ler texto usando um mecanismo de OCR, classificando os documentos e extraindo suas informações. Embora as tarefas de classificação e extração sejam executadas na CPU, recomenda-se que o OCR seja executado na GPU (apesar de uma versão da CPU também ser fornecida caso uma GPU não esteja disponível).
A implantação local (On-premises) é feita usando o Automation Suite e seus requisitos de hardware.
Você pode usar o mesmo tipo de máquina virtual (VM) para extratores e classificadores, sendo a única diferença o tamanho da infraestrutura. Recomendamos usar o mecanismo de OCR com uma VM de GPU. A compatibilidade entre os Pacotes de ML, versão CUDA e versão do driver GPU é descrita na seção Matriz de compatibilidade .
Vamos dar um exemplo real para entender melhor os requisitos de hardware.
Serviço |
Requisitos de hardware |
Recursos |
---|---|---|
Extrator |
Use uma VM com no mínimo 2 núcleos de CPU e 8 GB de RAM |
Capacidade de processar 25.000 páginas/dia ou 5 milhões de páginas/ano, assumindo um tráfego perfeitamente constante (sem picos). |
Classificador |
Use uma VM com no mínimo 2 núcleos de CPU e 8 GB de RAM |
Pode processar 40.000 documentos/dia ou 8 milhões de documentos/ano, assumindo um tráfego perfeitamente constante (sem picos). |
OCR |
Recomendado para uso com VM de GPU |
Capacidade de processar 50.000 páginas/dia. |
Exemplo: se você processar 10 milhões de páginas/ano, precisará de uma VM com 4 núcleos de CPU, 16 GB de RAM para o extrator, outra para o classificador e uma terceira VM com núcleo de GPU NVidia para o mecanismo de OCR.
Você também pode optar por usar apenas uma VM para ambos o extrator e o classificador, o que significa que precisará de uma única VM com 8 núcleos de CPU e 32 GB de RAM.