- Primeros pasos
- Componentes de marco
- Document Understanding en AI Center
- Procesos
- Paquetes ML
- Gestor de datos
- Servicios de OCR
- Licencia
- Referencias
Requisitos de hardware
La ejecución de los paquetes ML de Document Understanding en una GPU incluye una optimización destinada a acelerar el proceso de entrenamiento.
Como resultado, el entrenamiento en la GPU es cinco veces más rápido que en la CPU (antes era entre 10 y 20 veces más rápido). Esto también permite entrenar modelos en CPU con hasta 5000 páginas (anteriormente el máximo eran 500).
Ten en cuenta que entrenar modelos Document Understanding en la GPU requiere una GPU con al menos 11 GB de RAM de vídeo para funcionar correctamente.
Utiliza la siguiente tabla para comprobar la compatibilidad entre los paquetes ML, la versión de CUDA y la versión del controlador de la GPU.
versión de paquetes ML |
Versión de CUDA |
Versión de cudDNN |
Controlador de NVIDIA (versión inferior compatible) |
Generación de hardware |
---|---|---|---|---|
2020.10 |
CUDA 10.1 |
cudDNN 7.6.3 |
R418.40.04 |
Turing, Volta, Pascal, Maxwell, Kepler, Tesla k80 |
CUDA es compatible con versiones anteriores, lo que significa que las aplicaciones CUDA existentes pueden seguir utilizándose con versiones CUDA más recientes.
Puedes obtener más información sobre compatibilidad aquí