- Notas relacionadas
- Antes de empezar
- Primeros pasos
- Instalación de Automation Suite
- Migración y actualización
- Proyectos
- Conjuntos de datos
- Paquetes ML
- Procesos
- Habilidades ML
- Logs de ML
- Document Understanding en AI Center
- Licencia
- Tutorial
- Guía básica de resolución de problemas
Paquetes listos para usar
UiPath ofrece un número de funciones de aprendizaje automático listas para su uso en AI Center. Un ejemplo notable es Document Understanding. Además, los modelos de UiPath creados o de código abierto (solo para servicio y reentrenables) se añaden de forma continua a AI Center.
class
, break
, from
, finally
, global
y None
. Asegúrate de elegir otro nombre. Los ejemplos listados no son completos, ya que el nombre del paquete se utiliza para class <pkg-name>
y import <pck-name>
.
Puedes crear tus propios paquetes basándote en los proporcionados en la sección Paquetes listos para usar. Al elegir un paquete de esta lista, un paquete proporcionado es técnicamente clonado, listo para ser entrenado con el conjunto de datos proporcionado.
Para ello, sigue los siguientes pasos:
- Crear un conjunto de datos. Más información sobre cómo crear conjuntos de datos. consulta Gestionar conjuntos de datos.
- Ve a Paquetes ML > Paquetes listos para usar y elige el paquete necesario.
- Introduce la información necesaria:
- Nombre del paquete
- Elegir versión del paquete
- Descripción
- Descripción de entrada
- Descripción de salida
- Haz clic en Enviar.
Para más información sobre la información necesaria para cada paquete, consulta las páginas individuales de esta guía.
Los paquetes de código abierto (OS, por sus siglas en inglés) son paquetes listos para usar proporcionados por los ingenieros de UiPath a través de la comunidad científica de datos de código abierto. Para usarlos en tus flujos de trabajo en Studio, primero debes implementarlos como habilidades en AI Center, como se muestra a continuación:
Este modelo predice el sentir de un texto en idioma inglés. Se ha hecho de código abierto por Facebook Research. Las predicciones posibles son: "Muy negativo", "Negativo", "Neutral", "Positivo" y "Muy positivo". El modelo se ha entrenado en los datos de comentarios de los productos de Amazon, por lo que puede que las predicciones del modelo tengan algunos resultados inesperados para diferentes distribuciones de datos. Un caso de uso común es para redirigir el contenido de idiomas no estructurados (p. ej., correos electrónicos) según el sentir del texto.
Se basa en el estudio de investigación "Bag of Tricks for Efficient Text Classification", de Joulin et al.
Este modelo predice la respuesta a una pregunta de un texto en inglés en función del contexto de algún párrafo. Se ha hecho de código abierto por ONNX. Un caso de uso común es en informes KYC o en el procesamiento de informes financieros en los que se puede aplicar una pregunta común a un conjunto estándar de documentos semiestructurados. Se basa en vanguardista modelo BERT (Bidirectional Encoder Representations from Transformers). El modelo aplica Transformers, un conocido modelo de atención, para modelar el idioma con el objetivo de producir una codificación del input y luego entrena la tarea de responder la pregunta.
Se basa en el informe de investigación “BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding”.
Este modelo predice el idioma de una entrada de texto. Las predicciones posibles son uno de los siguientes 176 idiomas:
Lenguajes |
---|
Af als am an ar arz as ast av az azb ba bar bcl be bg bh bn bo bpy br bs bxr ca cbk ce ceb ckb co cs cv Cy da de diq dsb dty dv el eml en eo es et EU fa fi frr fy ga gd gl gn gom gu gv he hi hif hr hsb ht hu hya id, es decir, ilo io es ja jbo jv kk kk krc ku kw ky la lib lez lmo lo lrc lt lv maimg mhr min mk ml mn mr mrj ms mt mwl my myv mzn nah nap nds ne new nl nn no oc or os pam pfla pl pms pnb PSpt qu rm ro ru rue sa sah sc scn Sco sd Sh si sk sl So sq sr su SV SW Ta te tg th tk tl tr tt tiv ug Reino Unido ur uz vec vep vi vls vo w war wuu xal xmf yi yo yue zh |
Se ha hecho de código abierto por Facebook Research. El modelo se ha entrenado en los datos de Wikipedia, Tatoeba y SETimes utilizados bajo la licencia Creative Commons Attribution-Share-Alike 3.0. Un caso de uso común es para redirigir el contenido de idiomas no estructurados (p. ej., correos electrónicos) a un respondedor adecuado en función del idioma del texto.
Se basa en el estudio de investigación "Bag of Tricks for Efficient Text Classification", de Joulin et al.
Este es un modelo de traducción automática de secuencia tras secuencia que traduce del inglés al francés. Se ha hecho de código abierto por Facebook AI Research (FAIR).
Se basa en el informe de investigación "Convolutional Sequence to Sequence Learning", de Gehring et al.
Este es un modelo de traducción automática de secuencia tras secuencia que traduce del inglés al alemán. Se ha hecho de código abierto por Facebook AI Research (FAIR).
Se basa en el informe de investigación "Facebook FAIR's WMT19 News Translation Submission", de Ng et al.
Este es un modelo de traducción automática de secuencia tras secuencia que traduce del inglés al ruso. Se ha hecho de código abierto por Facebook AI Research (FAIR).
Se basa en el informe de investigación "Facebook FAIR's WMT19 News Translation Submission", de Ng et al.
Este es un modelo de traducción automática de secuencia tras secuencia que traduce del inglés al alemán. Se ha hecho de código abierto por Facebook AI Research (FAIR).
Se basa en el informe de investigación "Facebook FAIR's WMT19 News Translation Submission", de Ng et al.