- Notas relacionadas
- Primeros pasos
- Notificaciones
- Proyectos
- Conjuntos de datos
- Etiquetado de datos
- Paquetes ML
- Paquetes listos para usar
- Información general
- AI Computer Vision
- Communications Mining
- UiPath Document Understanding
- Procesos
- Habilidades ML
- Logs de ML
- Document UnderstandingTM en AI Center
- API de AI Center
- Licencia
- Plantillas de soluciones de AI
- Tutorial
- Guía básica de resolución de problemas
Información general
UiPath provides a number of machine learning capabilities out-of-the-box on UiPath® AI Center. A notable example is Document UnderstandingTM. In addition, UiPath built and open-source models (serving-only and retrainable) are continuously added to AI Center.
class
, break
, from
, finally
, global
y None
. Asegúrate de elegir otro nombre. Los ejemplos listados no son completos, ya que el nombre del paquete se utiliza para class <pkg-name>
y import <pck-name>
.
Actualmente, están disponibles en la plataforma los siguientes paquetes:
Modelo |
Categoría |
Tipo |
Disponibilidad |
---|---|---|---|
Clasificación de imágenes | Análisis de imagen de UiPath | Entrenamiento personalizado | Preliminar |
Comparación de firmas | Análisis de imagen de UiPath | Entrenamiento previo | Disponibilidad general |
Reconocimiento personalizado de entidad con nombre | Análisis de idioma de UiPath | Entrenamiento personalizado | Disponibilidad general |
Clasificación de texto claro | Análisis de idioma de UiPath | Entrenamiento personalizado | Disponibilidad general |
Clasificación de texto multilingüe | Análisis de idioma de UiPath | Entrenamiento personalizado | Disponibilidad general |
Similitud semántica | Análisis de idioma de UiPath | Entrenamiento previo | Preliminar |
Clasificación de texto multietiqueta | Análisis de idioma de UiPath | Entrenamiento personalizado | Preliminar |
Modelo de Analizador de TM | UiPath Task Mining | Entrenamiento personalizado | Disponibilidad general |
Moderación de imágenes | Paquetes de código abierto: análisis de imagen | Entrenamiento previo | N/D |
Detección de objetos | Paquetes de código abierto: análisis de imagen | Entrenamiento previo y personalizado | N/D |
Clasificación de texto en inglés | Paquetes de código abierto: análisis de idioma | Entrenamiento personalizado | N/D |
Clasificación de texto en francés | Paquetes de código abierto: análisis de idioma | Entrenamiento personalizado | N/D |
Clasificación de texto en japonés | Paquetes de código abierto: análisis de idioma | Entrenamiento personalizado | N/D |
Detección de idiomas | Paquetes de código abierto: análisis de idioma | Entrenamiento previo | N/D |
Reconocimiento de entidades con nombre | Paquetes de código abierto: análisis de idioma | Entrenamiento previo | N/D |
Análisis de sentimiento | Paquetes de código abierto: análisis de idioma | Entrenamiento previo | N/D |
Clasificación de texto | Paquetes de código abierto: análisis de idioma | Entrenamiento personalizado | N/D |
Respuesta de preguntas | Paquetes de código abierto: comprensión del idioma | Entrenamiento previo | N/D |
Similitud semántica | Paquetes de código abierto: comprensión del idioma | Entrenamiento previo | N/D |
Resumen del texto | Paquetes de código abierto: comprensión del idioma | Entrenamiento previo | N/D |
Traducción del inglés al francés | Paquetes de código abierto: traducción del idioma | Entrenamiento previo | N/D |
Traducción del inglés al alemán | Paquetes de código abierto: traducción del idioma | Entrenamiento previo | N/D |
Traducción del inglés al ruso | Paquetes de código abierto: traducción del idioma | Entrenamiento previo | N/D |
Traducción del alemán al inglés | Paquetes de código abierto: traducción del idioma | Entrenamiento previo | N/D |
MultilingualTranslator | Paquetes de código abierto: traducción del idioma | Entrenamiento previo | N/D |
Traducción del ruso al inglés | Paquetes de código abierto: traducción del idioma | Entrenamiento previo | N/D |
Clasificación tabular TPOT | Paquetes de código abierto: datos tabulares | Entrenamiento personalizado | N/D |
Regresión tabular TPOT | Paquetes de código abierto: datos tabulares | Entrenamiento personalizado | N/D |
Clasificación tabular XGBoost | Paquetes de código abierto: datos tabulares | Entrenamiento personalizado | N/D |
Regresión tabular XGBoost | Paquetes de código abierto: datos tabulares | Entrenamiento personalizado | N/D |
En el producto se pueden encontrarse más paquetes de ejemplo que pueden implementarse inmediatamente y añadirse a un flujo de trabajo de RPA.
Se trata de un modelo para la moderación de contenido de imágenes basado en una arquitectura de aprendizaje profundo normalmente denominada Inception V3. En una imagen, el modelo mostrará una de las cuatro clases "explícito", "dibujo explícito", "neutro" y "pornográfico" junto con una puntuación de confianza normalizada para cada probabilidad de clase.
Se basa en el informe de investigación "Rethinking the Inception Architecture for Computer Vision", de Szegedy et al, que se publicó en código abierto en Google.
Este modelo predice el sentir de un texto en idioma inglés. Se ha hecho de código abierto por Facebook Research. Las predicciones posibles son: "Muy negativo", "Negativo", "Neutral", "Positivo" y "Muy positivo". El modelo se ha entrenado en los datos de comentarios de los productos de Amazon, por lo que puede que las predicciones del modelo tengan algunos resultados inesperados para diferentes distribuciones de datos. Un caso de uso común es para redirigir el contenido de idiomas no estructurados (p. ej., correos electrónicos) según el sentir del texto.
Se basa en el estudio de investigación "Bag of Tricks for Efficient Text Classification", de Joulin et al.
Este modelo predice la respuesta a una pregunta de un texto en inglés en función del contexto de algún párrafo. Se ha hecho de código abierto por ONNX. Un caso de uso común es en informes KYC o en el procesamiento de informes financieros en los que se puede aplicar una pregunta común a un conjunto estándar de documentos semiestructurados. Se basa en vanguardista modelo BERT (Bidirectional Encoder Representations from Transformers). El modelo aplica Transformers, un conocido modelo de atención, para modelar el idioma con el objetivo de producir una codificación del input y luego entrena la tarea de responder la pregunta.
Se basa en el informe de investigación “BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding”.
Este modelo predice el idioma de una entrada de texto. Las predicciones posibles son uno de los siguientes 176 idiomas:
Lenguajes |
---|
Af als am an ar arz as ast av az azb ba bar bcl be bg bh bn bo bpy br bs bxr ca cbk ce ceb ckb co cs cv Cy da de diq dsb dty dv el eml en eo es et EU fa fi frr fy ga gd gl gn gom gu gv he hi hif hr hsb ht hu hya id, es decir, ilo io es ja jbo jv kk kk krc ku kw ky la lib lez lmo lo lrc lt lv maimg mhr min mk ml mn mr mrj ms mt mwl my myv mzn nah nap nds ne new nl nn no oc or os pam pfla pl pms pnb PSpt qu rm ro ru rue sa sah sc scn Sco sd Sh si sk sl So sq sr su SV SW Ta te tg th tk tl tr tt tiv ug Reino Unido ur uz vec vep vi vls vo w war wuu xal xmf yi yo yue zh |
Se ha hecho de código abierto por Facebook Research. El modelo se ha entrenado en los datos de Wikipedia, Tatoeba y SETimes utilizados bajo la licencia Creative Commons Attribution-Share-Alike 3.0. Un caso de uso común es para redirigir el contenido de idiomas no estructurados (p. ej., correos electrónicos) a un respondedor adecuado en función del idioma del texto.
Se basa en el estudio de investigación "Bag of Tricks for Efficient Text Classification", de Joulin et al.
Este modelo ofrece traducción directamente entre cualquier par de más de 200 idiomas. Puedes encontrar la lista completa de idiomas y el código correspondiente para utilizar cada uno de ellos aquí.
Esta es la integración HuggingFace del modelo No Language Left Behind de código abierto de Meta AI Research. El modelo se publicó con la siguiente licencia: Licencia.
Descripción de entrada
text
: el texto a traducir.from_lang
: el código de idioma del texto a traducir.to_lang
: el código de idioma del texto de destino.
{"text" : "UN Chief says there is no military solution in Syria", "from_lang" : "eng_Latn", "to_lang" : "fra_Latn" }"
{"text" : "UN Chief says there is no military solution in Syria", "from_lang" : "eng_Latn", "to_lang" : "fra_Latn" }"
Descripción de salida
"Le chef de l'ONU dit qu'il n'y a pas de solution militaire en Syrie"
"Le chef de l'ONU dit qu'il n'y a pas de solution militaire en Syrie"
Este es un modelo de traducción automática de secuencia tras secuencia que traduce del inglés al francés. Se ha hecho de código abierto por Facebook AI Research (FAIR).
Se basa en el informe de investigación "Convolutional Sequence to Sequence Learning", de Gehring et al.
Este es un modelo de traducción automática de secuencia tras secuencia que traduce del inglés al alemán. Se ha hecho de código abierto por Facebook AI Research (FAIR).
Se basa en el informe de investigación "Facebook FAIR's WMT19 News Translation Submission", de Ng et al.
Este es un modelo de traducción automática de secuencia tras secuencia que traduce del inglés al ruso. Se ha hecho de código abierto por Facebook AI Research (FAIR).
Se basa en el informe de investigación "Facebook FAIR's WMT19 News Translation Submission", de Ng et al.
Este es un modelo de traducción automática de secuencia tras secuencia que traduce del inglés al ruso. Se ha hecho de código abierto por Facebook AI Research (FAIR).
Se basa en el informe de investigación "Facebook FAIR's WMT19 News Translation Submission", de Ng et al.
Este es un modelo de traducción automática de secuencia tras secuencia que traduce del inglés al ruso. Se ha hecho de código abierto por Facebook AI Research (FAIR).
Se basa en el informe de investigación "Facebook FAIR's WMT19 News Translation Submission", de Ng et al.
Este modelo muestra una lista de entidades reconocidas en el texto. Los 18 tipos reconocidos de entidades con nombre utilizan la misma clase de salida que en OntoNotes5, que se utiliza habitualmente para realizar pruebas comparativas de esta tarea en el mundo académico. El modelo se basa en el informe de investigación "Approaching nested named entity recognition with parallel LSTM-CRFs", de Borchmann et al en 2018.
Las 18 clases son las siguientes:
Entidad |
Descripción |
---|---|
Persona |
Personas, incluidas las ficticias. |
NORP |
Nacionalidades, religiones o grupos políticos. |
FAC |
Edificios, aeropuertos, carreteras, puentes, etc. |
ORG |
Empresas, agencias, instituciones, etc. |
GPE |
Países, ciudades, estados. |
LOC |
Ubicaciones que no sean GPE, cordilleras, extensiones de agua. |
Producto |
Objetos, vehículos, alimentos, etc. (no servicios). |
Evento |
Huracanes, batallas, guerras, eventos deportivos, etc. que tengan nombre. |
WORK_OF_ART |
Títulos de libros, canciones, etc. |
LAW |
Documentos con nombre convertidos en leyes. |
Idioma |
Cualquier idioma que tenga nombre. |
Fecha |
Fechas o periodos absolutos o relativos. |
HORA |
Tiempos que sean inferiores a un día. |
PERCENT |
Porcentaje, incluido el "%". |
MONEY |
Valores monetarios, incluida su unidad. |
Cantidad |
Medidas, como el peso o la distancia. |
ORDINAL |
"Primero", "segundo", etc. |
CARDINAL |
Numerales que no pertenezcan a ningún otro tipo. |
En el producto se pueden encontrar paquetes de ejemplo que se pueden entrenar añadiendo datos al almacenamiento de AI Center e iniciando un proceso, así como más modelos.
Este es un modelo genérico y reentrenable para la clasificación de texto en inglés. Los casos de uso habituales son la clasificación de correo electrónico, la clasificación de tickets de servicio, el análisis personalizado de sentires, entre otros. Consulta Clasificación de texto en inglés para obtener más detalles.
Este es un modelo genérico y reentrenable para la clasificación de texto en francés. Los casos de uso habituales son la clasificación de correo electrónico, la clasificación de tickets de servicio, el análisis personalizado de sentires, entre otros. Consulta Clasificación de texto en francés para obtener más detalles.
Esta es la versión preliminar de un modelo genérico y reentrenable para la clasificación de texto. Es compatible con los 100 principales idiomas de Wikipedia enumerados aquí. Este paquete ML debe entrenarse, y si se implementa sin entrenar primero, la implementación fallará con un error que indica que el modelo no está entrenado. Se basa en BERT, un método autosupervisado para preentrenar sistemas de procesamiento de lenguaje natural. Se recomienda una GPU especialmente durante el entrenamiento. Una GPU ofrece una mejora de la velocidad de entre 5 y 10 veces.
Este modelo de vista previa te permite traer tu propio conjunto de datos etiquetado con las entidades que quieres extraer. Los conjuntos de datos de entrenamiento y evaluación deben estar en formato CoNLL.
Este es un modelo genérico y reentrenable para la clasificación tabular de datos (p. ej., csv, excel). Es decir, dada una tabla de columnas y una columna de destino, encontrará un modelo para esos datos. Consulta Clasificación TPOT AutoML para obtener más detalles.
Este es un modelo genérico y reentrenable para la clasificación tabular de datos (p. ej., csv, excel). Es decir, dada una tabla de columnas y una columna de destino, encontrará un modelo (basado en XGBoost) para esos datos. Consulta Clasificación TPOT XGBoost,
- Listo para implementar
- Moderación de imágenes
- Análisis de sentimiento
- Respuesta de preguntas
- Identificación de idioma
- MultilingualTranslator
- Del inglés al francés
- Del inglés al alemán
- Alemán a inglés
- Del inglés al ruso
- Ruso al inglés
- Reconocimiento de entidades con nombre
- Re-trainable
- Clasificación de texto en inglés
- Clasificación de texto en francés
- Clasificación de texto multilingüe
- Reconocimiento personalizado de entidad con nombre
- Clasificación tabular AutoML - TPOT
- Clasificación tabular - TPOT XGBoost