ai-center
latest
false
Importante :
A tradução automática foi aplicada parcialmente neste conteúdo.
UiPath logo, featuring letters U and I in white
AI Center
Automation CloudAutomation SuiteStandalone
Last updated 19 de nov de 2024

Visão geral

UiPath provides a number of machine learning capabilities out-of-the-box on UiPath® AI Center. A notable example is Document UnderstandingTM. In addition, UiPath built and open-source models (serving-only and retrainable) are continuously added to AI Center.

Observação: ao criar um pacote de ML no AI Center, ele não pode ser nomeado usando nenhuma palavra-chave reservada do python, como class, break, from, finally, global, None, etc. Certifique-se de escolher outro nome. Os exemplos listados não estão completos, pois o nome do pacote é usado para class <pkg-name> e import <pck-name>.
Observação: esses modelos são suportados como estão e não são trabalhados ativamente para melhorar seu desempenho. Como o código é de código aberto, ele está totalmente acessível para otimizações. Os bugs relacionados ao uso na UiPath Platform são investigados e corrigidos com base no melhor esforço, sem garantias de SLA. Esses modelos não são recomendados para uso em fluxos de trabalho de produção críticos.

Os seguintes pacotes estão disponíveis na plataforma atualmente:

Modelo

Categoria

Tipo

Disponibilidade

Classificação de imagensAnálise de imagens da UiPathTreinamento personalizadoVisualizar
Comparação de assinaturasAnálise de imagens da UiPathPré-treinadoDisponibilidade Geral
Reconhecimento da entidade nomeada personalizadaUiPath Language AnalysisTreinamento personalizadoDisponibilidade Geral
Classificação do texto leveUiPath Language AnalysisTreinamento personalizadoDisponibilidade Geral
Classificação de texto multilíngueUiPath Language AnalysisTreinamento personalizadoDisponibilidade Geral
Similaridade semânticaUiPath Language AnalysisPré-treinadoVisualizar
Classificação de texto multilabelUiPath Language AnalysisTreinamento personalizadoVisualizar
Modelo do analisador de TMUiPath Task MiningTreinamento personalizadoDisponibilidade Geral
Moderação de imagensPacotes de código aberto — análise de imagemPré-treinadoN/A
Detecção de objetosPacotes de código aberto — análise de imagemPré-treinado e treinamento personalizadoN/A
Classificação de textos em inglêsPacotes de código aberto — análise de idiomasTreinamento personalizadoN/A
Classificação de textos em francêsPacotes de código aberto — análise de idiomasTreinamento personalizadoN/A
Classificação de textos em japonêsPacotes de código aberto — análise de idiomasTreinamento personalizadoN/A
Detecção de IdiomaPacotes de código aberto — análise de idiomasPré-treinadoN/A
Reconhecimento de entidades nomeadasPacotes de código aberto — análise de idiomasPré-treinadoN/A
Análise de opiniãoPacotes de código aberto — análise de idiomasPré-treinadoN/A
Classificação de textosPacotes de código aberto — análise de idiomasTreinamento personalizadoN/A
Respostas para PerguntasPacotes de código aberto — compreensão linguísticaPré-treinadoN/A
Similaridade semânticaPacotes de código aberto — compreensão linguísticaPré-treinadoN/A
Sumarização de textosPacotes de código aberto — compreensão linguísticaPré-treinadoN/A
Tradução de inglês para francêsPacotes de código aberto — tradução linguísticaPré-treinadoN/A
Tradução de inglês para alemãoPacotes de código aberto — tradução linguísticaPré-treinadoN/A
Tradução de inglês para russoPacotes de código aberto — tradução linguísticaPré-treinadoN/A
Tradução de alemão para inglêsPacotes de código aberto — tradução linguísticaPré-treinadoN/A
MultilingualTranslatorPacotes de código aberto — tradução linguísticaPré-treinadoN/A
Tradução de russo para inglêsPacotes de código aberto — tradução linguísticaPré-treinadoN/A
Classificação tabular do TPOTPacotes de código aberto — dados tabularesTreinamento personalizadoN/A
Regressão tabular do TPOTPacotes de código aberto — dados tabularesTreinamento personalizadoN/A
Classificação tabular do XGBoostPacotes de código aberto — dados tabularesTreinamento personalizadoN/A
Regressão tabular do XGBoostPacotes de código aberto — dados tabularesTreinamento personalizadoN/A
Observação: para modelos do Document Understanding, consulte o guia do Document Understanding.

Pronto para implantação

Pacotes de exemplo que podem ser implantados imediatamente e adicionados a um fluxo de trabalho de RPA. Outros podem ser encontrados no produto

Moderação de imagens

Esse é um modelo para a moderação de conteúdo de imagem baseado em uma arquitetura de aprendizado profundo comumente conhecida como Inception V3. Dada uma imagem, o modelo a classificará em uma entre quatro classes: “explícito”, “desenho explícito“, “neutro” e “pornográfico”, juntamente com uma pontuação de confiança normalizada para cada probabilidade de classe.

Ele é baseado no artigo “Rethinking the Inception Architecture for Computer Vision” de Szegedy et al, que foi feito como código aberto pelo Google.

Análise de opinião

Esse modelo prevê o sentimento de um texto no idioma inglês. Teve seu código aberto pelo Facebook Research. Possíveis previsões são uma de “Muito negativo”, “Negativo”, “Neutro”, “Positivo”, “Muito positivo”. O modelo foi treinado nos dados de revisão de produtos da Amazon e, assim, as previsões do modelo podem ter alguns resultados inesperados para diferentes distribuições de dados. Um caso de uso comum é rotear conteúdo de idioma não estruturado (por exemplo, e-mails) com base no sentimento do texto.

É baseado no artigo de pesquisa “Bag of Tricks for Efficient Text Classification”, de Jolin, et al.

Respostas para Perguntas

Esse modelo prevê a resposta a uma pergunta de um texto no idioma inglês com base em algum contexto de parágrafo. Teve seu código aberto pelo ONNX. Um caso de uso comum está no KYC ou processamento de relatórios financeiros, onde uma pergunta comum pode ser aplicada a um conjunto padrão de documentos semiestruturados. Ele é baseado no BERT (Representações de codificador bidirecional de Transformers) de ponta. O modelo aplica os Transformers, um modelo de atenção popular, à modelagem de idiomas para produzir uma codificação da entrada, e depois treina na tarefa de responder às perguntas.

Ele é baseado no artigo de pesquisa “BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding”.

Identificação de idiomas

Esse modelo prevê o idioma de uma entrada de texto. As possíveis previsões são um dos 176 idiomas:

Idiomas

af als am an ar arz as ast av az azb ba bar bcl be bg bh bn bo bpy br bs bxr ca cbk ce ceb ckb co cs cv cy da de diq dsb dty dv el eml en eo es et eu fa fi fr frr fy ga gd gl gn gom gu gv he hi hif hr hsb ht hu hy ia id ie ilo io is it ja jbo jv ka kk km kn ko krc ku kv kw ky la lb lez li lmo lo lrc lt lv mai mg mhr min mk ml mn mr mrj ms mt mwl my myv mzn nah nap nds ne new nl nn no oc ou os pa pam pfl pl pms pnb ps pt qu rm ro rue sa sah sc scn sco sd sh si sk sl so sq sr su sv sw ta te tg th tk tl tr tt tyv ug uk ur uz vec vep vi vls vo wa war wuu xal xmf yi yo yue zh

Teve seu código aberto pelo Facebook Research. O modelo foi treinado em dados da Wikipedia, Tatoeba e SETimes, usados sob a Licença Creative Commons Attribution-Share-Alike 3.0. Um caso de uso comum é encaminhar conteúdo de idioma não estruturado (por exemplo, e-mails) para um respondente apropriado com base no idioma do texto.

É baseado no artigo de pesquisa “Bag of Tricks for Efficient Text Classification”, de Jolin, et al.

MultilingualTranslator

Este modelo entrega a tradução diretamente entre qualquer par de mais de 200 idiomas. Você pode encontrar a lista completa de idiomas e o código correspondente para usar cada um deles aqui.

Esta é a integração MuggingFace do modelo de código aberto No Language Left Back, da Meta AI Research. O modelo foi publicado sob a seguinte licença: Licença.

Descrição da entrada

A entrada do modelo é JSON com três chaves:
  • text: o texto a ser traduzido.
  • from_lang: o código de idioma do texto a ser traduzido.
  • to_lang: o código do idioma do texto de destino.
Por exemplo:
{"text" : "UN Chief says there is no military solution in Syria", "from_lang" : "eng_Latn", "to_lang" : "fra_Latn" }"{"text" : "UN Chief says there is no military solution in Syria", "from_lang" : "eng_Latn", "to_lang" : "fra_Latn" }"

Descrição da saída

O modelo retorna o texto traduzido no idioma de destino:
"Le chef de l'ONU dit qu'il n'y a pas de solution militaire en Syrie""Le chef de l'ONU dit qu'il n'y a pas de solution militaire en Syrie"

Inglês para francês

Este é um modelo de tradução de máquina Sequence-to-Sequence, que traduz de inglês para francês. Teve seu código aberto pelo Facebook AI Research (FAIR).

Ele é baseado no artigo “Convolutional Sequence to Sequence Learning”, de Gehring, et al.

Inglês para alemão

Esse é um modelo de tradução de máquina Sequence-to-Sequence, que traduz de inglês para alemão. Teve seu código aberto pelo Facebook AI Research (FAIR).

Ele é baseado no artigo “Facebook FAIR's WMT19 News Translation Submission”, de Ng, et al.

Alemão para Inglês

Esse é um modelo de tradução de máquina Sequence-to-Sequence, que traduz de inglês para russo. Teve seu código aberto pelo Facebook AI Research (FAIR).

Ele é baseado no artigo “Facebook FAIR's WMT19 News Translation Submission”, de Ng, et al.

Inglês para russo

Esse é um modelo de tradução de máquina Sequence-to-Sequence, que traduz de inglês para russo. Teve seu código aberto pelo Facebook AI Research (FAIR).

Ele é baseado no artigo “Facebook FAIR's WMT19 News Translation Submission”, de Ng, et al.

Russo para inglês

Esse é um modelo de tradução de máquina Sequence-to-Sequence, que traduz de inglês para russo. Teve seu código aberto pelo Facebook AI Research (FAIR).

Ele é baseado no artigo “Facebook FAIR's WMT19 News Translation Submission”, de Ng, et al.

Reconhecimento de entidades nomeadas

Esse modelo retorna uma lista de entidades reconhecidas no texto. Os 18 tipos de entidades nomeadas reconhecidas usam a mesma classe de saída do OtoNotes5, que é normalmente usado como referência dessa tarefa no meio acadêmico. O modelo é baseado no artigo “Approaching nested named entity recognition with parallel LSTM-CRFs”, de Borchmann et al, 2018.

As 18 classes são as seguintes:

Entidade

Description

Pessoa

Pessoas, incluindo fictícias.

NORP

Nacionalidades ou grupos religiosos ou políticos.

FAC

Prédios, aeroportos, rodovias, pontes etc.

ORG

Empresas, agências, instituições etc.

GPE

Países, cidades, estados.

LOC

Locais não GPE, cadeias de montanhas, corpos hídricos.

Produto

Objetos, veículos, alimentos etc. (não serviços)

Evento

Furacões, batalhas, guerras, eventos esportivos nomeados etc.

WORK_OF_ART

Títulos de livros, músicas etc.

LEI

Documentos nomeados que se tornaram leis.

Idioma

Qualquer idioma nomeado.

Data

Datas ou períodos absolutos ou relativos.

Hora

Períodos de tempo menores que um dia.

PERCENT

Percentual, incluindo “%”.

MONEY

Valores monetários, incluindo a unidade.

Quantidade

Medidas, como de peso ou distância.

ORDINAL

“primeiro”, “segundo” etc.

CARDINAL

Numerais que não se enquadram em outro tipo.

Re-trainable

Pacotes de exemplo que podem ser treinados adicionando dados ao armazenamento do AI Center e iniciando um pipeline. Outros modelos podem ser encontrados no produto.

Classificação de textos em inglês

Esse é um modelo genérico retreinável para a classificação de textos em inglês. Os casos de uso comuns são a classificação de e-mails, a classificação de tickets de serviço e a análise de sentimentos personalizados, entre outros. Veja Classificação de textos em inglês para obter mais detalhes.

Classificação de textos em francês

Esse é um modelo genérico retreinável para a classificação de textos em francês. Os casos de uso comuns são a classificação de e-mails, a classificação de tickets de serviço e a análise de sentimentos personalizados, entre outros. Veja Classificação de textos em francês para obter mais detalhes.

Classificação de textos multilíngues

Essa é a versão de visualização de um modelo genérico retreinável para a classificação de texto. Ele suporta os 100 principais idiomas da Wikipédia listados aqui. Esse pacote de ML deve ser treinado; se for implantado sem treinamento primeiro, a implantação falhará, com um erro informando que o modelo não foi treinado. Ele é baseado no BERT, um método autosupervisionado para o pré-treinamento de sistemas de processamento em linguagem natural. Uma GPU é recomendada especialmente durante o treinamento. Uma GPU proporciona uma melhoria de 5x a 10x na velocidade.

Reconhecimento da entidade nomeada personalizada

Esse modelo de visualização permite que você traga seu próprio conjunto de dados marcados com as entidades que você deseja extrair. Os conjuntos de dados de treinamento e avaliação precisam estar no formato CoNLL.

Classificação tabular AutoML - TPOT

Esse é um modelo genérico retreinável para a classificação de dados tabulares (por exemplo, csv, excel). Ou seja, considerando-se uma tabela de colunas e uma coluna de destino, ele encontrará um modelo para esses dados. Veja Classificação TPOT AutoML para obter mais detalhes.

Classificação Tabular - TPOT XGBoost

Esse é um modelo genérico retreinável para a classificação de dados tabulares (por exemplo, csv, excel). Ou seja, considerando-se uma tabela de colunas e uma coluna de destino, ele encontrará um modelo (com base no XGboost) para esses dados. Veja Classificação TPOT XGBoost,

Esta página foi útil?

Obtenha a ajuda que você precisa
Aprendendo RPA - Cursos de automação
Fórum da comunidade da Uipath
Uipath Logo White
Confiança e segurança
© 2005-2024 UiPath. Todos os direitos reservados.