ai-center
2022.10
false
UiPath logo, featuring letters U and I in white

Guia do usuário do AI Center

Automation CloudAutomation SuiteStandalone
Última atualização 17 de out de 2024

Visão geral

Como usar pacotes prontos

Você pode criar seus próprios pacotes com base naqueles fornecidos na seção Pacotes prontos para uso. Ao escolher um pacote desta lista, um pacote fornecido é tecnicamente clonado, pronto para ser treinado com o conjunto de dados fornecido por você.

Para fazer isso, siga as etapas abaixo:

  1. Crie um conjunto de dados. Para obter mais informações sobre como criar conjuntos de dados, consulte Gerenciamento de conjuntos de dados.
  2. Acesse Pacotes de ML > Pacotes prontos para uso e escolha o pacote necessário.
  3. Preencha as informações necessárias:
    • Nome do Pacote
    • Escolher Versão do Pacote
    • Description
    • Descrição da Entrada
    • Descrição da Saída
  4. Clique em Enviar.

    Para obter mais detalhes sobre as informações necessárias para cada pacote, consulte as páginas individuais deste guia.

Pronto para implantação

Pacotes de exemplo que podem ser implantados imediatamente e adicionados a um fluxo de trabalho de RPA. Outros podem ser encontrados no produto

Moderação de imagens

Esse é um modelo para a moderação de conteúdo de imagem baseado em uma arquitetura de aprendizado profundo comumente conhecida como Inception V3. Dada uma imagem, o modelo a classificará em uma entre quatro classes: “explícito”, “desenho explícito“, “neutro” e “pornográfico”, juntamente com uma pontuação de confiança normalizada para cada probabilidade de classe.

Ele é baseado no artigo “Rethinking the Inception Architecture for Computer Vision” de Szegedy et al, que foi feito como código aberto pelo Google.

Análise de opinião

Esse modelo prevê o sentimento de um texto no idioma inglês. Teve seu código aberto pelo Facebook Research. Possíveis previsões são uma de “Muito negativo”, “Negativo”, “Neutro”, “Positivo”, “Muito positivo”. O modelo foi treinado nos dados de revisão de produtos da Amazon e, assim, as previsões do modelo podem ter alguns resultados inesperados para diferentes distribuições de dados. Um caso de uso comum é rotear conteúdo de idioma não estruturado (por exemplo, e-mails) com base no sentimento do texto.

É baseado no artigo de pesquisa “Bag of Tricks for Efficient Text Classification”, de Jolin, et al.

Respostas para Perguntas

Esse modelo prevê a resposta a uma pergunta de um texto no idioma inglês com base em algum contexto de parágrafo. Teve seu código aberto pelo ONNX. Um caso de uso comum está no KYC ou processamento de relatórios financeiros, onde uma pergunta comum pode ser aplicada a um conjunto padrão de documentos semiestruturados. Ele é baseado no BERT (Representações de codificador bidirecional de Transformers) de ponta. O modelo aplica os Transformers, um modelo de atenção popular, à modelagem de idiomas para produzir uma codificação da entrada, e depois treina na tarefa de responder às perguntas.

Ele é baseado no artigo de pesquisa “BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding”.

Identificação de idiomas

Esse modelo prevê o idioma de uma entrada de texto. As possíveis previsões são um dos 176 idiomas:

Idiomas

af als am an ar arz as ast av az azb ba bar bcl be bg bh bn bo bpy br bs bxr ca cbk ce ceb ckb co cs cv cy da de diq dsb dty dv el eml en eo es et eu fa fi fr frr fy ga gd gl gn gom gu gv he hi hif hr hsb ht hu hy ia id ie ilo io is it ja jbo jv ka kk km kn ko krc ku kv kw ky la lb lez li lmo lo lrc lt lv mai mg mhr min mk ml mn mr mrj ms mt mwl my myv mzn nah nap nds ne new nl nn no oc ou os pa pam pfl pl pms pnb ps pt qu rm ro rue sa sah sc scn sco sd sh si sk sl so sq sr su sv sw ta te tg th tk tl tr tt tyv ug uk ur uz vec vep vi vls vo wa war wuu xal xmf yi yo yue zh

Teve seu código aberto pelo Facebook Research. O modelo foi treinado em dados da Wikipedia, Tatoeba e SETimes, usados sob a Licença Creative Commons Attribution-Share-Alike 3.0. Um caso de uso comum é encaminhar conteúdo de idioma não estruturado (por exemplo, e-mails) para um respondente apropriado com base no idioma do texto.

É baseado no artigo de pesquisa “Bag of Tricks for Efficient Text Classification”, de Jolin, et al.

Inglês para francês

Este é um modelo de tradução de máquina Sequence-to-Sequence, que traduz de inglês para francês. Teve seu código aberto pelo Facebook AI Research (FAIR).

Ele é baseado no artigo “Convolutional Sequence to Sequence Learning”, de Gehring, et al.

Inglês para alemão

Esse é um modelo de tradução de máquina Sequence-to-Sequence, que traduz de inglês para alemão. Teve seu código aberto pelo Facebook AI Research (FAIR).

Ele é baseado no artigo “Facebook FAIR's WMT19 News Translation Submission”, de Ng, et al.

Alemão para Inglês

Esse é um modelo de tradução de máquina Sequence-to-Sequence, que traduz de inglês para russo. Teve seu código aberto pelo Facebook AI Research (FAIR).

Ele é baseado no artigo “Facebook FAIR's WMT19 News Translation Submission”, de Ng, et al.

Inglês para russo

Esse é um modelo de tradução de máquina Sequence-to-Sequence, que traduz de inglês para russo. Teve seu código aberto pelo Facebook AI Research (FAIR).

Ele é baseado no artigo “Facebook FAIR's WMT19 News Translation Submission”, de Ng, et al.

Russo para inglês

Esse é um modelo de tradução de máquina Sequence-to-Sequence, que traduz de inglês para russo. Teve seu código aberto pelo Facebook AI Research (FAIR).

Ele é baseado no artigo “Facebook FAIR's WMT19 News Translation Submission”, de Ng, et al.

Reconhecimento de entidades nomeadas

Esse modelo retorna uma lista de entidades reconhecidas no texto. Os 18 tipos de entidades nomeadas reconhecidas usam a mesma classe de saída do OtoNotes5, que é normalmente usado como referência dessa tarefa no meio acadêmico. O modelo é baseado no artigo “Approaching nested named entity recognition with parallel LSTM-CRFs”, de Borchmann et al, 2018.

As 18 classes são as seguintes:

Entidade

Description

Pessoa

Pessoas, incluindo fictícias.

NORP

Nacionalidades ou grupos religiosos ou políticos.

FAC

Prédios, aeroportos, rodovias, pontes etc.

ORG

Empresas, agências, instituições etc.

GPE

Países, cidades, estados.

LOC

Locais não GPE, cadeias de montanhas, corpos hídricos.

Produto

Objetos, veículos, alimentos etc. (não serviços)

Evento

Furacões, batalhas, guerras, eventos esportivos nomeados etc.

WORK_OF_ART

Títulos de livros, músicas etc.

LEI

Documentos nomeados que se tornaram leis.

Idioma

Qualquer idioma nomeado.

Data

Datas ou períodos absolutos ou relativos.

Hora

Períodos de tempo menores que um dia.

PERCENT

Percentual, incluindo “%”.

MONEY

Valores monetários, incluindo a unidade.

Quantidade

Medidas, como de peso ou distância.

ORDINAL

“primeiro”, “segundo” etc.

CARDINAL

Numerais que não se enquadram em outro tipo.

Esta página foi útil?

Obtenha a ajuda que você precisa
Aprendendo RPA - Cursos de automação
Fórum da comunidade da Uipath
Uipath Logo White
Confiança e segurança
© 2005-2024 UiPath. Todos os direitos reservados.