ai-center
2022.10
false
UiPath logo, featuring letters U and I in white
AI Center - Guide de l'utilisateur
Automation CloudAutomation SuiteStandalone
Last updated 17 oct. 2024

Vue d'ensemble (Overview)

Utilisation de packages prêts à l'emploi

Vous pouvez créer vos propres packages en fonction de ceux fournis dans la section Packages prêts à l'emploi . En choisissant un package dans cette liste, un package fourni est techniquement cloné, prêt à être entraîné avec l'ensemble de données que vous avez fourni.

Pour ce faire, suivez les étapes ci-dessous :

  1. Créez un ensemble de données. Pour plus d'informations sur la création d'ensembles de données, consultez la section Gestion des ensembles de données.
  2. Accédez à Packages ML > Packages prêts à l'emploi (Out of the Box Packages) et choisissez le package nécessaire.
  3. Remplissez les informations requises :
    • Nom du paquet
    • Choisissez la version du paquet
    • Description
    • Description de l'entrée
    • Description de la sortie
  4. Cliquer sur Soumettre.

    Pour plus d'informations sur les informations nécessaires pour chaque package, consultez les pages individuelles de ce guide.

Prêt à déployer

Exemples de packages pouvant être immédiatement déployés et ajoutés à un workflow RPA. Vous trouverez plus d'informations dans le produit

Modération d'image

Il s'agit d'un modèle de modération de contenu d'image basé sur une architecture d'apprentissage profond communément appelée Inception V3. À partir d'une image, le modèle produira l'une des quatre catégories « explicite », « dessin explicite », « neutre » et « pornographique » avec un score de confiance normalisé pour chaque probabilité de catégorie.

Il est basé sur l'article « Rethinking the Inception Architecture for Computer Vision » de Szegedy et d'autres, qui a été publié en open source par Google.

Analyse des sentiments

Ce modèle prédit le sentiment d'un texte en langue anglaise. Il a été publié en open source par Facebook Research. Les prédictions possibles sont "Très Négative(Very Negative), "Négative (Negative)", "Neutre (Neutral)", "Positive (Positive)", "Très Positif (Very Positive)". Le modèle a été formé sur les données d'examen des produits Amazon. Par conséquent, les prédictions du modèle peuvent avoir des résultats inattendus pour différentes distributions de données. Un cas d'utilisation courant consiste à acheminer du contenu en langage non structuré (par ex. des e-mails) en fonction du sentiment du texte.

Il est basé sur le document de recherche « Bag of Tricks for Efficient Text Classification » de Joulin et d'autres auteurs.

Réponses aux questions

Ce modèle prédit la réponse à une question d'un texte en anglais sur la base d'un contexte de paragraphe. Il a été publié en open-source par ONNX. Un cas d'utilisation courant est le KYC ou le traitement des rapports financiers où une question commune peut être appliquée à un ensemble standard de documents semi-structurés. Il est basé sur le modèle de pointe BERT (Bidirectionnel Encoder Representations from Transformers). Le modèle applique Transformers, un modèle d'attention populaire, à la modélisation du langage pour produire un codage de l'entrée, puis s'entraîne à la tâche de réponse aux questions.

Il est basé sur le document de recherche « BERT : Pre-training of Deep Bidirectional Transformers for Language Understanding ».

Identification de la langue

Ce modèle prévoit la langue d'une entrée de texte. Les prévisions possibles s'effectuent parmi les 176 langues suivantes :

Langues

af als am an ar arz as as av az azb ba bar bcl be bg bh bn bo bpy br bs bxr ca cbk ce ceb ckb co cs cv cy da de diq dsb dty dv el eml en eo es et eu fa fi fr frr fy ga gd gl gn gom gu gv he salut hif hr hsb ht hu hy ia id ie ilo io est-ce ja jbo jv ka kk km kn ko krc ku kv kw ky la lb lez li lmo lo lrc lt lv mai mg mhr min mk ml mn mr mrj ms mt mwl myv mzn nah nap nds ne new nl nn no oc or os pa pam pfl pl pms pnb ps pt qu rm ro ru rue sa sah sc scn sco sd sh si sk sl so sq sr su sv sw ta te tg th tk tl tr tt tyv ug uk ur uz vec vep vi vls vo wa war wuu xal xmf yi yo yue zh

Il a été publié en open source par Facebook Research. Le modèle a été formé à partir des données de Wikipedia, Tatoeba et SETimes utilisées sous la licence Creative Commons Attribution-Share-Alike 3.0. Un cas d'utilisation courant consiste à acheminer du contenu en langage non structuré (par ex. e-mails) à un interlocuteur approprié en fonction de la langue du texte.

Il est basé sur le document de recherche « Bag of Tricks for Efficient Text Classification » de Joulin et d'autres auteurs.

Anglais vers français

Il s'agit d'un modèle de traduction automatique de séquence à séquence qui traduit de l'anglais vers le français. Il a été publié en open source par Facebook AI Research (FAIR).

Il est basé sur l'article « Convolutional Sequence to Sequence Learning » de Gehring et d'autres auteurs.

Anglais vers allemand

Il s'agit d'un modèle de traduction automatique de séquence à séquence qui traduit de l'anglais vers l'allemand. Il a été publié en open source par Facebook AI Research (FAIR).

Il est basé sur l'article « Facebook FAIR's WMT19 News Translation Submission » par Ng, et d'autres auteurs.

Allemand vers anglais

Il s'agit d'un modèle de traduction automatique de séquence à séquence qui traduit de l'anglais vers le russe. Il a été publié en open source par Facebook AI Research (FAIR).

Il est basé sur l'article « Facebook FAIR's WMT19 News Translation Submission » par Ng, et d'autres auteurs.

Anglais vers russe

Il s'agit d'un modèle de traduction automatique de séquence à séquence qui traduit de l'anglais vers le russe. Il a été publié en open source par Facebook AI Research (FAIR).

Il est basé sur l'article « Facebook FAIR's WMT19 News Translation Submission » par Ng, et d'autres auteurs.

Russe vers anglais

Il s'agit d'un modèle de traduction automatique de séquence à séquence qui traduit de l'anglais vers le russe. Il a été publié en open source par Facebook AI Research (FAIR).

Il est basé sur l'article « Facebook FAIR's WMT19 News Translation Submission » par Ng, et d'autres auteurs.

NamedEntityRecognition

Ce modèle renvoie une liste d'entités reconnues dans le texte. Les 18 types d'entités nommées reconnus utilisent la même classe de sortie que dans OntoNotes5, qui est couramment utilisée pour l'analyse comparative de cette tâche dans le milieu universitaire. Le modèle est basé sur l'article « Approaching Nested Named entity reconnaissance with parallel LSTM-CRFs » de Borchmann et d'autres auteurs, 2018.

Les 18 classes sont les suivantes :

Entité

Description

Personne

Les personnes, y compris fictives.

NORP

Nationalités ou groupes religieux ou politiques.

FAC

Bâtiments, aéroports, autoroutes, ponts, etc.

ORG

Entreprises, agences, institutions, etc.

GPE

Pays, villes, états.

LOC

Emplacements d'entités non-géopolitiques, chaînes de montagnes, plans d'eau.

Produit

Objets, véhicules, aliments, etc. (pas de services)

Événement (Event)

Ouragans nommés, batailles, guerres, événements sportifs, etc.

WORK_OF_ART

Titres de livres, chansons, etc.

LAW

Documents nommés transformés en lois.

Langue

Toute langue nommée.

Date

Dates ou périodes absolues ou relatives.

HEURE

Durées inférieures à une journée.

PERCENT

Pourcentage, y compris « % ».

MONEY

Valeurs monétaires, y compris l'unité.

Quantité

Mesures, comme le poids ou la distance.

ORDINAL

« premier », « deuxième », etc.

CARDINAL

Chiffres qui ne relèvent pas d'un autre type.

Cette page vous a-t-elle été utile ?

Obtenez l'aide dont vous avez besoin
Formation RPA - Cours d'automatisation
Forum de la communauté UiPath
Uipath Logo White
Confiance et sécurité
© 2005-2024 UiPath Tous droits réservés.