- Notes de publication
- Avant de commencer
- Démarrage
- Installation d'AI Center
- Migration et mise à niveau
- Projets
- Jeux de données
- Labellisation des données
- Paquets ML
- Paquets prêts à l’emploi
- Pipelines
- Compétences ML
- Journaux ML
- Document UnderstandingTM dans AI Center
- API AI Center
- Comment
- Licences
- Guide de dépannage de base
AI Center - Guide de l'utilisateur
Vue d'ensemble (Overview)
Exemples de packages pouvant être immédiatement déployés et ajoutés à un workflow RPA. Vous trouverez plus d'informations dans le produit
Il s'agit d'un modèle de modération de contenu d'image basé sur une architecture d'apprentissage profond communément appelée Inception V3. À partir d'une image, le modèle produira l'une des quatre catégories « explicite », « dessin explicite », « neutre » et « pornographique » avec un score de confiance normalisé pour chaque probabilité de catégorie.
Il est basé sur l'article « Rethinking the Inception Architecture for Computer Vision » de Szegedy et d'autres, qui a été publié en open source par Google.
Ce modèle prédit le sentiment d'un texte en langue anglaise. Il a été publié en open source par Facebook Research. Les prédictions possibles sont "Très Négative(Very Negative), "Négative (Negative)", "Neutre (Neutral)", "Positive (Positive)", "Très Positif (Very Positive)". Le modèle a été formé sur les données d'examen des produits Amazon. Par conséquent, les prédictions du modèle peuvent avoir des résultats inattendus pour différentes distributions de données. Un cas d'utilisation courant consiste à acheminer du contenu en langage non structuré (par ex. des e-mails) en fonction du sentiment du texte.
Il est basé sur le document de recherche « Bag of Tricks for Efficient Text Classification » de Joulin et d'autres auteurs.
Ce modèle prédit la réponse à une question d'un texte en anglais sur la base d'un contexte de paragraphe. Il a été publié en open-source par ONNX. Un cas d'utilisation courant est le KYC ou le traitement des rapports financiers où une question commune peut être appliquée à un ensemble standard de documents semi-structurés. Il est basé sur le modèle de pointe BERT (Bidirectionnel Encoder Representations from Transformers). Le modèle applique Transformers, un modèle d'attention populaire, à la modélisation du langage pour produire un codage de l'entrée, puis s'entraîne à la tâche de réponse aux questions.
Il est basé sur le document de recherche « BERT : Pre-training of Deep Bidirectional Transformers for Language Understanding ».
Ce modèle prévoit la langue d'une entrée de texte. Les prévisions possibles s'effectuent parmi les 176 langues suivantes :
Langues |
---|
af als am an ar arz as as av az azb ba bar bcl be bg bh bn bo bpy br bs bxr ca cbk ce ceb ckb co cs cv cy da de diq dsb dty dv el eml en eo es et eu fa fi fr frr fy ga gd gl gn gom gu gv he salut hif hr hsb ht hu hy ia id ie ilo io est-ce ja jbo jv ka kk km kn ko krc ku kv kw ky la lb lez li lmo lo lrc lt lv mai mg mhr min mk ml mn mr mrj ms mt mwl myv mzn nah nap nds ne new nl nn no oc or os pa pam pfl pl pms pnb ps pt qu rm ro ru rue sa sah sc scn sco sd sh si sk sl so sq sr su sv sw ta te tg th tk tl tr tt tyv ug uk ur uz vec vep vi vls vo wa war wuu xal xmf yi yo yue zh |
Il a été publié en open source par Facebook Research. Le modèle a été formé à partir des données de Wikipedia, Tatoeba et SETimes utilisées sous la licence Creative Commons Attribution-Share-Alike 3.0. Un cas d'utilisation courant consiste à acheminer du contenu en langage non structuré (par ex. e-mails) à un interlocuteur approprié en fonction de la langue du texte.
Il est basé sur le document de recherche « Bag of Tricks for Efficient Text Classification » de Joulin et d'autres auteurs.
Il s'agit d'un modèle de traduction automatique de séquence à séquence qui traduit de l'anglais vers le français. Il a été publié en open source par Facebook AI Research (FAIR).
Il est basé sur l'article « Convolutional Sequence to Sequence Learning » de Gehring et d'autres auteurs.
Il s'agit d'un modèle de traduction automatique de séquence à séquence qui traduit de l'anglais vers l'allemand. Il a été publié en open source par Facebook AI Research (FAIR).
Il est basé sur l'article « Facebook FAIR's WMT19 News Translation Submission » par Ng, et d'autres auteurs.
Il s'agit d'un modèle de traduction automatique de séquence à séquence qui traduit de l'anglais vers le russe. Il a été publié en open source par Facebook AI Research (FAIR).
Il est basé sur l'article « Facebook FAIR's WMT19 News Translation Submission » par Ng, et d'autres auteurs.
Il s'agit d'un modèle de traduction automatique de séquence à séquence qui traduit de l'anglais vers le russe. Il a été publié en open source par Facebook AI Research (FAIR).
Il est basé sur l'article « Facebook FAIR's WMT19 News Translation Submission » par Ng, et d'autres auteurs.
Il s'agit d'un modèle de traduction automatique de séquence à séquence qui traduit de l'anglais vers le russe. Il a été publié en open source par Facebook AI Research (FAIR).
Il est basé sur l'article « Facebook FAIR's WMT19 News Translation Submission » par Ng, et d'autres auteurs.
Ce modèle renvoie une liste d'entités reconnues dans le texte. Les 18 types d'entités nommées reconnus utilisent la même classe de sortie que dans OntoNotes5, qui est couramment utilisée pour l'analyse comparative de cette tâche dans le milieu universitaire. Le modèle est basé sur l'article « Approaching Nested Named entity reconnaissance with parallel LSTM-CRFs » de Borchmann et d'autres auteurs, 2018.
Les 18 classes sont les suivantes :
Entité |
Description |
---|---|
Personne |
Les personnes, y compris fictives. |
NORP |
Nationalités ou groupes religieux ou politiques. |
FAC |
Bâtiments, aéroports, autoroutes, ponts, etc. |
ORG |
Entreprises, agences, institutions, etc. |
GPE |
Pays, villes, états. |
LOC |
Emplacements d'entités non-géopolitiques, chaînes de montagnes, plans d'eau. |
Produit |
Objets, véhicules, aliments, etc. (pas de services) |
Événement (Event) |
Ouragans nommés, batailles, guerres, événements sportifs, etc. |
WORK_OF_ART |
Titres de livres, chansons, etc. |
LAW |
Documents nommés transformés en lois. |
Langue |
Toute langue nommée. |
Date |
Dates ou périodes absolues ou relatives. |
HEURE |
Durées inférieures à une journée. |
PERCENT |
Pourcentage, y compris « % ». |
MONEY |
Valeurs monétaires, y compris l'unité. |
Quantité |
Mesures, comme le poids ou la distance. |
ORDINAL |
« premier », « deuxième », etc. |
CARDINAL |
Chiffres qui ne relèvent pas d'un autre type. |