- リリース ノート
- はじめる前に
- 基本情報
- AI Center をインストールする
- 移行とアップグレード
- プロジェクト
- データセット
- データのラベル付け
- ML パッケージ
- すぐに使えるパッケージ
- パイプライン
- ML スキル
- ML ログ
- AI Center の Document UnderstandingTM
- AI Center API
- 使い方
- ライセンス
- 基本的なトラブルシューティング ガイド
概要
すぐにデプロイして RPA ワークフローに追加できるパッケージの例を示します。本製品には、ほかにも数多くのパッケージが含まれています。
これは、一般に Inception V3 と呼ばれる深層学習のアーキテクチャに基づく、画像コンテンツのモデレーションのためのモデルです。モデルに画像を与えると、「explicit (露骨)」、「explicit-drawing (露骨な絵)」、「neutral (中立)」、「pornographic (ポルノ)」の4 つの分類のいずれかが、各分類の正規化された信頼度とともに出力されます。
Google によりオープン ソース化されている論文「Rethinking the Inception Architecture for Computer Vision (コンピュータ ビジョンのための開始アーキテクチャの再考)」(Szegedy 他) に基づいています。
このモデルは、英語で書かれたテキストの感情を予測します。Facebook Research によりオープン ソース化されたモデルです。可能な予測は、「非常に否定的」、「否定的」、「中立」、「肯定的」、「非常に肯定的」のいずれかです。モデルは、Amazon の製品レビュー データを使用してトレーニングされたため、異なる分布のデータについては、予想外の予測結果となる可能性があります。一般的なユース ケースは、構造化されていない言語コンテンツ (電子メールなど) をテキストの感情に基づいて転送する処理です。
Joulin 他による研究論文「Bag of Tricks for Efficient Text Classification」(効率的なテキスト分類のための各種手法) に基づいています。
このモデルは、英語で書かれた質問に対する回答を、何かしらの段落の文脈に基づいて予測します。ONNX によりオープン ソース化されたモデルです。一般的なユース ケースは、KYC や、財務レポートの処理です。一般的な質問を標準化された一連の半構造化文書に適用できる場合に適しています。最先端の BERT (Bidirectional Encoder Representations from Transformers) (Transformer による双方向のエンコード表現) に基づいています。このモデルは、広く使用されている注意モデル Transformer を言語モデリングに適用し、入力をエンコードしたうえで、質問回答のタスクに対するトレーニングを行います。
研究論文「BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding」(BERT: 言語理解のための深層双方向 Transformer のプリトレーニング) に基づいています。
このモデルは、テキスト入力の言語を予測します。以下の 176 の言語に対する予測が可能です。
言語 |
---|
af als am an ar arz as ast av az azb ba bar bcl be bg bh bn bo bpy br bs bxr ca cbk ce ceb ckb co cs cv cy da de diq dsb dty dv el eml en eo es et eu fa fi fr frr fy ga gd gl gn gom gu gv he hi hif hr hsb ht hu hy ia id ie ilo io is it ja jbo jv ka kk km kn ko krc ku kv kw ky la lb lez li lmo lo lrc lt lv mai mg mhr min mk ml mn mr mrj ms mt mwl my myv mzn nah nap nds ne new nl nn no oc or os pa pam pfl pl pms pnb ps pt qu rm ro ru rue sa sah sc scn sco sd sh si sk sl so sq sr su sv sw ta te tg th tk tl tr tt tyv ug uk ur uz vec vep vi vls vo wa war wuu xal xmf yi yo yue zh |
Facebook Research によりオープン ソース化されたモデルです。このモデルは、Creative Commons Attribution-Share-Alike License 3.0 の下で使用される、Wikipedia、Tatoeba、および SETimes のデータに基づいてトレーニングされました。一般的なユース ケースは、構造化されていない言語コンテンツ (電子メールなど) を、テキストに使用されている言語に基づいて適切な回答者に転送することです。
Joulin 他による研究論文「Bag of Tricks for Efficient Text Classification」(効率的なテキスト分類のための各種手法) に基づいています。
これは、英語をフランス語に翻訳する、seq2seq 機械翻訳モデルです。Facebook AI Research (FAIR) によりオープン ソース化されています。
Gehring 他による論文「Convolutional Sequence to Sequence Learning」(畳み込みシーケンス ツー シーケンス学習) に基づいています。
これは、英語をドイツ語に翻訳する、seq2seq 機械翻訳モデルです。Facebook AI Research (FAIR) によりオープン ソース化されています。
Ng 他による論文「Facebook FAIR's WMT19 News Translation Submission」(Facebook FAIR による WMT19 ニュース翻訳送信」に基づいています。
これは、英語をロシア語に翻訳する、seq2seq 機械翻訳モデルです。Facebook AI Research (FAIR) によりオープン ソース化されています。
Ng 他による論文「Facebook FAIR's WMT19 News Translation Submission」(Facebook FAIR による WMT19 ニュース翻訳送信」に基づいています。
これは、英語をロシア語に翻訳する、seq2seq 機械翻訳モデルです。Facebook AI Research (FAIR) によりオープン ソース化されています。
Ng 他による論文「Facebook FAIR's WMT19 News Translation Submission」(Facebook FAIR による WMT19 ニュース翻訳送信」に基づいています。
これは、英語をロシア語に翻訳する、seq2seq 機械翻訳モデルです。Facebook AI Research (FAIR) によりオープン ソース化されています。
Ng 他による論文「Facebook FAIR's WMT19 News Translation Submission」(Facebook FAIR による WMT19 ニュース翻訳送信」に基づいています。
このモデルは、テキストで認識されたエンティティのリストを返します。認識された 18 種類の名前付きエンティティは、学会でこの作業のベンチマークに一般的に使用されている OntoNotes5 と同じ出力クラスを使用します。このモデルは、2018 年の Borchmann 他による論文「Approaching nested named entity recognition with parallel LSTM-CRFs (Parallel LSTM-CRF による入れ子の固有表現抽出へのアプローチ)」に基づいています。
以下に、18 種類のクラスを示します。
エンティティ |
説明 |
---|---|
PERSON |
People, including fictional. |
NORP |
Nationalities or religious or political groups. |
FAC |
Buildings, airports, highways, bridges, etc. |
ORG |
Companies, agencies, institutions, etc. |
GPE |
Countries, cities, states. |
LOC |
Non-GPE locations, mountain ranges, bodies of water. |
PRODUCT |
Objects, vehicles, foods, etc. (Not services.) |
EVENT |
Named hurricanes, battles, wars, sports events, etc. |
WORK_OF_ART |
Titles of books, songs, etc. |
LAW |
Named documents made into laws. |
LANGUAGE |
Any named language. |
DATE |
Absolute or relative dates or periods. |
TIME |
Times smaller than a day. |
PERCENT |
Percentage, including ”%“. |
MONEY |
Monetary values, including unit. |
QUANTITY |
Measurements, as of weight or distance. |
ORDINAL |
“first”, “second”, etc. |
CARDINAL |
Numerals that do not fall under another type. |
- すぐにデプロイ可能
- Image Moderation (画像のモデレーション)
- Sentiment Analysis (感情分析)
- Question Answering (質問回答)
- Language Identification (言語識別)
- English To French (英語からフランス語)
- English To German (英語からドイツ語)
- German To English (ドイツ語から英語)
- English To Russian (英語からロシア語)
- Russian To English (ロシア語から英語)
- Named Entity Recognition (名前付きエンティティ認識)