- はじめに
- アクセス制御と管理
- ソースとデータセットを管理する
- モデルのトレーニングと保守
- 生成 AI による抽出
- 分析と監視を使用する
- オートメーションと Communications Mining™
- 開発者
- データをアップロードする
- データのダウンロード
- Exchange と Azure サービス ユーザーとの連携
- Exchange と Azure アプリケーション認証の統合
- Exchange と Azure Application Authentication and Graph の統合
- Migration Guide: Exchange Web Services (EWS) to Microsoft Graph API
- Python を使用した Tableau のデータのフェッチ
- Elasticsearch との連携
- 一般的なフィールド抽出
- セルフホストの Exchange 統合
- UiPath® Automation Framework
- UiPath® 公式アクティビティ
- 機械が単語を理解する方法:NLPに埋め込むためのガイド
- トランスフォーマーによるプロンプトベースの学習
- 効率的な変圧器II:知識蒸留と微調整
- 効率的な変圧器I:注意メカニズム
- 階層的な教師なしインテントモデリング:トレーニングデータなしで価値を得る
- Communications Mining™ でアノテーションの偏りを修正する
- アクティブ ラーニング: より優れた ML モデルを短時間で実現
- それはすべて数字にあります-メトリックを使用してモデルのパフォーマンスを評価します
- モデルの検証が重要な理由
- 対話データ分析 AI としての Communications Mining™ と Google AutoML を比較する
- ライセンス
- よくある質問など

Communications Mining ガイド
対話データ分析 AI としての Communications Mining™ と Google AutoML を比較する
NLPとMLの力を活用してプロセスを自動化し、より優れた分析を行い、企業が行う会話をより深く理解する場合、通常、最初の決定はソリューション を購入するか、独自のソリューションを構築するかです。
この記事では、 Communications Mining プラットフォームのパフォーマンスと設計哲学を、最強のクラウド NLP ソリューションの 1 つである Google の AutoML と比較します。
専用のエンタープライズ通信インテリジェンス製品を使用するプロセスと、より汎用的なツールを使用する場合と比較して、いくつかの洞察を提供し、どのようなトレードオフが予想されるかを提供したいと考えています。
デザイン哲学
Communications Mining™ と Google AutoML はどちらも、ラベルを会話に関連付けるアノテーション済みのトレーニング データセットをユーザーが作成する必要があるソリューションです。トレーニング データの品質によって、トレーニング済みのモデルから返される予測の品質が決まります。
高品質のトレーニング データを得るには、 ラベルを一貫性を持って適用 し、予測対象の ドメインを正確に表す ことが重要です。
Communications Mining と Google AutoML の 1 つ目の大きな違いは、製品の使用方法に関する設計哲学です。
タスクにアノテーションを行う場合とアクティブ ラーニングの場合
AutoML フローでは、アノテーション済みのデータセットをオフラインで作成し、アップロードしてモデルのトレーニングに使用します。データセットのアノテーションは、多くの事前作業を必要とするコストのかかる操作です。ラベルの生成方法は AutoML の範囲外ですが、考えられる解決策の 1 つは、アノテーションを第三者にアウトソーシングすることです。Googleは、AutoMLと統合されている Aannotatingタスク を提供していますが、Amazonの Mechanical Turkを使用することもできます。
これは、いくつかの理由で最適ではありません
- サードパーティのアクセスは、多くの場合、機密性の高い内部会話の初心者ではありません。
- 企業のコミュニケーションの複雑さを完全に把握するために必要な関連する洞察を持っていない人々に注釈付けを外部委託することは望ましくない場合があります
- ドメインのコンテキスト知識は、高品質のトレーニングデータの鍵です。 たとえば、誰でも猫や犬の画像に注釈を付けることができますが、取引後の投資銀行の運用メールボックスからの電子メールには、対象分野の専門家(SME)が必要です。
Communications Mining™ では、アノテーションなしの大量のデータをアップロードし、アクティブ ラーニングを使用して対話形式でアノテーションを作成することをお勧めします。UiPath では、対話型のデータ探索とアノテーションが、企業の会話に含まれるすべての興味深い情報やニュアンスを適切なレベルの粒度で真にキャプチャするラベル セットを構築するための鍵であると考えています。
もちろん、出発点として使用したい大規模なアノテーション済みのデータセットが既にある場合は、 cli ツールを使用して アノテーション済みのデータセットをアップロードすることもできます。
ウォーターフォールとアジャイルモデルの構築
これら2つの設計哲学は、 ウォーターフォール と アジャイル ソフトウェア開発モデルを彷彿とさせます。前者がプロジェクトを連続したチャンクに分割した場合、後者は柔軟性を高め、優先順位の再評価を促進します。
機械学習モデルを作成するために AutoML によって使用されるウォーターフォール モデル
大規模な注釈付きデータセットが事前に必要な場合、最初のステップは、NLPモデルによってキャプチャされるラベル/概念を決定することです。 重要なのは、この決定は、実質的なデータ探索の前に行う必要があるということです。
対話型のアプローチは、データセットに注釈を付けるときに新しい概念を発見するための扉を開きます。 既存の概念を具体化することも、以前は見過ごされていたまったく新しい概念を発見することもできます。 中小企業が要件によってキャプチャされなかった新しい概念を発見した場合、ウォーターフォールモデルではこの新しい情報を適応させて組み込むことができず、最終的にはモデルが悪化します。
Communications Mining™ でマシン ラーニング モデルの作成に使用されるアジャイル モデルです。
モデルが予期しない方法で失敗することが多く、モデルの検証が困難なプロセスである機械学習の世界では、ウォーターフォール手法は脆弱すぎて、モデルを本番環境に確実にデプロイするにはイテレーション時間が長すぎる可能性があります。
AutoML は、各ラベルの偽陽性と偽陰性を明らかにすることで、モデルを改善する方法に関するいくつかのヘルプを提供します。 Communications Mining では、各ラベルに対して一連の警告および推奨アクションが用意されています。これにより、ユーザーはモデルの故障モードをより深く理解し、最速でモデルを改善することができます。
データ モデル
AutoML と Communications Mining™ が異なるもう 1 つの軸は、使用するデータ モデルです。AutoML は、入力とターゲットの両方に対して非常に汎用的な構造を提供します。Communications Mining は、自然言語によって媒介される主要なコミュニケーション チャネルに対して最適化されています。
半構造化された会話
ほとんどのデジタル会話は、次のいずれかの形式で行われます。
- メール
- チケット
- Chats
- 電話
- フィードバック/レビュー/調査
これらはすべて半構造化形式であり、含まれているテキスト以外の情報が含まれています。 電子メールには、送信者と一部の受信者、および件名があります。 チャットにはさまざまな参加者とタイムスタンプがあります。 レビューには、スコアなどのメタデータが関連付けられている場合があります。
AutoML には、トレーニング例をアップロードする際にこれらの半構造化された情報を表す標準的な方法はなく、テキストのみを扱います。Communications Mining™ は、メールの構造と任意のメタデータ フィールドをユーザー プロパティでファーストクラスでサポートします。
次の例に示すように、企業のメールには、メールの実際の内容よりもはるかに長い大きな署名や免責事項が含まれていることがよくあります。AutoML には署名を削除するロジックがないため、Communications Mining を使用して署名を解析してから AutoML に渡しました。最新の機械学習アルゴリズムは、シグネチャによるノイズを非常にうまく処理できますが、人間のラベラーについては同じことが言えません。メールを解析して、適用されるラベルを見つけて注目すべきテーマを識別しようとすると、長い署名を無視しなければならないという認知的負荷は無視できず、ラベルの品質の低下につながる可能性があります。
投資銀行の電子メールの例。 電子メールには、件名、送信者、受信者、いくつかのメタデータフィールド、および長い署名があります
関連概念
企業内での会話内の概念が独立していることはめったにありません。多くの場合、ラベルを構造化されたラベル階層にグループ化する方が自然です。たとえば、e コマース プラットフォームでは、ユーザーが自分の配達についてどう思うかをキャプチャし、Delivery > Speed Delivery > Cost Delivery > Trackingなどのサブラベルを作成できます。よりきめ細かい洞察を得る場合は、Delivery > Cost > Free Shipping Delivery > Cost > Taxes & Customsなど、さらに詳細に分析できます。
ラベルを階層にグループ化すると、ユーザーは注釈を付けている内容をより明確に把握し、定義しているラベルのより良いメンタルモデルを持つことができます。 また、ラベルは自動的に親に集約されるため、当然、より優れた分析と自動化が可能になります。 前の例では、子ラベルについて明示的に何もしなくても、最上位の Delivery ラベルの分析を追跡できます。
AutoML では、構造化ラベルはサポートされず、代わりにラベル間の完全な独立性を前提としています。 これはNLPラベルの最も汎用的なデータモデルですが、半構造化された会話を最適に処理するために必要な特異性に欠けていると考えています。
多くの場合、フィードバックやアンケートの分析にとっては、ラベルの構造に加えて、テキストの感情も重要です。Google では 個別の感情モデルを提供しています。既製の感情モデルを使用することで、入力に対するグローバルな感情が得られます。しかし、複雑な自然言語の場合は、複数の感情が同時に出てくることはよくあることです。たとえば、次のフィードバックについて考えてみましょう。

グローバルな感情を定義することは、同じ文で表現されている異なる極性の2つの概念があるため、困難です。Communications Mining™ では、この問題に正確に対処するために、ラベルごとの感情が提供されます。以前のフィードバックは、選挙については肯定的であるが、在庫の入手可能性については否定的であると注釈を付けることができるため、両方の感情とそれらが何に関連するかを捉えることができます。
AutoML では、各ラベルの Positive バージョンと Negative バージョンを作成することで同様のことを行うことができますが、これらが同じラベルの 2 つのバージョンであることを示す方法がないため、2 倍のデータに注釈を付ける必要があります。
同一の入力
もう1つの興味深い観察結果は、入力の重複排除に関するものです。一般に、マシン ラーニング モデルを検証する際には、トレーニング セットとテスト セットを厳密に分離して、データの漏洩を防ぐことが重要です。これにより、パフォーマンスの推定値が楽観的になりすぎて、デプロイ時に予期せぬ失敗が発生する可能性があります。
AutoML は入力の重複を自動的に排除し、重複した入力があることをユーザーに警告します。 汎用NLP APIには適切なアプローチですが、会話型データには当てはまりません。
不在メッセージから会議のリマインダーまで、内部で送信される多くの電子メールは自動生成されます。 調査の結果を分析するとき、特に次のような狭い質問では、多くの人がまったく同じことに答えることは完全に可能です
Is there anything we could do to improve? → No.
これは、これらの重複する入力の多くが実世界の分布で正当に複製されていることを意味し、これらのよく知られた、厳密に同一の入力でモデルがどの程度うまく機能するかを評価することが重要です。
実験
さて、主な違いについて説明したので、両方の製品の生のパフォーマンスを評価して、運用環境で使用できるモデルをデプロイするのに必要な労力が少ないのはどちらかを確認します。
セットアップ
私たちは、比較を可能な限り公平にすることを目指しています。 3つのコアエンタープライズNLPユースケースを代表する3つのデータセットのパフォーマンスを評価します
| Size | 割り当てられたラベル | 一意のラベル | |
|---|---|---|---|
| 投資銀行のメール | 1368 | 4493 | 59 |
| 保険引受メール | 3964 | 5188 | 25 |
| Eコマースフィードバック | 3510 | 7507 | 54 |
データを以下のように処理しました
- データ形式。Communications Mining™ では、 組み込みのメール サポートを使用します。AutoML はテキストの blob を予期するため、メールの構造を表すために次の形式を使用しました
Subject: <SUBJECT-TEXT> Body: <BODY-TEXT> - 署名ストリッピング。すべてのメール本文は、マシン ラーニング モデルに渡される前に、署名を削除するために前処理されています。
AutoML 注釈付けタスクは機密の内部データには適用できないため、Communications Mining アクティブ ラーニング プラットフォームで SME によって注釈が付けられたラベルを使用して、両方のモデルのトレーニングに使用する教師ありデータを作成します。
これらのデータセットは、その代表的な性質のために選択し、サンプリングバイアスやチェリーピッキングを防ぐために、最初の結果が表示された後は変更しませんでした。
固定のテスト セットを保持し、それを使用して両方のプラットフォームを評価し、まったく同じトレーニング データで両方をトレーニングします。AutoML では、ユーザーがトレーニングと検証の分割を手動で指定する必要があります。そのため、 AutoML ドキュメントで提案されているように、検証として使用するトレーニング データの 10% をランダムにサンプリングします。
メトリック
Communications Mining™ の [検証] ページ は、モデルのパフォーマンスを理解するのに役立ちます。使用する主要なメトリックは 平均適合率の平均値です。AutoML では、すべてのラベル予測の平均 適合率 のほか、特定のしきい値での適合率と再現率が報告されます。
平均平均精度は、個々のラベルのパフォーマンスの重み付けされていない平均であるため、すべてのラベルのパフォーマンスをより適切に考慮しますが、平均精度、精度、再現率は、すべての入力とラベルにわたるモデルのグローバルな動作をキャプチャするため、一般的に発生するラベルをより適切に表します。
以下の指標を比較します。
- 平均適合率の平均値 Communications Mining™ で使用されるメトリックです。ラベル全体のマクロ平均適合率です。
- 平均適合率 AutoML で使用されるメトリックです。すべての予測のマイクロ平均適合率です。
- F1 スコア 適合率と再現率だけでは意味がありません。なぜなら、一方を他方と交換する可能性があるためです。適合率と再現率が同等に重要なタスクのパフォーマンスを表す F1 スコアを報告します。
興味のある読者は、 関連するセクションで完全な適合率-再現率曲線を見つけることができます。
結果



Communications Mining™ は、すべてのベンチマーク データセットのすべてのメトリックで、平均で 5 ポイントから 10 ポイントAutoML を上回っています。これは、コミュニケーションから学習することに特化したツールが、高パフォーマンスのエンタープライズ オートメーションや分析に適していることを明確に示しています。
AutoML は汎用の NLP タスクを処理するように構築されているため、特定のタスクを犠牲にしてまで、テキストベースのタスクに十分に柔軟に適応できる必要があります。さらに、 転移学習を活用する多くの既製のソリューションと同様に、AutoML の最初の知識は、ソーシャル メディアやニュース記事で一般的に使用される日常言語に重点を置いています。つまり、エンタープライズ コミュニケーションにパブリック データを適用するために必要なデータの量は、Communications Mining のようにエンタープライズ コミュニケーションの処理を主な目的とするモデルよりもはるかに多く、非常によく似た初期知識から得られた転移学習を活用できます。現実世界への影響という点では、これは、SME がアノテーションに費やす時間の価値が高くなり、モデルから価値を引き出すまでの時間が長くなり、導入コストが高くなることを意味します。
ローデータレジーム
完全なデータセットに加えて、少量のデータでトレーニングされたモデルのパフォーマンスも評価したいと考えています。 トレーニングデータの収集は費用と時間のかかるプロセスであるため、NLPプラットフォームを選択する際には、データが与えられたときにモデルが向上する速度は重要な考慮事項です。
データが少ない学習は、 少数ショット学習として知られています。具体的には、各ラベルの K 個の例から学習しようとする場合、これは通常、 K ショット学習と呼ばれます。
少数ショットのパフォーマンスを評価するために、各ラベルの 5 つと 10 個の例をサンプリングして各データセットの小さなバージョンを作成し、これらをそれぞれ 5 ショットと 10 ショットのデータセットとして記録します。前述のように、Communications Mining™ では階層状のラベル構造を使用します。つまり、子は親なしでは適用できないため、ラベルごとに正確に 5 つの例をサンプリングすることはできません。したがって、階層内のリーフ ラベルをサンプリングしてこれらのデータセットを構築し、親が潜在的により多くの例を持つようにします。
これらのサンプルは完全にランダムに抽出され、Communications Mining プラットフォームに有利なアクティブ ラーニング バイアスはありません。
AutoML では、すべてのラベルに少なくとも 10 個の例がない限り、ユーザーはモデルをトレーニングできないため、5 ショットのパフォーマンスを報告することはできません



データ量が少ない状況では、Communications Mining は、すべてのタスクについてほとんどのメトリックで AutoML を大幅に上回ります。Communications Mining の 5 ショットのパフォーマンスは、ほとんどのメトリックで 10 ショットの AutoML パフォーマンスとすでに競合しています。
注釈付きのトレーニング ポイントがほとんどない正確なモデルを持つことは、人間がはるかに早い段階でモデルとの共同作業を開始できることを意味し、アクティブ ラーニング ループを強化できるため、非常に強力です。
AutoML のパフォーマンスが高いメトリックは、Customer Feedback の 10 ショットの平均適合率の平均値です。AutoML は Communications Mining™ を 1.5 ポイント上回っています。
AutoML は汎用ツールであるため、散文のようなデータに最適であり、顧客からのフィードバックには、汎用ツールが苦労する重要な半構造化データやドメイン固有の専門用語が含まれていない傾向があり、これが AutoML がうまく機能する理由である可能性があります。
トレーニング時間
モデルのトレーニングは複雑なプロセスであるため、トレーニング時間は考慮すべき重要な要素です。 高速なモデル トレーニングとは、イテレーション サイクルが速く、フィードバック ループが緊密になることを意味します。 つまり、人間がラベルを適用するたびにモデルの改善が速くなり、モデルから価値を引き出すのにかかる時間が短縮されます。
| Communications Mining™ | AUTOML | |
|---|---|---|
| 投資銀行のメール | 1分32秒 | 4時間4分 |
| Eコマースフィードバック | 2分45秒 | 4時間4分 |
| 保険引受メール | 55秒 | 3時間59分 |
Communications Mining™ はアクティブ ラーニング用に構築されています。UiPath にとってトレーニング時間は非常に重要です。UiPath のモデルは、精度を損なうことなく素早くトレーニングできるように最適化されています。AutoML モデルのトレーニングは、Communications Mining と比較して平均で ~200 倍低速です。
AutoML モデルのトレーニングには桁違いに長い時間がかかるため、アクティブ ラーニング ループでの使用にはあまり適していません。 イテレーション時間が非常に長いため、AutoML を改善するための最善の方法は、モデルの再トレーニングの間に大量の注釈を付けることになり、冗長なデータ注釈 (既に十分に理解されている概念のトレーニング例をもっと提供する) と不十分なデータ探索 (モデルが何を知らないかわからないと、より高い概念カバレッジを達成するのが難しくなります) のリスクがあります。
結論
エンタープライズ NLP ソリューションを構築する場合、モデルの生の予測能力は、考慮する必要がある 1 つの側面にすぎません。Communications Mining™ は、一般的なエンタープライズの NLP タスクでは AutoML よりも優れていることがわかりましたが、得られた主な洞察は、これらのプラットフォームが持つ NLP へのアプローチの根本的な違いでした。
- Communications Mining は、半構造化会話の分析に特化したツールです。 これには、アジャイルフレームワークでモデルを最初から構築するために必要なコンポーネントがさらに含まれています。
- AutoMLは汎用のNLPツールであり、効果を発揮するには他のコンポーネントと統合する必要があります。 機械学習モデル構築用のウォーターフォール フレームワークで、既存の注釈付きデータを使用してモデルを構築することに重点を置きます。
- どちらのツールも競争力の高い最先端のモデルを構築できますが、Communications Mining は、エンタープライズ コミュニケーション分析で一般的な特定のタスクに適しています。
正確な要件を事前に定義できない限り、AutoML モデルの長いトレーニング時間は、Communications Mining が構築しているアクティブ ラーニング ループで対話型データ探索を推進するには適していません。
モデルをトレーニングする前にラベルごとに 10 個の例を用意するという AutoML の要件は、非常に早い段階でモデルを効果的に使用して注釈を付けることができないことを意味し、これはまさに機械学習プロジェクトの最も難しい部分です。
さらに、AutoML と Communications Mining が期待するタスク間の分布のギャップは、転移学習のより焦点を絞った使用により、より具体的なツールがより高品質のモデルをより迅速に生成できることを意味します。
この比較情報を参考にした場合、コメントや質問がある場合、または Communications Mining を使用して会社の会話をより深く理解したい場合は、 UiPath® にお問い合わせください。
精度-再現率曲線
Communications Mining™ モデルと AutoML モデルの動作の違いをより深く理解するには、平均適合率などの最上位のメトリックでは全体像を把握することはできません。このセクションでは、すべての比較の適合率と再現率の曲線を提供します。これにより、読者は特定のパフォーマンスのしきい値を考慮して、どのような適合率/再現率のトレードオフが期待できるかを評価できます。





