- はじめに
- アクセス制御と管理
- ソースとデータセットを管理する
- モデルのトレーニングと保守
- 生成 AI による抽出
- 分析と監視を使用する
- オートメーションと Communications Mining™
- 開発者
- CLI を設定する
- 一括ダウンロード
- 一括アップロード
- 一括削除
- コマンド リファレンス
- データをアップロードする
- データのダウンロード
- Exchange と Azure サービス ユーザーとの連携
- Exchange と Azure アプリケーション認証の統合
- Exchange と Azure Application Authentication and Graph の統合
- Migration Guide: Exchange Web Services (EWS) to Microsoft Graph API
- Python を使用した Tableau のデータのフェッチ
- Elasticsearch との連携
- 一般的なフィールド抽出
- セルフホストの Exchange 統合
- UiPath® Automation Framework
- UiPath® 公式アクティビティ
- 機械が単語を理解する方法:NLPに埋め込むためのガイド
- トランスフォーマーによるプロンプトベースの学習
- 効率的な変圧器II:知識蒸留と微調整
- 効率的な変圧器I:注意メカニズム
- 階層的な教師なしインテントモデリング:トレーニングデータなしで価値を得る
- Communications Mining™ でアノテーションの偏りを修正する
- アクティブ ラーニング: より優れた ML モデルを短時間で実現
- それはすべて数字にあります-メトリックを使用してモデルのパフォーマンスを評価します
- モデルの検証が重要な理由
- 対話データ分析 AI としての Communications Mining™ と Google AutoML を比較する
- ライセンス
- よくある質問など

Communications Mining ガイド
一括アップロード
作成されたコメント 1 件につき、または 1 件のテキストが変更された場合は更新されたコメント 1 件につき、一意の ID に基づいて 1 AI ユニットまたは 0.2 プラットフォーム ユニットが請求されます。
CLI を使用すると、コメント (事前アノテーション済みのコメントを含む) をバッチでアップロードできます。ライブ接続が不要な場合は、Communications Mining にデータをインポートするほかに、既存のトレーニング データを Communications Mining™ にアップロードしたり、Communications Mining の既存のコメントやラベルを上書きしたりするためにも使用できます。
このセクションでは 、CLI がすでにインストールおよび設定されていることを前提としています。
データの準備
CLI は、各行が JSON 値である JSONL 形式 (改行で区切られた JSON とも呼ばれる) のデータを予期します。多くのツールでは、JSONLファイルをすぐにエクスポートできます。ご不明な点がございましたら 、サポートまでお問い合わせください 。
JSONL ファイルの各行は、1 つのコメント オブジェクトを表します。各コメント オブジェクトには、少なくとも一意の ID、タイムスタンプ、およびテキストが必要ですが、他のフィールド (メタデータなど) を含めることができます。データに設定するフィールドについて詳しくは、「 コメント」をご覧ください。
JSONL ファイルの各行は次の形式である必要があります。ここでは、必須フィールドのみが表示されます。
これは読みやすくするためにインデント付きで示されていますが、ファイル内ではすべて 1 行に記述する必要があります。
{
"comment": {
"id": "<unique id>",
"timestamp": "<timestamp>",
"messages": [
{
"body": {
"text": "<text of the comment>"
}
}
]
}
}
{
"comment": {
"id": "<unique id>",
"timestamp": "<timestamp>",
"messages": [
{
"body": {
"text": "<text of the comment>"
}
}
]
}
}
コメントと一緒にラベルをアップロードする場合は、コメントと同じようにラベルを含めることができます (前述のように、読みやすくするためにインデントを付けて表示していますが、ファイル内ではすべて 1 行にする必要があります)。
{
"comment": {
"id": "<unique id>",
"timestamp": "<timestamp>",
"messages": [
{
"body": {
"text": "<text of the comment>"
}
}
]
},
"labelling": {
"assigned": [
{
"name": "<Your Label Name>",
"sentiment": "<positive|negative>"
},
{
"name": "<Another Label Name>",
"sentiment": "<positive|negative>"
}
]
}
}
{
"comment": {
"id": "<unique id>",
"timestamp": "<timestamp>",
"messages": [
{
"body": {
"text": "<text of the comment>"
}
}
]
},
"labelling": {
"assigned": [
{
"name": "<Your Label Name>",
"sentiment": "<positive|negative>"
},
{
"name": "<Another Label Name>",
"sentiment": "<positive|negative>"
}
]
}
}
データをアップロードする
コメントをアップロードする
次のコマンドは、指定されたソースにコメントをアップロードします。コメントは新しい空のソースにアップロードすることをお勧めします。問題が発生した場合のロールバックが簡単になるためです。ソースを削除するだけです。
re create comments \
--source <project_name/source_name> \
--file <file_name.jsonl>
re create comments \
--source <project_name/source_name> \
--file <file_name.jsonl>
既存のコメントを更新する場合は、 --overwrite フラグを指定する必要があります。 コメントは [ comment.id ] フィールドに基づいて上書きされます。 コメントを更新する前にソースのバックアップコピーを作成して、問題が発生した場合に元のコメントを復元できるようにすることをお勧めします。
ラベル付きのコメントをアップロードする
コメントと一緒にラベルをアップロードする場合は、ラベルをアップロードするデータセットを指定する必要があります。 アップロードを開始する前に、データセットをソースに接続する必要があります。
re create comments \
--source <project_name/source_name> \
--dataset <project_name/dataset_name> \
--file <file_name.jsonl>
re create comments \
--source <project_name/source_name> \
--dataset <project_name/dataset_name> \
--file <file_name.jsonl>
--overwrite フラグを指定することで、既存のコメントのラベルを上書きできます。
これにより、既存のラベルが新しいラベルに置き換えられ、新しいラベルに既存のラベルは追加されません。問題が発生した場合に元のラベルを復元できるように、ラベルを上書きする前にデータセットのバックアップ コピーを作成することをお勧めします。