- はじめに
- アクセス制御と管理
- ソースとデータセットを管理する
- モデルのトレーニングと保守
- 生成 AI による抽出
- 分析と監視を使用する
- オートメーションと Communications Mining™
- 開発者
- 機械が単語を理解する方法:NLPに埋め込むためのガイド
- トランスフォーマーによるプロンプトベースの学習
- 効率的な変圧器II:知識蒸留と微調整
- 効率的な変圧器I:注意メカニズム
- 階層的な教師なしインテントモデリング:トレーニングデータなしで価値を得る
- Communications Mining™ でアノテーションの偏りを修正する
- アクティブ ラーニング: より優れた ML モデルを短時間で実現
- それはすべて数字にあります-メトリックを使用してモデルのパフォーマンスを評価します
- モデルの検証が重要な理由
- 対話データ分析 AI としての Communications Mining™ と Google AutoML を比較する
- ライセンス
- よくある質問など

Communications Mining ガイド
[シャッフル] は [探索] フェーズの最初の手順であり、その目的は、ランダムに選択されたメッセージをユーザーに提供し、確認できるようにすることです。シャッフル モードでは、すべてのラベルを網羅する予測があるメッセージと、予測がまったくないメッセージが表示されます。したがって、シャッフルの手順は、トレーニングする特定のラベルに焦点を当てるのではなく、すべてのラベルを網羅するという点で、[探索] の他の手順とは異なります。
モデルに提供するトレーニング例がデータセット全体を代表していて、データの特定の領域にのみ焦点を絞ったために偏っておらず、十分であることを、シャッフル モードを使用して確認することが非常に重要です。
全体として、データセットで完了するトレーニングの少なくとも 10% をシャッフル モードで行う必要があります。
シャッフル モードでアノテーションを行うと、基本的に、タクソノミーがデータセット内のデータを十分に網羅していることを確認するのに役立つほか、データセット内のデータのごく一部のみを非常に正確に予測できるモデルが作成されるのを防ぐことができます。
したがって、シャッフル モードでメッセージを確認すると、モデル全体の状況を簡単に把握でき、トレーニング プロセス全体で参照できます。十分にトレーニングされたタクソノミーの場合は、シャッフルで未確認のメッセージを調べて予測を承認するだけで、モデルをさらにトレーニングできます。間違った予測が大量に見つかった場合は、さらにトレーニングが必要なラベルを確認できます。
トレーニング プロセスの後半にシャッフルで複数のページを確認するのも、タクソノミーでキャプチャされておらず、キャプチャされるべきであった意図や概念があるかどうかを確認する良い方法です。その後、必要な箇所に既存のラベルを追加したり、必要に応じて新しいラベルを作成したりできます。
- ドロップダウン メニューから [シャッフル] を選択すると、ランダムなメッセージが 20 個表示されます。
- 未確認のメッセージのみが表示されるようにフィルター処理します。
- 各メッセージと、関連する予測を確認します。
- 予測がある場合は、その予測を確認または却下する必要があります。適用される予測を選択して確認します。
- ほかにも適用されるラベルがある場合は、それらもすべて追加する必要があります。
- 予測を却下する場合は、正しいラベルをすべて適用する必要があります。メッセージを、ラベルが適用されていないままにしないようにしてください。
- [更新] ボタンをクリックして新しいメッセージのセットを取得したり、ページ番号や矢印を選択して次のページに進むこともできます。
シャッフルでは、少なくとも 10 ページのメッセージにアノテーションを行うことをお勧めします。多くのトレーニング例を含む大規模なデータセットでは、これよりもはるかに多くなる可能性があります。