ixp
latest
false
- はじめに
- アクセス制御と管理
- ソースとデータセットを管理する
- モデルのトレーニングと保守
- 生成 AI による抽出
- 分析と監視を使用する
- オートメーションと Communications Mining™
- 開発者
- 機械が単語を理解する方法:NLPに埋め込むためのガイド
- トランスフォーマーによるプロンプトベースの学習
- 効率的な変圧器II:知識蒸留と微調整
- 効率的な変圧器I:注意メカニズム
- 階層的な教師なしインテントモデリング:トレーニングデータなしで価値を得る
- Communications Mining™ でアノテーションの偏りを修正する
- アクティブ ラーニング: より優れた ML モデルを短時間で実現
- それはすべて数字にあります-メトリックを使用してモデルのパフォーマンスを評価します
- モデルの検証が重要な理由
- 対話データ分析 AI としての Communications Mining™ と Google AutoML を比較する
- ライセンス
- よくある質問など

Communications Mining ガイド
最終更新日時 2025年10月20日
手記: パフォーマンス指標や警告がなくユース ケースに適した適合率または再現率レベルのラベルを選択します。
抽出の検証プロセスは、検証を通じてこれらの抽出のパフォーマンスを把握するために必要です。
トレーニングする抽出データを決定します。Report (レポート) > Statement of Accounts (勘定書) を、トレーニングするスキーマの例として使用します。
このプロセスを自動化するには、次のデータ ポイントを抽出して下流のシステムに入力します。
注: これは、[探索] でトレーニングしている場合にのみ当てはまることです。[トレーニング] では、抽出トレーニング バッチを選択すると、抽出データが事前に読み込まれます。
必要に応じてこのトレーニング モードを使用して、各抽出のトレーニング例 (つまり、ラベルに割り当てられた一連のフィールド) の数を 25 以上に増やします。これにより、モデルは抽出のパフォーマンスを正確に推定できます。
重要: Preview LLM を使用する場合は、各フィールドの例が 25 個になったら、それ以上例にアノテーションを行うのを止めることをお勧めします。コンテキスト内学習と検証には 25 個で十分であり、例を増やしてもパフォーマンスは向上しません。
抽出データを生成するには、以下の手順に従います。
- [探索] タブに移動します。
- [ ラベル] を選択し、抽出データを生成するラベルを選択します。
- [抽出データを予測] を選択します。これにより、[探索] でページごとに抽出データが生成されます。つまり、指定したページのすべてのコメントに予測が適用されます。
注: 次のページに移動するたびに、再度 [抽出データを予測] を選択する必要があります。
さらに、[ フィールドのアノテーションを行う]、[ 抽出データを予測] の順に選択して、個別のコメント レベルで抽出データを生成できます。詳しくは、「 抽出データを予測する」をご覧ください。
-
抽出予測を行った後、モデルがコメントの抽出されたフィールドを取得すると、テキスト内の関連する範囲が強調表示されます。モデルのサイド パネルに抽出された値が表示されます。予測値の検証方法については、「 生成された抽出データを検証してアノテーションを行う」をご覧ください。