- Introduction
- Configuration de votre compte
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- Champs généraux
- Libellés (prédictions, niveaux de confiance, hiérarchie des libellés et sentiment des libellés)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages annotés et non annotés
- Extraction des champs
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Contrôle et administration de l'accès
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Créer ou supprimer une source de données dans l'interface graphique
- Téléchargement d’un fichier CSV dans une source
- Préparation des données en vue du téléchargement du fichier .CSV
- Création d'un ensemble de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modification des paramètres du jeu de données
- Supprimer un message
- Supprimer un jeu de données
- Exporter un ensemble de données
- Utilisation d'intégrations Exchange
- Entraînement et maintenance du modèle
- Comprendre les libellés, les champs généraux et les métadonnées
- Hiérarchie de libellés et meilleures pratiques
- Comparer les cas d’utilisation des analyses et des automatisations
- Transformer vos objectifs en libellés
- Présentation du processus d'entraînement du modèle
- Annotation générative
- Statut du jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Entraînement des données de chat et d'appels
- Comprendre les exigences de données
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Affiner et réorganiser votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation
- Comprendre et améliorer les performances du modèle
- Raisons de la faible précision moyenne des libellés
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Utilisation de champs généraux
- Extraction générative
- Vue d'ensemble (Overview)
- Configurer des champs
- Filtrage par type de champ d’extraction
- Génération de vos extractions
- Validation et annotation des extractions générées
- Meilleures pratiques et considérations
- Comprendre la validation des extractions et des performances d'extraction
- Questions fréquemment posées (FAQ)
- Utilisation des analyses et de la surveillance
- Automations et Communications Mining™
- Développeur
- Charger des données
- Téléchargement de données
- Intégration avec l'authentification d'application Azure
- Intégration d’Exchange avec l’authentification et le graphique d’application Azure
- Récupérer des données pour Tableau avec Python
- Intégration d'Elasticsearch
- Intégration avec Exchange auto-hébergée
- Infrastructure d’automatisation UiPath®
- Activités UiPath® Marketplace
- Activités officielles UiPath®
- Comment les machines apprennent à comprendre les mots : guide d'intégration dans NLP
- Apprentissage basé sur des invites avec des Transformers
- Efficient Transformers II : Dilarisation des connaissances et affinement
- Transformateurs efficaces I : mécanismes d'attention
- Modélisation de l'intention hiérarchique profonde non supervisée : obtenir de la valeur sans données d'entraînement
- Correction des biais d’annotation avec Communications Mining™
- Apprentissage actif : de meilleurs modèles d'ML en moins de temps
- Tout est dans les chiffres : évaluer les performances du modèle avec des métriques
- Pourquoi la validation du modèle est importante
- Comparaison de Communications Mining™ et de Google AutoML pour l’information sur des données conversationnelles
- Licences
- FAQ et plus encore

Guide de l’utilisateur de Communications Mining
Autorisations requises : utiliser des flux, afficher les libellés, afficher les sources.
/results
est le nouveau moyen de récupérer les commentaires et leurs prédictions à partir d'un flux, remplaçant la route /fetch
existante (Streams - Héritage). Nous conservons la route / fetch pour la prise en charge héritée, mais nous recommandons que tous les nouveaux cas d’utilisation utilisent la route /results
, car elle prend en charge tous les cas d’utilisation possibles, y compris ceux utilisant l’extraction générative.
- Bash
curl -X GET 'https://<my_api_endpoint>/api/v1/datasets/project1/collateral/streams/dispute/results?max_results=5&max_filtered=15' \ -H "Authorization: Bearer $REINFER_TOKEN"
curl -X GET 'https://<my_api_endpoint>/api/v1/datasets/project1/collateral/streams/dispute/results?max_results=5&max_filtered=15' \ -H "Authorization: Bearer $REINFER_TOKEN" - Nœud
const request = require("request"); request.get( { url: "https://<my_api_endpoint>/api/v1/datasets/project1/collateral/streams/dispute/results?max_results=5&max_filtered=15", headers: { Authorization: "Bearer " + process.env.REINFER_TOKEN, }, }, function (error, response, json) { // digest response console.log(JSON.stringify(json, null, 2)); } );
const request = require("request"); request.get( { url: "https://<my_api_endpoint>/api/v1/datasets/project1/collateral/streams/dispute/results?max_results=5&max_filtered=15", headers: { Authorization: "Bearer " + process.env.REINFER_TOKEN, }, }, function (error, response, json) { // digest response console.log(JSON.stringify(json, null, 2)); } ); - Python
import json import os import requests response = requests.get( "https://<my_api_endpoint>/api/v1/datasets/project1/collateral/streams/dispute/results", headers={"Authorization": "Bearer " + os.environ["REINFER_TOKEN"]}, params={"max_results": 5, "max_filtered": 15}, ) print(json.dumps(response.json(), indent=2, sort_keys=True))
import json import os import requests response = requests.get( "https://<my_api_endpoint>/api/v1/datasets/project1/collateral/streams/dispute/results", headers={"Authorization": "Bearer " + os.environ["REINFER_TOKEN"]}, params={"max_results": 5, "max_filtered": 15}, ) print(json.dumps(response.json(), indent=2, sort_keys=True)) - Réponse
{ "status": "ok", "results": [ { "comment": { "uid": "18ba5ce699f8da1f.0123456789abcdef", "id": "0123456789abcdef", "timestamp": "2018-09-17T09:54:56.332000Z", "user_properties": { "number:Messages": 1, "string:Folder": "Sent (/ Sent)", "string:Has Signature": "Yes", "string:Message ID": "<abcdef@abc.company.com>", "string:Sender": "alice@company.com", "string:Sender Domain": "company.com", "string:Thread": "<abcdef@abc.company.com>" }, "messages": [ { "from": "alice@company.com", "to": [ "bob@organisation.org" ], "sent_at": "2018-09-17T09:54:56.332000Z", "body": { "text": "Hi Bob,\n\nCould you send me today's figures?" }, "subject": { "text": "Today's figures" }, "signature": { "text": "Thanks,\nAlice" } } ], "text_format": "plain", "attachments": [], "source_id": "18ba5ce699f8da1f", "last_modified": "2024-07-03T13:30:53.991000Z", "created_at": "2020-12-14T15:07:03.718000Z", "context": "1", "has_annotations": true }, "prediction": { "taxonomies": [ { "name": "default", "labels": [ { "name": "Margin Call", "occurrence_confidence": { "value": 0.9905891418457031, "thresholds": ["stream"] }, "extraction_confidence": { "value": 0.4712367373372217, "thresholds": [] }, "fields": [ { "name": "Notification Date", "value": null } ] }, { "name": "Margin Call > Interest Accrual", "occurrence_confidence": { "value": 0.9905891418457031, "thresholds": [] }, "extraction_confidence": { "value": 0.9905891418457031, "thresholds": [] }, "fields": [ { "name": "Amount", "value": { "formatted": "636,000.00" } }, { "name": "Broker number", "value": null }, { "name": "Client name", "value": null }, { "name": "Currency", "value": { "formatted": "AUD" } } ] } ], "general_fields": [ { "name": "monetary-quantity", "value": { "formatted": "636,000.00 GBP" } }, { "name": "MarginCallDateType", "value": { "formatted": "2018-09-21 00:00 UTC" } }, { "name": "client-name", "value": { "formatted": "Big Client Example Bank" } } ] } ] }, "continuation": "pmjKYXYBAAADqHUvPkQf1ypNCZFR37vu" } ], "num_filtered": 0, "more_results": true, "continuation": "pmjKYXYBAAAsXghZ2niXPNP6tOIJtL_8" }
{ "status": "ok", "results": [ { "comment": { "uid": "18ba5ce699f8da1f.0123456789abcdef", "id": "0123456789abcdef", "timestamp": "2018-09-17T09:54:56.332000Z", "user_properties": { "number:Messages": 1, "string:Folder": "Sent (/ Sent)", "string:Has Signature": "Yes", "string:Message ID": "<abcdef@abc.company.com>", "string:Sender": "alice@company.com", "string:Sender Domain": "company.com", "string:Thread": "<abcdef@abc.company.com>" }, "messages": [ { "from": "alice@company.com", "to": [ "bob@organisation.org" ], "sent_at": "2018-09-17T09:54:56.332000Z", "body": { "text": "Hi Bob,\n\nCould you send me today's figures?" }, "subject": { "text": "Today's figures" }, "signature": { "text": "Thanks,\nAlice" } } ], "text_format": "plain", "attachments": [], "source_id": "18ba5ce699f8da1f", "last_modified": "2024-07-03T13:30:53.991000Z", "created_at": "2020-12-14T15:07:03.718000Z", "context": "1", "has_annotations": true }, "prediction": { "taxonomies": [ { "name": "default", "labels": [ { "name": "Margin Call", "occurrence_confidence": { "value": 0.9905891418457031, "thresholds": ["stream"] }, "extraction_confidence": { "value": 0.4712367373372217, "thresholds": [] }, "fields": [ { "name": "Notification Date", "value": null } ] }, { "name": "Margin Call > Interest Accrual", "occurrence_confidence": { "value": 0.9905891418457031, "thresholds": [] }, "extraction_confidence": { "value": 0.9905891418457031, "thresholds": [] }, "fields": [ { "name": "Amount", "value": { "formatted": "636,000.00" } }, { "name": "Broker number", "value": null }, { "name": "Client name", "value": null }, { "name": "Currency", "value": { "formatted": "AUD" } } ] } ], "general_fields": [ { "name": "monetary-quantity", "value": { "formatted": "636,000.00 GBP" } }, { "name": "MarginCallDateType", "value": { "formatted": "2018-09-21 00:00 UTC" } }, { "name": "client-name", "value": { "formatted": "Big Client Example Bank" } } ] } ] }, "continuation": "pmjKYXYBAAADqHUvPkQf1ypNCZFR37vu" } ], "num_filtered": 0, "more_results": true, "continuation": "pmjKYXYBAAAsXghZ2niXPNP6tOIJtL_8" }
Une fois que vous avez créé un flux, vous pouvez l’interroger pour récupérer les commentaires et leurs prédictions. Cela inclut les libellés, les champs généraux et les extractions de libellés, contenant un ensemble de champs d’extraction pour chaque instance de ce libellé.
Lorsque vous créez un flux, vous définissez sa position initiale pour qu'elle soit égale à son heure de création. Si nécessaire, vous pouvez définir le flux sur une position différente (soit vers l'avant, soit vers l'arrière dans le temps), à l'aide du point de terminaison réinitialisé. Le flux renvoie les commentaires à partir de sa position actuelle. Vous déterminez la position du commentaire dans la file d'attente de commentaires en fonction de l'ordre dans lequel vous avez téléchargé les commentaires.
Selon la conception de votre application, vous pouvez choisir entre :
- faisant progresser le flux une seule fois, pour l'ensemble du lot. Utilisez le
continuation
du lot contenu dans la réponse. - faire progresser le flux pour chaque commentaire individuel. Utilisez le
continuation
du commentaire contenu dans la réponse.
comment_filter
when creating the stream, the results don't include comments not matching the filter, but still count towards the requested max_filtered
. You can notice responses where all of max_filtered
comments are filtered out, leading to an empty results
array. In the following example, you request a batch of 8 comments, all of which are filtered out.
{
"filtered": 8,
"results": [],
"sequence_id": "qs8QcHIBAADJ1p3W2FtmBB3QiOJsCJlR",
"status": "ok"
}
{
"filtered": 8,
"results": [],
"sequence_id": "qs8QcHIBAADJ1p3W2FtmBB3QiOJsCJlR",
"status": "ok"
}
max_filtered
facultatif pour empêcher les commentaires filtrés de compter vers le max_results
demandé.
/fetch
hérité ne renvoie pas de commentaires avec des prédictions qui n'ont pas respecté le seuil de confiance.
/results
, vous renvoyez toutes les prédictions d'un commentaire, ainsi que le confidence
value
. Vous indiquez également le(s) type(s) de seuil qu'il remplit.
"occurrence_confidence": {
"value": 0.9905891418457031,
"thresholds": ["stream"]
}
"occurrence_confidence": {
"value": 0.9905891418457031,
"thresholds": ["stream"]
}
confidence
d'une prédiction 0.9905..
et la valeur thresholds
indiquent que la prédiction respecte le seuil configuré pour stream
.
stream
pour confirmer que la prédiction respecte le seuil que vous avez configuré dans le flux. En outre, les seuils automatiques peuvent être renvoyés, et les valeurs attendues pour ceux-ci sont : high_recall
, high_precision
et balanced
.
Pour plus d'informations sur les extractions générées et sur l'utilisation des seuils, consultez la page Comprendre la validation sur les extractions et les performances d'extraction .
Nom | Saisie de texte | Requis | DESCRIPTION |
---|---|---|---|
max_results | Numérique | non | Le nombre de commentaires à récupérer pour ce flux. Renvoie moins de commentaires s'il atteint la fin du lot, ou si vous filtrez les commentaires en fonction du filtre de commentaire. La valeur maximale est 32. Le nombre par défaut est 16. |
max_filtered | Numérique | non | Paramètre de commodité pour les flux avec un filtre de commentaire. Lorsque vous les fournissez, jusqu’à max_filtered commentaires filtrés ne sont pas pris en compte dans le max_results demandé. Ceci est utile si vous vous attendez à ce qu'un grand nombre de commentaires ne correspondent pas au filtre. N’a aucun effet sur les flux sans filtre de commentaire. La valeur maximale est 1 024. La valeur par défaut est nulle.
|
Nom | Saisie de texte | DESCRIPTION |
---|---|---|
status | string | ok si la requête a réussi, ou bien error , en cas d'erreur. Pour en savoir plus sur les réponses d'erreur, consultez la page Vue d'ensemble (Overview).
|
num_filtered | Numérique | Nombre de commentaires filtrés sur la base d'un filtre de commentaire. Si vous avez créé le flux sans filtre, ce nombre sera toujours 0 .
|
continuation | string | Le jeton de poursuite du lot. Utilisez-le pour confirmer le traitement de ce lot et faire passer le flux au lot suivant. |
more_results | Bool | « True » s'il n'y avait pas de résultats supplémentaires dans le flux, lorsque vous avez effectué la demande. False dans le cas contraire. |
results | array<Result> | Tableau contenant les objets de résultat. |
Result
a le format suivant :
Nom | Saisie de texte | DESCRIPTION |
---|---|---|
comment | Commentaire (Comment) | Données de commentaire. Pour obtenir une explication détaillée, consultez Référencement de commentaire. |
continuation | string | Le jeton de suite du commentaire. Utilisé pour confirmer le traitement de ce commentaire et faire passer le flux au commentaire suivant. |
prediction | array<Prediction> | La prédiction de ce commentaire. Est disponible uniquement si le flux spécifie une version de modèle. Pour plus d’informations sur les prédictions génératives, consultez la page Communications Mining™ - Comprendre la validation sur les extractions et les performances d’extraction . |
Prediction
a le format suivant :
Nom | Saisie de texte | DESCRIPTION |
---|---|---|
taxonomies | tableau<TaxonomyPrediction> | Liste des prédictions de taxonomie. Vous ne définissez actuellement qu’une seule taxonomie par jeu de données, mais vous la fournissez sous forme de liste, pour une compatibilité future. |
TaxonomyPrediction
a le format suivant :
Nom | Saisie de texte | DESCRIPTION |
---|---|---|
name | string | Nom de la taxonomie. La seule valeur est actuellement default .
|
labels | tableau<LabelPrediction> | Une liste des prédictions de libellés extraites avec leur occurrence_confidence , extraction_confidence et fields extrait. Pour plus d’informations sur les prédictions génératives, consultez la page Communications Mining - Comprendre la validation des extractions et des performances d’extraction .
|
general_fields | tableau<FieldPrediction> | Une liste de prédictions de champ général extraites avec leur name et leurs value extraites. Pour plus d’informations sur les prédictions génératives, consultez la page Communications Mining - Comprendre la validation des extractions et des performances d’extraction .
|