- Introduction
- Configuration de votre compte
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- Champs généraux
- Libellés (prédictions, niveaux de confiance, hiérarchie des libellés et sentiment des libellés)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages annotés et non annotés
- Extraction des champs
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Contrôle et administration de l'accès
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Créer ou supprimer une source de données dans l'interface graphique
- Téléchargement d’un fichier CSV dans une source
- Préparation des données en vue du téléchargement du fichier .CSV
- Création d'un ensemble de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modification des paramètres du jeu de données
- Supprimer un message
- Supprimer un jeu de données
- Exporter un ensemble de données
- Utilisation d'intégrations Exchange
- Entraînement et maintenance du modèle
- Comprendre les libellés, les champs généraux et les métadonnées
- Hiérarchie de libellés et meilleures pratiques
- Comparer les cas d’utilisation des analyses et des automatisations
- Transformer vos objectifs en libellés
- Présentation du processus d'entraînement du modèle
- Annotation générative
- Statut du jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Comprendre les exigences de données
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Affiner et réorganiser votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation
- Comprendre et améliorer les performances du modèle
- Raisons de la faible précision moyenne des libellés
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Utilisation de champs généraux
- Extraction générative
- Vue d'ensemble (Overview)
- Configurer des champs
- Filtrage par type de champ d’extraction
- Génération de vos extractions
- Validation et annotation des extractions générées
- Meilleures pratiques et considérations
- Comprendre la validation des extractions et des performances d'extraction
- Questions fréquemment posées (FAQ)
- Utilisation des analyses et de la surveillance
- Automations et Communications Mining™
- Développeur
- Charger des données
- Téléchargement de données
- Intégration avec l'utilisateur du service Azure
- Intégration avec l'authentification d'application Azure
- Intégration d’Exchange avec l’authentification et le graphique d’application Azure
- Récupérer des données pour Tableau avec Python
- Intégration d'Elasticsearch
- Extraction de champ général
- Intégration avec Exchange auto-hébergée
- Infrastructure d’automatisation UiPath®
- Activités officielles UiPath®
- Comment les machines apprennent à comprendre les mots : guide d'intégration dans NLP
- Apprentissage basé sur des invites avec des Transformers
- Efficient Transformers II : Dilarisation des connaissances et affinement
- Transformateurs efficaces I : mécanismes d'attention
- Modélisation de l'intention hiérarchique profonde non supervisée : obtenir de la valeur sans données d'entraînement
- Correction des biais d’annotation avec Communications Mining™
- Apprentissage actif : de meilleurs modèles d'ML en moins de temps
- Tout est dans les chiffres : évaluer les performances du modèle avec des métriques
- Pourquoi la validation du modèle est importante
- Comparaison de Communications Mining™ et de Google AutoML pour l’information sur des données conversationnelles
- Licences
- FAQ et plus encore

Guide de l’utilisateur de Communications Mining
re. Il suppose que vous avez installé la CLI. Pour plus de détails, consultez les instructions.
La section Configuration rapide est une courte référence étape par étape pour savoir comment démarrer et configurer la CLI. Le reste de la page contient des instructions détaillées et explore toutes les options disponibles.
l'outil de ligne de commande de votre plate-forme (Linux, Mac et Windows sont pris en charge).
Créez un contexte nommé pour éviter d'avoir à saisir votre point de terminaison de locataire et votre jeton d'API à chaque fois. Indiquez votre point de terminaison locataire:
re config add --name main --endpoint https://<my_api_endpoint>/re config add --name main --endpoint https://<my_api_endpoint>/
Il vous sera demandé de coller votre jeton API:
I A new context `main` will be created.
Enter API token [none]: MYSUPERSECRETTOKEN
I New context `main` was created.I A new context `main` will be created.
Enter API token [none]: MYSUPERSECRETTOKEN
I New context `main` was created.
Essayez d’exécuter une commande pour vérifier que tout fonctionne, par exemple
re get datasetsre get datasets
-c ou --context pour utiliser un contexte spécifique avec la commande, par exemple
re -c main get datasetsre -c main get datasets
--token, --endpoint , --proxy , etc. Les arguments de ligne de commande ont priorité sur les paramètres de contexte.
re vous invitera à saisir le jeton de manière interactive.
Par exemple, pour répertorier les jeux de données disponibles
➜ re --endpoint https://acme.reinfer.io get datasets
input: Enter API token [none]: MYSUPERSECRETAPITOKEN
Name ID Updated (UTC) Title
InvestmentBank/collateral-streams aa9dda7c059e5a8d 2019-04-30 17:25:03 IB Collateral Streams
InvestmentBank/george-test 1aaeacd49dfce8a0 2019-05-10 15:32:34 Test Dataset
InvestmentBank/margin-call b9d50fb2b38c3af5 2019-05-08 07:51:09 IB Margin Call
InvestmentBank/margin-call-large 6d00b9f69ab059f6 2019-05-11 09:23:43 IB Margin Call Large➜ re --endpoint https://acme.reinfer.io get datasets
input: Enter API token [none]: MYSUPERSECRETAPITOKEN
Name ID Updated (UTC) Title
InvestmentBank/collateral-streams aa9dda7c059e5a8d 2019-04-30 17:25:03 IB Collateral Streams
InvestmentBank/george-test 1aaeacd49dfce8a0 2019-05-10 15:32:34 Test Dataset
InvestmentBank/margin-call b9d50fb2b38c3af5 2019-05-08 07:51:09 IB Margin Call
InvestmentBank/margin-call-large 6d00b9f69ab059f6 2019-05-11 09:23:43 IB Margin Call Large
--token➜ re --endpoint https://acme.reinfer.io --token MYSUPERSECRETAPITOKEN get datasets➜ re --endpoint https://acme.reinfer.io --token MYSUPERSECRETAPITOKEN get datasets
Ce n'est généralement pas une bonne idée car le jeton d'API sera stocké dans votre historique du shell. Il serait préférable de stocker le jeton API dans une variable d'environnement.
➜ re --endpoint https://acme.reinfer.io --token $REINFER_TOKEN get datasets➜ re --endpoint https://acme.reinfer.io --token $REINFER_TOKEN get datasets
Cependant, cela reste détaillé, répétitif et défectueux.
L’indication de la configuration à l’aide d’indicateurs de ligne de commande peut être utile dans certains cas. Cependant, la méthode recommandée pour utiliser la CLI consiste à configurer un contexte nommé. Pour plus de détails, consultez la section suivante.
re . Lorsque vous spécifiez un contexte pour exécuter une commande, les paramètres et les informations d'identification sont utilisés pour exécuter cette commande. Plusieurs contextes peuvent être stockés dans le fichier de configuration.
Les contextes permettent d'éviter d'avoir à spécifier manuellement un jeton, un point de terminaison et d'autres configurations à chaque commande. Un contexte est composé des éléments suivants :
- Un nom facile à retenir qui sert d’identifiant pour le contexte
- Un jeton API utilisé pour authentifier l'utilisateur effectuant des requêtes
- Point de terminaison vers lequel la CLI enverra les requêtes
- (Facultatif) Proxy HTTP à utiliser pour toutes les requêtes
- (Facultatif) S’il faut accepter les certificats TLS non valides à partir du point de terminaison
Vous pouvez spécifier un contexte par défaut qui sera utilisé lorsque aucun n'est référencé explicitement.
-c, --context peut être utilisé pour utiliser un contexte spécifique ayant des noms que vous pouvez spécifier en tant que paramètre sur la ligne de commande pour des commandes individuelles.
Création d'un contexte
re config addre config addSi elle est exécutée sans option, la commande demandera de manière interactive le nom du contexte, le point de terminaison et le jeton.
➜ re config add
* Context name: acme-prod
I A new context `acme-prod` will be created
* Enter API token [none]: MYSUPERSECRETTOKEN
* Endpoint [https://reinfer.io/]: https://acme.reinfer.io
I Default context set to `acme-prod`
I New context `acme-prod` was created➜ re config add
* Context name: acme-prod
I A new context `acme-prod` will be created
* Enter API token [none]: MYSUPERSECRETTOKEN
* Endpoint [https://reinfer.io/]: https://acme.reinfer.io
I Default context set to `acme-prod`
I New context `acme-prod` was createdLors de la création du tout premier contexte, il sera défini comme étant actif
➜ re config add --name acme-dev --endpoint https://acme.reinfer.io/
I A new context `acme-dev` will be created.
* Enter API token [none]: MYSUPERSECRETTOKEN
I Default context set to `acme-dev`
I New context `acme-dev` was created.➜ re config add --name acme-dev --endpoint https://acme.reinfer.io/
I A new context `acme-dev` will be created.
* Enter API token [none]: MYSUPERSECRETTOKEN
I Default context set to `acme-dev`
I New context `acme-dev` was created.L'ajout d'un contexte avec un nom qui existe déjà mettra à jour ce contexte.
# Edit the acme-dev context if it already exists
re config add acme-dev# Edit the acme-dev context if it already exists
re config add acme-devre config add -h. Les plus importantes sont les suivantes :
| Nom | DESCRIPTION |
--name <name> | Le nom du contexte qui sera créé ou mis à jour |
--endpoint <endpoint> | Le point de terminaison du cluster Communications Mining™ qui sera utilisé pour ce contexte |
--token <token> | Le jeton d’API de réinférence qui sera utilisé pour ce contexte |
--proxy <proxy> | URL d'un proxy HTTP qui sera utilisée pour toutes les requêtes si spécifiée |
Le contexte actuel sera utilisé pour toutes les commandes suivantes. Ce qui suit imprimera tous les ensembles de données pour le contexte actuel .
re get datasetsre get datasets--token, --endpoint et --proxy.re --proxy http://proxy.example get datasetsre --proxy http://proxy.example get datasetsUtiliser un contexte
-c ou --context pour utiliser un contexte spécifique avec la commande, par exemple
re -c my-context get datasetsre -c my-context get datasetsreconfigurer
re config . Les sous-commandes permettent de créer, mettre à jour, définir la valeur par défaut et supprimer des contextes, etc.
Pour toutes les options disponibles, consultez la référence de commande.
L'emplacement de votre répertoire de configuration varie en fonction du système d'exploitation. L’outil de ligne de commande de Communications Mining™ respecte les valeurs par défaut du système d’exploitation et, généralement, le répertoire de configuration se trouve sur
~/.config/reinfersur Linux$HOME/.config/reinfersur macOS%AppData%\reinfersous Windows
contexts.json, par exemple ~/.config/reinfer/contexts.json sous Linux. Il ressemble à ceci
{
"current_context": "prod",
"contexts": [
{
"name": "prod",
"endpoint": "https://acme.reinfer.io/",
"token": "MYSUPERSECRETTOKEN",
"accept_invalid_certificates": false,
"proxy": null
}
]
}{
"current_context": "prod",
"contexts": [
{
"name": "prod",
"endpoint": "https://acme.reinfer.io/",
"token": "MYSUPERSECRETTOKEN",
"accept_invalid_certificates": false,
"proxy": null
}
]
}