- Introduction
- Configuration de votre compte
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- Champs généraux
- Libellés (prédictions, niveaux de confiance, hiérarchie des libellés et sentiment des libellés)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages annotés et non annotés
- Extraction des champs
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Contrôle et administration de l'accès
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Créer ou supprimer une source de données dans l'interface graphique
- Préparation des données en vue du téléchargement du fichier .CSV
- Téléchargement d’un fichier CSV dans une source
- Création d'un ensemble de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modification des paramètres du jeu de données
- Supprimer un message
- Supprimer un jeu de données
- Exporter un ensemble de données
- Utilisation d'intégrations Exchange
- Entraînement et maintenance du modèle
- Comprendre les libellés, les champs généraux et les métadonnées
- Hiérarchie de libellés et meilleures pratiques
- Comparer les cas d’utilisation des analyses et des automatisations
- Transformer vos objectifs en libellés
- Présentation du processus d'entraînement du modèle
- Annotation générative
- Statut du jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Comprendre les exigences de données
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Affiner et réorganiser votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation
- Comprendre et améliorer les performances du modèle
- Raisons de la faible précision moyenne des libellés
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Utilisation de champs généraux
- Extraction générative
- Vue d'ensemble (Overview)
- Configurer des champs
- Filtrage par type de champ d’extraction
- Génération de vos extractions
- Validation et annotation des extractions générées
- Meilleures pratiques et considérations
- Comprendre la validation des extractions et des performances d'extraction
- Questions fréquemment posées (FAQ)
- Utilisation des analyses et de la surveillance
- Automations et Communications Mining™
- Développeur
- Charger des données
- Téléchargement de données
- Intégration avec l'utilisateur du service Azure
- Intégration avec l'authentification d'application Azure
- Intégration d’Exchange avec l’authentification et le graphique d’application Azure
- Récupérer des données pour Tableau avec Python
- Intégration d'Elasticsearch
- Extraction de champ général
- Intégration avec Exchange auto-hébergée
- Infrastructure d’automatisation UiPath®
- Activités officielles UiPath®
- Comment les machines apprennent à comprendre les mots : guide d'intégration dans NLP
- Apprentissage basé sur des invites avec des Transformers
- Efficient Transformers II : Dilarisation des connaissances et affinement
- Transformateurs efficaces I : mécanismes d'attention
- Modélisation de l'intention hiérarchique profonde non supervisée : obtenir de la valeur sans données d'entraînement
- Correction des biais d’annotation avec Communications Mining™
- Apprentissage actif : de meilleurs modèles d'ML en moins de temps
- Tout est dans les chiffres : évaluer les performances du modèle avec des métriques
- Pourquoi la validation du modèle est importante
- Comparaison de Communications Mining™ et de Google AutoML pour l’information sur des données conversationnelles
- Licences
- FAQ et plus encore

Guide de l’utilisateur de Communications Mining
La plate-forme est capable de prendre en charge plusieurs types de données conversationnelles, c'est-à-dire lorsqu'une personne s'échangera avec une autre personne via un canal numérique. Exemples : e-mails, tickets de gestion d’incidents, chats, transcriptions de l’appel, enquêtes, avis, notes d’incident, etc.
La plate-forme interprète le contenu conversationnel de base d'une conversation. Pour les conversations par e-mail, les objets, le corps du texte et le fil de discussion sont tous pris en compte, mais le contenu des pièces jointes ne l'est pas. La plate-forme est capable d'identifier les e-mails contenant des pièces jointes, leurs noms, leurs types de fichiers et leur taille. Les noms des pièces jointes peuvent être affichés dans l'interface utilisateur et peuvent faire partie du corps de texte à partir duquel les modèles de la plate-forme s'entraînent.
L'objectif de l'entraînement d'un modèle est de créer un ensemble de données d'entraînement aussi représentatif que possible de l'ensemble de données dans son ensemble, afin que la plate-forme puisse prédire avec précision et confiance les libellés et les champs généraux pertinents pour chaque message. Les libellés et les champs généraux d'un ensemble de données doivent être intrinsèquement liés aux objectifs globaux du cas d'utilisation et fournir une valeur métier significative.
Oui, si vous disposez des autorisations suffisantes, vous pouvez utiliser nos API pour ajouter des données à la plate-forme, ou bien vous pouvez ajouter des données à une source via le téléchargement de fichiers CSV.
Le stockage des données dans la plate-forme peut être adapté aux besoins de nos clients, et l'utilisation du volume autorisé dépend des conditions de licence convenues. Une utilisation dans le volume maximum convenu dans la licence est tout à fait acceptable. Dépasser le volume maximum nécessitera une discussion et peut entraîner des coûts supplémentaires.
La plate-forme ne supprimera pas automatiquement les données historiques. Les données plus anciennes peuvent être supprimées par votre administrateur Communications Mining™ si nécessaire.
Les utilisateurs peuvent exporter leurs données depuis la plate-forme via un fichier CSV ou à l'aide des API de la plate-forme. Des explications détaillées sur la façon de procéder sont données dans nos guides pratiques ainsi que dans la documentation de notre API. La plate-forme ne supprimera pas automatiquement les données historiques. Les données plus anciennes peuvent être supprimées par votre administrateur Communications Mining™ si nécessaire.
Une fois connecté, vous serez redirigé vers la page Ensembles de données où vous pouvez créer votre propre ensemble de données, si vous disposez des autorisations associées pour le faire. Pour plus de détails, consultez la section Créer un nouvel ensemble de données.
Pour plus de détails à ce sujet, consultez l’ Introduction à API Docs
- Quels types de communications gérez-vous ?
- Comment gérez-vous les communications avec les pièces jointes ?
- Puis-je charger des données vers la plate-forme moi-même ?
- Quels volumes de données la plate-forme peut-elle prendre en charge et existe-t-elle une limite ?
- Pendant combien de temps la plateforme conserve-t-elle mes données ?
- Comment puis-je exporter mes données de la plate-forme afin que je puisse les utiliser ailleurs ?
- Comment créer mes propres jeux de données ?
- Comment puis-je me connecter à l'API ?