- Introdução
- Configurando sua conta
- Balanceamento
- Clusters
- Desvio de conceito
- Cobertura
- Conjuntos de dados
- Campos gerais
- Rótulos (previsões, níveis de confiança, hierarquia do rótulo e sentimento do rótulo)
- Modelos
- Transmissões
- Classificação do Modelo
- Projetos
- Precisão
- Lembrar
- Mensagens anotadas e não anotadas
- Campos de extração
- Fontes
- Taxonomias
- Treinamento
- Previsões positivos e negativos verdadeiros e falsos
- Validação
- Mensagens
- Controle de acesso e administração
- Gerencie origens e conjuntos de dados
- Entender a estrutura de dados e permissões
- Criando ou excluindo uma origem de dados na GUI
- Carregar um arquivo CSV para uma origem
- Preparando dados para carregamento de .CSV
- Criação de um conjunto de dados
- Origens e conjuntos de dados multilíngues
- Habilitando o sentimento em um conjunto de dados
- Como corrigir as configurações do conjunto de dados
- Excluindo uma mensagem
- Exclusão de um conjunto de dados
- Exportação de um conjunto de dados
- Usando integrações do Exchange
- Treinamento e manutenção do modelo
- Noções Básicas sobre rótulos, campos gerais e metadados
- Hierarquia de rótulos e práticas recomendadas
- Comparação de casos de uso de análise e automação
- Transformando seus objetivos em rótulos
- Visão geral do processo de treinamento do modelo
- Anotação generativa
- Status do conjunto de dados
- Treinamento de modelos e práticas recomendadas de anotação
- Treinamento com análise de sentimento de rótulo habilitada
- Compreensão dos requisitos de dados
- Treinamento
- Introdução ao Refine
- Precisão e recall explicados
- Precisão e recall
- Como a validação funciona
- Compreender e melhorar o desempenho do modelo
- Motivos para baixa precisão média do rótulo
- Treinamento usando Check label e Perda de rótulo
- Treinamento usando Ensinar rótulo (Refinar)
- Treinamento usando a Pesquisa (Refinamento)
- Noções Básicas e Aumentando a Cobertura
- Melhorando o balanceamento e usando o Rebalanceamento
- Quando parar de treinar seu modelo
- Uso dos campos gerais
- Extração generativa
- Uso de análise e monitoramento
- Automations e Communications Mining™
- Desenvolvedor
- Carregamento de dados
- Baixando dados
- Integração do Exchange com usuário do serviço do Azure
- Integração do Exchange com Autenticação de Aplicativo do Azure
- Integração do Exchange com Autenticação de aplicativo e gráfico do Azure
- Como buscar dados para o Tableau com o Python
- Integração do Elasticsearch
- Extração de campo geral
- Integração auto-hospedada do Exchange
- Framework de automação da UiPath®
- Atividades oficiais da UiPath®
- Como as máquinas aprendem a entender as palavras: um guia para incorporações ao NLP
- Aprendizado baseado em solicitação com Transformers
- Efficient Transformers II: extração de conhecimento e ajustes finos
- Transformers eficientes I: mecanismos de atenção
- Modelagem de intenção hierárquica profunda não supervisionada: obtenção de valor sem dados de treinamento
- Corrigindo viés de anotação com o Communications Mining™
- Aprendizado ativo: melhores modelos de ML em menos tempo
- Está tudo nos números - avaliando o desempenho do modelo com métricas
- Por que a validação de modelos é importante
- Comparação do Communications Mining™ e do Google AutoML para inteligência de dados de conversa
- Licenciamento
- Perguntas frequentes e mais

Guia do usuário do Communications Mining
Dentro da Validação, a plataforma avalia o desempenho tanto do rótulo quanto dos modelos de campo geral associados a um conjunto de dados.
Para o modelo de rótulo especificamente, ele calcula uma Classificação geral do modelo testando vários fatores de desempenho diferentes, incluindo:
- O quão bem ele é capaz de prever cada rótulo na taxonomia, usando um subconjunto de dados de treinamento de dentro desse conjunto de dados.
- O quão bem é coberto o conjunto de dados como um todo por previsões do rótulo informativo.
- O quão equilibrados são os dados de treinamento, em termos de como foram atribuídos e quão bem representam o conjunto de dados como um todo.
- um conjunto maioria de dados de treinamento.
- um conjunto menor de dados de teste.
Na imagem a seguir, os pontos coloridos representam as mensagens anotadas dentro de um conjunto de dados. Essa divisão é determinada pelo ID da mensagem quando as mensagens são adicionadas ao conjunto de dados e permanece consistente durante toda a vida útil do conjunto de dados.
A plataforma treina a si mesma usando apenas o conjunto de treinamento como dados de treinamento.
Com base nesse treinamento, ele tenta prever quais rótulos devem ser aplicados às mensagens no conjunto de testes e avalia os resultados de precisão e recall em relação aos rótulos reais aplicados por um usuário humano.
Além desse processo, a plataforma também leva em consideração como os rótulos foram atribuídos, ou seja, quais modos de treinamento foram usados ao aplicar rótulos para entender se eles foram anotados de forma tendenciosa ou equilibrada.
Depois, a validação publica estatísticas ativas sobre o desempenho dos rótulos para a versão mais recente do modelo, mas você também pode exibir as estatísticas de desempenho históricos para versões de modelos anteriormente fixadas.
Para entender até que ponto seu modelo cobre seus dados, a plataforma analisa todos os dados não revisados no conjunto de dados e as previsões que a plataforma fez para cada uma dessas mensagens não revisadas.
Em seguida, ele avalia a proporção do total de mensagens que têm pelo menos um rótulo informativo previsto.
Rótulos informativos são aqueles rótulos que a plataforma entende como úteis como rótulos independentes, examinando a frequência com que são atribuídos com outros rótulos. Rótulos que são sempre atribuídos com outro rótulo. Por exemplo, os rótulos pai que nunca são atribuídos por conta própria ou Urgente se for sempre atribuído com outro rótulo, recebem uma redução de peso quando a pontuação é calculada.
Quando a plataforma avalia o quão equilibrado é seu modelo, ela está essencialmente procurando um viés de anotação que pode causar um desequilíbrio entre os dados de treinamento e o conjunto de dados como um todo.
Para fazer isso, ele usa um modelo de viés de anotação que compara os dados revisados e não revisados para garantir que os dados anotados sejam representativos de todo o conjunto de dados. Se os dados não forem representativos, as medidas de desempenho do modelo podem ser enganosas e potencialmente não confiáveis.
O viés de anotação é normalmente o resultado de um desequilíbrio dos modos de treinamento usados para atribuir rótulos, especialmente se você usar muita "pesquisa de texto" e pouco "Aleatório".
O modo de treinamento Rebalancear mostra mensagens que estão sub-representadas no conjunto revisado. Anotar exemplos neste modo ajudará a resolver rapidamente quaisquer desequilíbrios no conjunto de dados.
Toda vez que você conclui algum treinamento em um conjunto de dados, o modelo é atualizado e fornece novas previsões em cada mensagem. Paralelamente, ela também reavalia o desempenho do modelo. Isso significa que, quando as novas previsões estiverem prontas, novas estatísticas de validação também devem estar disponíveis (apesar de um processo poder demorar mais que o outro às vezes), incluindo os mais recentes .