- Notas relacionadas
- Primeros pasos
- Notificaciones
- Proyectos
- Conjuntos de datos
- Etiquetado de datos
- Paquetes ML
- Paquetes listos para usar
- Procesos
- Habilidades ML
- Logs de ML
- Document UnderstandingTM en AI Center
- API de AI Center
- Licencia
- Plantillas de soluciones de AI
- Tutorial
- Guía básica de resolución de problemas

AI Center
El informe de evaluación es un archivo PDF que contiene la siguiente información en un formato legible por humanos:
- ngramas por clase
- Diagrama de recuperación de precisión
- Informe de clasificación
- Matriz de confusión
- Mejores parámetros del modelo para la búsqueda de hiperparámetros
ngramas por clase
Esta sección contiene los 10 n-gramas principales que afectan a la predicción del modelo para esa clase. Hay una tabla diferente para cada clase en la que se entrena el modelo.
Diagrama de recuperación de precisión
Puedes usar este diagrama y la tabla para comprobar la precisión, la recuperación y las evaluaciones f1 del modelo. Los umbrales y los correspondientes valores de precisión y recuperación también figuran en una tabla debajo de este diagrama. Esta tabla elegirá el umbral que desees configurar en tu flujo de trabajo para decidir cuándo enviar los datos a Action Center para humanos en el bucle. Ten en cuenta que cuanto mayor sea el umbral elegido, mayor será la cantidad de datos que se enrutan a Action Center para humanos en el bucle.
Hay un diagrama de recuperación de precisión para cada clase.
Para ver un ejemplo de un diagrama de recuperación de precisión, consulta la figura siguiente.
Para ver un ejemplo de tabla de recuperación de precisión, consulta la tabla siguiente.
|
Precisión |
Recordar |
umbral |
|---|---|---|
|
0.8012232415902141 |
0.6735218508997429 |
0.30539842728983285 |
|
0.8505338078291815 |
0.6143958868894601 |
0.37825683923133907 |
|
0.9005524861878453 |
0.4190231362467866 |
0.6121292357073038 |
|
0.9514563106796117 |
0.2519280205655527 |
0.7916427288647211 |
Informe de clasificación
El informe de clasificación contiene la siguiente información:
- Etiqueta: la parte de la etiqueta del conjunto de prueba
- Precisión: la precisión de la predicción.
- Retirada: instancias relevantes que se recuperaron
- Puntuación F1: la media geográfica entre precisión y recuperación; puede usar esta puntuación para comparar dos modelos
- Soporte técnico: el número de veces que aparece una etiqueta determinada en el conjunto de prueba
Para ver un ejemplo de un informe de clasificación, consulta la siguiente tabla.
|
Etiqueta |
Precisión |
Recordar |
Evaluación F1 |
Soporte |
|---|---|---|---|---|
|
0.0 |
0.805 |
0.737 |
0.769 |
319 |
|
1.0 |
0.731 |
0.812 |
0.77 |
389 |
|
2.0 |
0.778 |
0.731 |
0.754 |
394 |
|
3.0 |
0.721 |
0.778 |
0.748 |
392 |
|
4.0 |
0.855 |
0.844 |
0.85 |
385 |
|
5.0 |
0.901 |
0.803 |
0.849 |
395 |
Matriz de confusión
Los mejores parámetros de modelo para la búsqueda de hiperparámetros
True , en esta tabla se muestran los mejores parámetros del modelo seleccionados por el algoritmo. Para reentrenar el modelo con diferentes parámetros no cubiertos por la búsqueda de hiperparámetros, también puede establecer estos parámetros manualmente en Variables de entorno. Para obtener más información al respecto, consulta la sección (doc: Light-Text-Classification # Environment-variables).
Para ver un ejemplo de este informe, consulta la tabla siguiente.
|
Nombre |
Valor |
|---|---|
|
BOW.ngrama_rango |
(1, 2) |
|
BOW.min_df |
2 |
|
BOW.lr_kWargs.class_peso |
Equilibrado |
|
dataset.text_pp_remove_stop_word |
True |
True.El informe contiene los mejores valores para las variables opcionales y un diagrama para mostrar los resultados.