- Notes de publication
- Démarrage
- Notifications
- Projets
- Jeux de données
- Labellisation des données
- Paquets ML
- Paquets prêts à l’emploi
- Pipelines
- Compétences ML
- Journaux ML
- Document UnderstandingTM dans AI Center
- API AI Center
- Licences
- Modèles de solutions d'IA
- Comment
- Guide de dépannage de base
AI Center
Classification de texte clair
Packages prêts à l'emploi (Out of the Box Packages) > Analyse du langage UiPath (UiPath Language Analysis) > LightTextClassification
Il s'agit d'un modèle générique réentraîné pour la classification de texte. Il prend en charge toutes les langues basées sur des caractères latins, telles que l’anglais, le français, l’espagnol et autres. Ce paquet ML doit être entraîné. S'il est déployé sans entraînement, le déploiement échouera avec une erreur indiquant que le modèle n'a pas été entraîné. Ce modèle fonctionne sur Bag of Words. Ce modèle fournit une explicabilité basée sur les n-grammes.
JSON avec classe et confiance (entre 0 et 1).
{
"class": "7",
"confidence": 0.1259827300369445,
"ngrams": [
[
"like",
1.3752658445706787
],
[
"like this",
0.032029048484416685
]
]
}
{
"class": "7",
"confidence": 0.1259827300369445,
"ngrams": [
[
"like",
1.3752658445706787
],
[
"like this",
0.032029048484416685
]
]
}
Ce package prend en charge les trois types de pipelines (formation complète, formation et évaluation). Le modèle utilise des techniques avancées pour trouver un modèle performant à l'aide de la recherche par hyperparamètres. Par défaut, la recherche par hyperparamètres (la variable BOW.hyperparameter_search.enable ) est activée. Les paramètres du modèle le plus performant sont disponibles dans le rapport d'évaluation.
Trois options sont disponibles pour structurer votre ensemble de données pour ce modèle : JSON, CSV et AI Center au format JSON (il s'agit également du format d'exportation de l'outil de labellisation). Le modèle lira tous les fichiers CSV et JSON dans le répertoire spécifié. Pour chaque format, le modèle attend deux colonnes ou deux propriétés, dataset.input_column_name et dataset.target_column_name Par défaut Les noms de ces deux colonnes et/ou répertoires sont configurables à l'aide de variables d'environnement.
Format de fichier CSV
Chaque fichier CSV peut avoir n'importe quel nombre de colonnes, mais seules deux seront utilisées par le modèle. Ces colonnes sont spécifiées par dataset.input_column_name et dataset.target_column_name paramètres.
Consultez l'exemple et les variables d'environnement suivants pour obtenir un exemple de format de fichier CSV.
text, label
I like this movie, 7
I hated the acting, 9
text, label
I like this movie, 7
I hated the acting, 9
Les variables d'environnement de l'exemple précédent seraient les suivantes :
- dataset.input_format:
auto
- dataset.input_column_name:
text
- dataset.nom_colonne_cible :
label
Format de fichier JSON
Plusieurs points de données peuvent faire partie du même fichier JSON.
Consultez l'exemple et les variables d'environnement suivants pour obtenir un exemple de format de fichier JSON.
[
{
"text": "I like this movie",
"label": "7"
},
{
"text": "I hated the acting",
"label": "9"
}
]
[
{
"text": "I like this movie",
"label": "7"
},
{
"text": "I hated the acting",
"label": "9"
}
]
Les variables d'environnement de l'exemple précédent seraient les suivantes :
- dataset.input_format:
auto
- dataset.input_column_name:
text
- dataset.nom_colonne_cible :
label
format de fichier ai_center
.json
.
Consultez l'exemple et les variables d'environnement suivants pour obtenir un exemple de format de fichier ai_center.
{
"annotations": {
"intent": {
"to_name": "text",
"choices": [
"TransactionIssue",
"LoanIssue"
]
},
"sentiment": {
"to_name": "text",
"choices": [
"Very Positive"
]
},
"ner": {
"to_name": "text",
"labels": [
{
"start_index": 37,
"end_index": 47,
"entity": "Stakeholder",
"value": " Citi Bank"
},
{
"start_index": 51,
"end_index": 61,
"entity": "Date",
"value": "07/19/2018"
},
{
"start_index": 114,
"end_index": 118,
"entity": "Amount",
"value": "$500"
},
{
"start_index": 288,
"end_index": 293,
"entity": "Stakeholder",
"value": " Citi"
}
]
}
},
"data": {
"cc": "",
"to": "xyz@abc.com",
"date": "1/29/2020 12:39:01 PM",
"from": "abc@xyz.com",
"text": "I opened my new checking account with Citi Bank in 07/19/2018 and met the requirements for the promotion offer of $500 . It has been more than 6 months and I have not received any bonus. I called the customer service several times in the past few months but no any response. I request the Citi honor its promotion offer as advertised."
{
"annotations": {
"intent": {
"to_name": "text",
"choices": [
"TransactionIssue",
"LoanIssue"
]
},
"sentiment": {
"to_name": "text",
"choices": [
"Very Positive"
]
},
"ner": {
"to_name": "text",
"labels": [
{
"start_index": 37,
"end_index": 47,
"entity": "Stakeholder",
"value": " Citi Bank"
},
{
"start_index": 51,
"end_index": 61,
"entity": "Date",
"value": "07/19/2018"
},
{
"start_index": 114,
"end_index": 118,
"entity": "Amount",
"value": "$500"
},
{
"start_index": 288,
"end_index": 293,
"entity": "Stakeholder",
"value": " Citi"
}
]
}
},
"data": {
"cc": "",
"to": "xyz@abc.com",
"date": "1/29/2020 12:39:01 PM",
"from": "abc@xyz.com",
"text": "I opened my new checking account with Citi Bank in 07/19/2018 and met the requirements for the promotion offer of $500 . It has been more than 6 months and I have not received any bonus. I called the customer service several times in the past few months but no any response. I request the Citi honor its promotion offer as advertised."
Pour tirer parti de l'exemple JSON précédent, les variables d'environnement doivent être définies comme suit :
- dataset.input_format:
ai_center
- dataset.input_column_name:
data.text
- dataset.nom_colonne_cible :
annotations.intent.choices
- dataset.input_column_name
- Le nom de la colonne d'entrée contenant le texte.
- La valeur par défaut est
data.text
. - Assurez-vous que cette variable est configurée en fonction de votre fichier JSON ou CSV d'entrée.
- dataset.target_column_name
- Le nom de la colonne cible contenant le texte.
- La valeur par défaut est
annotations.intent.choices
. - Assurez-vous que cette variable est configurée en fonction de votre fichier JSON ou CSV d'entrée.
- jeu de données.format_entrée
- Le format d'entrée des données d'entraînement.
- La valeur par défaut est
ai_center
. - Les valeurs prises en charge sont :
ai_center
ouauto
. - Si
ai_center
est sélectionné, seuls les fichiersJSON
sont pris en charge. Assurez-vous également de remplacer la valeur de dataset.target_column_name parannotations.sentiment.choices
siai_center
est sélectionné. - Si
auto
est sélectionné, les fichiersCoNLL
etJSON
sont pris en charge.
- BOW.hyperparameter_search.enable
- La valeur par défaut de ce paramètre est
True
. Si cette option est laissée activée, elle trouvera le modèle le plus performant dans la période donnée et les ressources de calcul. - Cela générera également un fichier PDF
HyperparameterSearch_report
pour présenter les variations des paramètres qui ont été essayés.
- La valeur par défaut de ce paramètre est
- BOW.hyperparameter_search.timeout
- Durée maximale d'exécution autorisée en secondes de la recherche d'hyperparamètres.
- La valeur par défaut est
1800
.
- BOW.explain_inference
- Lorsqu'il est défini sur
True
, pendant la période d'inférence lorsque le modèle est utilisé en tant que compétence ML, certains des n-grammes les plus importants seront également renvoyés avec la prédiction. - La valeur par défaut est
False
.
- Lorsqu'il est défini sur
Variables facultatives
True
, les valeurs optimales de ces variables sont recherchées. Pour que les paramètres facultatifs suivants soient utilisés par le modèle, définissez la variable de recherche BOW.hyperparameter_search.enable sur False
:
- BOW.lr_kwargs.class_weight
- Les valeurs prises en charge sont :
balanced
ouNone
.
- Les valeurs prises en charge sont :
- BOW.plage_ngram
- Plage de longueurs de séquence de mots consécutifs pouvant être considérés comme des caractéristiques du modèle.
- Assurez-vous de suivre ce format :
(1, x)
, oùx
est la longueur de séquence maximale que vous souhaitez autoriser.
- ARC.min_df
- Utilisé pour définir le nombre minimum d'occurrences du n-gramme dans l'ensemble de données à considérer comme une entité.
- Les valeurs recommandées sont comprises entre
0
et10
.
- dataset.text_pp_remove_stop_words
- Utilisé pour configurer si les mots vides doivent être inclus ou non dans la recherche (par exemple, des mots comme
the
,or
). - Les valeurs prises en charge sont :
True
ouFalse
.
- Utilisé pour configurer si les mots vides doivent être inclus ou non dans la recherche (par exemple, des mots comme