- Notas relacionadas
- Antes de empezar
- Primeros pasos
- Instalación de AI Center
- Migración y actualización
- Proyectos
- Conjuntos de datos
- Etiquetado de datos
- Paquetes ML
- Paquetes listos para usar
- Procesos
- Habilidades ML
- Logs de ML
- Document UnderstandingTM en AI Center
- API de AI Center
- Tutorial
- Licencia
- Guía básica de resolución de problemas
Información general
En el producto se pueden encontrarse más paquetes de ejemplo que pueden implementarse inmediatamente y añadirse a un flujo de trabajo de RPA.
Se trata de un modelo para la moderación de contenido de imágenes basado en una arquitectura de aprendizaje profundo normalmente denominada Inception V3. En una imagen, el modelo mostrará una de las cuatro clases "explícito", "dibujo explícito", "neutro" y "pornográfico" junto con una puntuación de confianza normalizada para cada probabilidad de clase.
Se basa en el informe de investigación "Rethinking the Inception Architecture for Computer Vision", de Szegedy et al, que se publicó en código abierto en Google.
Este modelo predice el sentir de un texto en idioma inglés. Se ha hecho de código abierto por Facebook Research. Las predicciones posibles son: "Muy negativo", "Negativo", "Neutral", "Positivo" y "Muy positivo". El modelo se ha entrenado en los datos de comentarios de los productos de Amazon, por lo que puede que las predicciones del modelo tengan algunos resultados inesperados para diferentes distribuciones de datos. Un caso de uso común es para redirigir el contenido de idiomas no estructurados (p. ej., correos electrónicos) según el sentir del texto.
Se basa en el estudio de investigación "Bag of Tricks for Efficient Text Classification", de Joulin et al.
Este modelo predice la respuesta a una pregunta de un texto en inglés en función del contexto de algún párrafo. Se ha hecho de código abierto por ONNX. Un caso de uso común es en informes KYC o en el procesamiento de informes financieros en los que se puede aplicar una pregunta común a un conjunto estándar de documentos semiestructurados. Se basa en vanguardista modelo BERT (Bidirectional Encoder Representations from Transformers). El modelo aplica Transformers, un conocido modelo de atención, para modelar el idioma con el objetivo de producir una codificación del input y luego entrena la tarea de responder la pregunta.
Se basa en el informe de investigación “BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding”.
Este modelo predice el idioma de una entrada de texto. Las predicciones posibles son uno de los siguientes 176 idiomas:
Lenguajes |
---|
Af als am an ar arz as ast av az azb ba bar bcl be bg bh bn bo bpy br bs bxr ca cbk ce ceb ckb co cs cv Cy da de diq dsb dty dv el eml en eo es et EU fa fi frr fy ga gd gl gn gom gu gv he hi hif hr hsb ht hu hya id, es decir, ilo io es ja jbo jv kk kk krc ku kw ky la lib lez lmo lo lrc lt lv maimg mhr min mk ml mn mr mrj ms mt mwl my myv mzn nah nap nds ne new nl nn no oc or os pam pfla pl pms pnb PSpt qu rm ro ru rue sa sah sc scn Sco sd Sh si sk sl So sq sr su SV SW Ta te tg th tk tl tr tt tiv ug Reino Unido ur uz vec vep vi vls vo w war wuu xal xmf yi yo yue zh |
Se ha hecho de código abierto por Facebook Research. El modelo se ha entrenado en los datos de Wikipedia, Tatoeba y SETimes utilizados bajo la licencia Creative Commons Attribution-Share-Alike 3.0. Un caso de uso común es para redirigir el contenido de idiomas no estructurados (p. ej., correos electrónicos) a un respondedor adecuado en función del idioma del texto.
Se basa en el estudio de investigación "Bag of Tricks for Efficient Text Classification", de Joulin et al.
Este es un modelo de traducción automática de secuencia tras secuencia que traduce del inglés al francés. Se ha hecho de código abierto por Facebook AI Research (FAIR).
Se basa en el informe de investigación "Convolutional Sequence to Sequence Learning", de Gehring et al.
Este es un modelo de traducción automática de secuencia tras secuencia que traduce del inglés al alemán. Se ha hecho de código abierto por Facebook AI Research (FAIR).
Se basa en el informe de investigación "Facebook FAIR's WMT19 News Translation Submission", de Ng et al.
Este es un modelo de traducción automática de secuencia tras secuencia que traduce del inglés al ruso. Se ha hecho de código abierto por Facebook AI Research (FAIR).
Se basa en el informe de investigación "Facebook FAIR's WMT19 News Translation Submission", de Ng et al.
Este es un modelo de traducción automática de secuencia tras secuencia que traduce del inglés al ruso. Se ha hecho de código abierto por Facebook AI Research (FAIR).
Se basa en el informe de investigación "Facebook FAIR's WMT19 News Translation Submission", de Ng et al.
Este es un modelo de traducción automática de secuencia tras secuencia que traduce del inglés al ruso. Se ha hecho de código abierto por Facebook AI Research (FAIR).
Se basa en el informe de investigación "Facebook FAIR's WMT19 News Translation Submission", de Ng et al.
Este modelo muestra una lista de entidades reconocidas en el texto. Los 18 tipos reconocidos de entidades con nombre utilizan la misma clase de salida que en OntoNotes5, que se utiliza habitualmente para realizar pruebas comparativas de esta tarea en el mundo académico. El modelo se basa en el informe de investigación "Approaching nested named entity recognition with parallel LSTM-CRFs", de Borchmann et al en 2018.
Las 18 clases son las siguientes:
Entidad |
Descripción |
---|---|
Persona |
Personas, incluidas las ficticias. |
NORP |
Nacionalidades, religiones o grupos políticos. |
FAC |
Edificios, aeropuertos, carreteras, puentes, etc. |
ORG |
Empresas, agencias, instituciones, etc. |
GPE |
Países, ciudades, estados. |
LOC |
Ubicaciones que no sean GPE, cordilleras, extensiones de agua. |
Producto |
Objetos, vehículos, alimentos, etc. (no servicios). |
Evento |
Huracanes, batallas, guerras, eventos deportivos, etc. que tengan nombre. |
WORK_OF_ART |
Títulos de libros, canciones, etc. |
LAW |
Documentos con nombre convertidos en leyes. |
Idioma |
Cualquier idioma que tenga nombre. |
Fecha |
Fechas o periodos absolutos o relativos. |
HORA |
Tiempos que sean inferiores a un día. |
PERCENT |
Porcentaje, incluido el "%". |
MONEY |
Valores monetarios, incluida su unidad. |
Cantidad |
Medidas, como el peso o la distancia. |
ORDINAL |
"Primero", "segundo", etc. |
CARDINAL |
Numerales que no pertenezcan a ningún otro tipo. |