communications-mining
latest
false
- 入门指南
- 管理
- 管理来源和数据集
- 模型训练和维护
- 生成式提取
- 概述
- CommPath LLM 与预览版 LLM
- 提取字段类型筛选
- 正在生成提取内容
- 验证并标注生成的提取
- 最佳实践和注意事项
- 了解提取和提取性能的验证
- 常见问题
- 使用分析和监控
- 自动化和 Communications Mining
- 许可证信息
- 常见问题及解答
CommPath LLM 与预览版 LLM
重要 :
请注意,此内容已使用机器翻译进行了本地化。
Communications Mining 用户指南
上次更新日期 2024年12月20日
CommPath LLM 与预览版 LLM
注意:要生成提取内容,有两种不同的 LLM 可供选择:
- CommPath 法学院
- 预览 LLM
以下概述了在决定要使用的法学院时的一些注意事项。 如果您的用例需要为每条消息提取 30 个以上的字段,我们目前建议使用预览版 LLM。
- 利用 UiPath 的专有 LLM,针对通信数据进行了微调。
- 目前仅限于提取约 每条消息 30 个字段。
- 比预览版 LLM延迟更短。
- 可以根据您的数据进行微调。
- Improving performance for CommPath, both in terms of the number of fields which can be extracted and the inference speed for the model is a high priority.
- Provides specific occurrence confidences (check the Automating with GenEx section for more details) compared to the Preview LLM.
- 利用Azure OpenAI 的GPT 模型作为基础 LLM。
- UiPath™无法保证正常运行时间,因为这完全取决于 Azure OpenAI 端点。 如果端点关闭或超载,UiPath™ 无法保证可用性。
- 您可以为每条消息提取30 多个字段。
- 与CommPath LLM 相比,延迟时间更长。
- 仅限于上下文学习。
注意:使用上下文学习时,平台只能从您的提示中学习。 Communications Mining 可以在一定程度上自动优化提示,但模型不会从任何用户主导的验证中学习。
使用下方所示的设置来选择要用于生成提取的 LLM。
默认情况下启用CommPath LLM 。 要启用预览版 LLM ,需要使用下图中的开关。
如果“使用预览版生成式提取模型”开关已关闭,则表示您正在使用 CommPath LLM。
打开“使用生成式 AI 功能”和“使用预览版生成式提取模型”开关意味着平台在提取过程中使用 UiPath™ Azure OpenAI 端点。
- 开始使用CommPath LLM训练您的提取。
- 如果提取正确提取,请继续使用CommPath LLM训练提取。 否则,由于每条消息中包含大量字段或大型表格,请切换到预览版 LLM 。
要确定提取是否正确预测,请检查 验证 页面上的 生成提取 选项卡中的验证统计信息。如果提取的精度和召回率适合您的用例,请继续使用CommPath LLM 。
如果CommPath LLM 未按预期提取任何数据点,请执行以下操作:
- 转到模型,然后选择最新模型版本的固定,以固定当前模型版本。
- 与 UiPath™ 代表联系,并记下提取效果不佳的模型版本。 您的 UiPath™ 代表将直接与 Communications Mining 产品团队合作,调查并实施改进。
- 如果您使用预览版 LLM ,请继续以训练CommPath LLM的方式训练模型。 仔细检查,并为每个提取内容提供正确的示例。
Note: When you select the Preview model, only that model will be trained for Generative Extraction—without simultaneously training a CommPath model. This results in faster training and validation for Preview model users. If you switch to CommPath, predictions will continue to be provided by the Preview LLM until a CommPath model version has been trained (and vice versa).