Open
Description
例行检查
- 我已确认目前没有类似 features
- 我已确认我已升级到最新版本
- 我已完整查看过项目 README,已确定现有版本无法满足需求
- 我理解并愿意跟进此 features,协助测试和提供反馈
- 我理解并认可上述内容,并理解项目维护者精力有限,不遵循规则的 features 可能会被无视或直接关闭
功能描述
OpenAI 和大多数 LLM 公司提供的模型,都带有内容审查功能,确保不会输出包含有争议的内容,比如暴力,性和非法行为。需要支持几种模式:
功能一:调用 OpenAI Moderation API。
功能二:自定义关键词:开发者可以自定义需要审查的敏感词,比如把“kill”作为关键词,在用户输入的时候作审核动作。
功能三: 敏感词审查 API 扩展: 可以对接到开发者自己编写敏感词审查机制API。
应用场景
在与 AI 应用交互的过程中,往往在内容安全性,用户体验,法律法规等方面有较为苛刻的要求,此时我们需要“敏感词审查”功能,来为终端用户创造一个更好的交互环境。
相关示例
Metadata
Metadata
Assignees
Labels
No labels