OpenAI 发布了以安全为中心的开源模型 GPT-OSS-SafeGuard-20B/120B,主要用于内容安全分类。开发者可根据需求调整安全边界,模型支持实时解读安全策略。尽管在某些场景下表现良好,但处理复杂问题时传统分类器可能更优。该模型采用 Apache 2.0 许可证,允许自由使用和修改。
OpenAI发布了gpt-oss-safeguard模型,分为120b和20b两种,专注于安全分类任务。开发者可根据需求自定义政策,模型通过推理直接进行内容分类,灵活适应快速变化的风险场景,支持政策的迭代优化。尽管存在性能和计算成本的限制,该模型仍为社区提供了开放的安全工具,推动安全技术的创新与应用。
该研究探讨了剪枝语言模型在安全分类任务中的应用,模型体积减少超过80%,同时保持准确性,旨在开发轻量级模型以检测有害内容。
完成下面两步后,将自动完成登录并继续当前操作。