近日,OpenAI公开了其最新研究成果,揭示GPT-4如何为在线平台提供更高效的内容管理解决方案。GPT-4展现出其在迅速适应和解释内容政策变更上的巨大潜能,为数字化平台的未来管理和运营打开了新的视角。本文详细解读了这一研究及其对整个互联网社区的潜在影响。

OpenAI 发文介绍了其最新的研究发现,即 GPT-4 可以帮助在线平台更有效地管理用户内容。

“使用 GPT-4 的内容审核系统可以更快地迭代政策变更,将周期从数月缩短至数小时。GPT-4 还能解释冗长的内容政策文档中的规则和细微差别,并即时适应政策更新,从而使标签更加一致。我们相信,这为数字平台的未来提供了一个更积极的愿景,即人工智能可以根据平台特定的政策帮助节制在线流量,减轻大量人工版主的精神负担。任何拥有 OpenAI API 访问权限的人都可以实施这种方法来创建自己的人工智能辅助审核系统。”

OpenAI 声称,他们的大型语言模型(例如 GPT-4)可以理解并生成自然语言,使其适用于内容审核。这些模型可以根据提供给他们的政策指南做出适度判断。

一项新的内容政策发布后,首先得人工了解政策的执行;然后收集反馈意见以确定新政策是否可行,以及对反馈中的问题进行纠正。某些情况下,这一过程可能需耗时几个月,但 OpenAI 研究认为,GPT-4 可以在几个小时内完成该任务。

一旦制定了政策指南,政策专家就可以通过识别少量示例并根据政策为其分配标签来创建一组黄金数据。
然后,GPT-4 读取策略并将标签分配给同一数据集,而不会看到答案。
通过检查 GPT-4 的判断与人类判断之间的差异,政策专家可以要求 GPT-4 提出其标签背后的推理,分析政策定义中的模糊性,解决混乱并相应地在政策中提供进一步的澄清。可以重复步骤 2 和 3,直到对策略质量感到满意为止。

在内部测试中,OpenAI 还将 GPT-4 与人类内容审核团队进行了比较得出,受过内容审核训练的 GPT-4 比受过轻度训练的人类审核员表现更好。不过,受过严格训练且经验丰富的人类审核员表现仍要优于两者。

OpenAI 透露,他们还在积极探索进一步提高 GPT-4 的预测质量,包括纳入链式推理或自我批评;以及尝试检测未知风险的方法。

更多详情可查看官方博客。https://openai.com/blog/using-gpt-4-for-content-moderation

 

OpenAI的新研究进一步证明了人工智能在内容审核领域的巨大价值。经过内部测试,经过内容审核训练的GPT-4在某些方面甚至超越了初级人类审核员。OpenAI仍在努力探索GPT-4的更多潜能,期望为互联网社区提供更多高效、准确的工具。对于更多深入细节,敬请访问官方博客。

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。