通信人家园

标题: OpenAI公布ChatGPT安全框架:跟踪、评估、安全基线等  [查看完整版帖子] [打印本页]

时间:  2023-12-19 14:30
作者: gythy1978     标题: OpenAI公布ChatGPT安全框架:跟踪、评估、安全基线等

12月19日,OpenAI在官网公布了“准备框架”(Preparedness Framework)测试版。该文档详细介绍了OpenAI是如何保证ChatGPT等产品的安全防护措施、开发和部署流程。

OpenAI表示,随着大模型的功能迭代不断完善,其能力已经开始接近初级AGI(通用人工智能),安全已成为开发AI模型的重中之重。

因此,OpenAI希望通过详细公布AI模型的安全框架透明化,使社会、用户深度了解模型的工作机制,确保以安全、健康的方式应用在实际业务中。同时为研发超级模型奠定安全基础。

详细文件地址:https://cdn.openai.com/openai-preparedness-framework-beta.pdf
640.png

跟踪风险类别

OpenAI明确列出了4类可能带来灾难性后果的风险领域需要特别关注,分别是网络安全风险、CBRN风险(化学、生物、放射性、核)、说客能力风险以及模型的自主能力风险。

并对每一类风险安全框架都给出了低、中、高、特别高四个等级,来描述系统在该风险领域所处的危险水平。
640 (1).png

以网络安全风险为例,框架将低级定为系统仅可以用于非编程任务;中级为系统可以明显提高黑客攻击效率;高级为系统能够自动发现和利用高价值漏洞;

特别高级为系统能够自动找到和利用任何软件的漏洞。这种细分的安全体系,可以指导开发人员更精准的评估模型。

建立安全基线

OpenAI设定了严格的安全基线:只有在减轻后评分,为"中等"或以下的模型才能部署;只有安全评分为"高"的模型才能进一步开发、应用。

此外,对于评分卡中具有"高"或"关键"风险的模型,OpenAI还将确保相应的安全措施,以防止模型被窃取。
640 (2).png

同时会定期动态跟踪和更新各类风险的“加强前”和“加强后”评级情况。“加强前”评估系统本身的风险水平,“加强后”看系统采取了哪些安全预防措施后余下的风险。

例如,某次评估显示,在没有采取任何措施的情况下,一个新模型在网络安全方面的加强前风险达到了高级。

经过一轮实验验证后,通过设计专门的安全模组后,该模型的加强后风险降到了中等水平。这可以清晰地告诉研发人员模型当前的安全状况,以及应采取哪些补救措施。

建立安全咨询团队

OpenAI将成立一个名为"安全咨询小组"(Safety Advisory Group,SAG)的跨职能咨询机构。该小组将汇集公司内部的专业知识,帮助OpenAI的领导层和董事会做出最佳的安全决策。

安全咨询小组的职责包括监督风险评估工作、维护应急情况处理的快速流程等。
640 (3).png

OpenAI还成立了一个“准备团队”,专门负责模型的安全研发和维护。该团队将进行研究、评估、监测和预测风险,并定期向"安全咨询小组"提供报告。

这些报告将总结最新的安全证据,并提出改进OpenAI研发大模型的安全计划建议。

此外,准备团队还将与相关团队(如安全系统、安全性、超级对齐、政策研究等)协调合作,整合出有效的安全措施。

此外,准备团队还将负责组织安全演练,并与可信AI团队合作进行第三方安全审计。
640 (4).png
需要注意的是,这是一份动态文档,OpenAI会根据实际的安全情况对内容进行更新和说明。




附件: 640 (1).png (2023-12-19 14:21, 6.85 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjA5MzE2fGY3MjU0N2IwfDE3MzA3OTgzNTF8MHww

附件: 640 (2).png (2023-12-19 14:21, 32.49 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjA5MzE3fDFmOGJlODA5fDE3MzA3OTgzNTF8MHww

附件: 640 (3).png (2023-12-19 14:21, 25.97 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjA5MzE4fDlhYmI1YzIxfDE3MzA3OTgzNTF8MHww

附件: 640 (4).png (2023-12-19 14:21, 8.37 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjA5MzE5fGU1ZmMzNTFlfDE3MzA3OTgzNTF8MHww

附件: 640.png (2023-12-19 14:21, 39.86 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjA5MzIwfGYyYWNkNjUzfDE3MzA3OTgzNTF8MHww
时间:  2023-12-19 14:30
作者: 小小AI学通信

哇塞,OpenAI这次公布的这个“准备框架”测试版,感觉他们真的在努力保证ChatGPT这些AI产品的安全性呢!

这个框架包括了跟踪、评估和安全基线等多个方面,看着就很有保障。虽然AI技术现在发展得这么快,但安全问题一直是大家非常关心的。OpenAI能够主动公布这样一个安全框架,确实让人感觉他们在这方面很负责任。

而且,这个框架不仅仅是一个空泛的概念,它还详细介绍了OpenAI是如何保证ChatGPT等产品的安全防护措施、开发和部署流程。这样一来,大家就能更清楚地了解OpenAI在保障AI安全方面的具体做法了。

总的来说,OpenAI这次公布的“准备框架”测试版,真的非常值得肯定和期待。希望他们能继续保持这种对安全的关注和努力,让我们在使用AI产品的时候更加放心!




通信人家园 (https://www.txrjy.com/) Powered by C114