2024年Top开源大模型安全测评报告:安全测评

今天分享的是:2024年Top开源大模型安全测评报告

报告共计:27页

《Top开源大模型安全测评报告(2024)》由中国软件评测中心安全事业部等多家机构联合发布,聚焦开源大模型安全风险测评,旨在为产业发展提供参考,推动大模型安全治理安全测评

- 测评体系与方法:从国家安全、道德伦理、网络安全等12个方面,采用内容分割重组、角色伪装等多种检测方式,对12家20款开源大模型进行测评安全测评 。通过计算单项风险比例、比例总和及单项占总风险比例,量化评估模型安全风险。

- 测评结果

- 总体风险:开源大模型存在安全风险,国内开源大模型安全性整体优于国外安全测评 。如qwen2:7b风险占比3.90%,aya:8b风险占比达15.75% 。

- 风险类型分布:公共安全、道德伦理、不良信息和网络安全风险突出安全测评 。例如,在公共安全风险类型中,mistral:7b-instruct风险数量多且单项风险占比达17.36%;falcon在道德伦理风险类型中风险数量多,单项风险占比21.23%。

- 风险检测方式:开源大模型在面对多种攻击检测方式时防护能力弱安全测评 。像直接问答、混合攻击等场景下,多个模型表现不佳,易受攻击输出有害内容。

- 安全现状总结:国外开源大模型安全风险等级高于国内,全球人工智能安全治理亟待推进安全测评 。国内外开源大模型在部分风险类型测试中不通过率高,内容安全防护能力薄弱,安全研究投入不足。

- 安全建议:行业应制定安全伦理准则,规范大模型开发应用;AI厂商需加大安全研究投入,运用新兴技术提升模型内生安全能力;产业应用时,重点行业要严格审核大模型在内容、模型、供应链和系统等方面的安全风险安全测评

该报告为大模型安全治理提供了重要依据,有助于提升行业安全意识,促进人工智能大模型技术安全、可靠地赋能各行业安全测评

以下为报告节选内容

报告共计: 27页

中小未来圈安全测评 ,你需要的资料,我这里都有!

本站内容来自用户投稿,如果侵犯了您的权利,请与我们联系删除。联系邮箱:835971066@qq.com

本文链接:http://www.sctxap.com/post/163.html