首页 > 要闻 > 正文

联合国科技大会关注大模型安全,蚂蚁集团深度参编的两项国际标准发布

2024-04-17 15:30 来源: 中国财富网        作者: 0

分享至

微信扫一扫: 分享

微信里点“发现”,扫一下

二维码便可将本文分享至朋友圈。

中国财富网讯(壹川)4月15日-19日,第27届联合国科技大会在瑞士日内瓦召开。4月16日,在以“塑造AI的未来”为主题的AI边会上,世界数字技术院(WDTA)发布了《生成式人工智能应用安全测试标准》和《大语言模型安全测试方法》两项国际标准。这是国际组织首次就大模型安全领域发布国际标准,代表全球人工智能安全评估和测试进入新的基准。

据了解,这两项国际标准是由OpenAI、蚂蚁集团、科大讯飞、谷歌、微软、英伟达、百度、腾讯等数十家单位的多名专家学者共同编制而成。

image.png

(图:WDTA发布大模型安全国际标准,OpenAI、蚂蚁集团、科大讯飞等参编)

WDTA人工智能安全可信负责任工作组组长黄连金表示,此次发布的标准填补了大语言模型和生成式AI应用方面安全测试领域的空白,为业界提供了统一的测试框架和明确的测试方法,有助于提高AI系统安全性,促进AI技术负责任发展,增强公众信任。

两项标准中,《大语言模型安全测试方法》是由蚂蚁集团牵头编制的。该标准为大模型本身的安全性评估提供了一套全面、严谨且实操性强的结构性方案。它提出了大语言模型的安全风险分类、攻击的分类分级方法以及测试方法,并率先给出了四种不同攻击强度的攻击手法分类标准,提供了严格的评估指标和测试程序等,可解决大语言模型固有的复杂性,全面测试其抵御敌对攻击的能力,使开发人员和组织能够识别和缓解潜在漏洞,并最终提高使用大语言模型构建的人工智能系统的安全性和可靠性。

image.png

(图:蚂蚁集团王维强作为标准参与单位代表,在会上发言)

蚂蚁集团机器智能部总经理、蚂蚁安全实验室首席科学家王维强受邀参会并进行了发言。他表示,大型科技公司应在促进生成式AI安全和负责任的发展中发挥关键作用,利用其资源、专业知识和影响力推动最佳实践,构建一个优先考虑安全、隐私和道德考量的生态系统。


责任编辑:张望舒

关注中国财富公众号

微信公众号

APP客户端

手机财富网

热门专题