联合国科技大会关注大模型安全,蚂蚁集团深度参编的两项国际标准发布

4月15日至19日,联合国在瑞士日内瓦举办了第27届科技大会。在16日主题为“塑造AI的未来”的AI专题会议上,世界数字技术院(WDTA)重磅发布了《生成式人工智能应用安全测试标准》和《大语言模型安全测试方法》两项国际标准。这标志着国际组织首次针对大模型安全领域推出国际标准,为全球人工智能安全评估与测试树立了新的里程碑。联合国科技大会关注大模型安全,蚂蚁集团深度参编的两项国际标准发布

据悉,这两项标准汇聚了OpenAI蚂蚁集团、科大讯飞、谷歌微软英伟达百度、腾讯等业界领军企业的专家学者之智。特别值得一提的是,《大语言模型安全测试方法》由蚂蚁集团主导编制。

WDTA的人工智能安全可信负责任工作组组长黄连金在会上强调,随着人工智能系统,尤其是大语言模型在社会的广泛应用,确立一个全面标准以应对相关安全挑战显得至关重要。新发布的标准融合了全球AI安全领域的专业知识,不仅填补了大语言模型和生成式AI应用在安全测试方面的空白,更为行业提供了统一的测试框架和方法论,这对于提升AI系统的安全性、推动AI技术的负责任发展以及增强公众信任具有重要意义。

作为在日内瓦注册的国际非政府组织,WDTA致力于在全球范围内推进数字技术并促进国际合作,其AISTR计划专注于确保人工智能的安全性、可信性和责任性。蚂蚁集团、华为、科大讯飞等知名企业均为其成员。

近年来,全球各国都加强了对大模型安全的研究与监管。我国也相继发布了多项相关政策和标准,旨在推动生成式人工智能的安全可信发展,并促进全球人工智能治理领域的合作与共识。

新发布的两项国际标准针对大模型和生成式AI应用的安全测试进行了详细规范。《生成式人工智能应用安全测试标准》由WDTA牵头,为测试和验证使用大语言模型构建的生成式AI应用的安全性提供了框架。而《大语言模型安全测试方法》则由蚂蚁集团牵头,为大模型的安全性评估提供了全面、严谨且实用的方案。

蚂蚁集团机器智能部总经理、蚂蚁安全实验室首席科学家王维强作为标准参与单位代表在会上发言。他强调,生成式AI将带来巨大的生产力提升,但同时也需要高度警惕其带来的新风险。大型科技公司在推动生成式AI安全、负责任的发展中扮演着关键角色,应利用其资源、专业知识和影响力来推动最佳实践,并构建一个优先考虑安全、隐私和道德的生态系统。

资料显示,蚂蚁集团在可信AI技术研究方面有着深厚的积累,并已建立了完善的大模型综合安全治理体系。其自研的“蚁天鉴”AI安全检测体系在业界处于领先地位,此次发布的《大语言模型安全测评方法》便是基于该体系的应用实践。此外,蚂蚁集团还成立了科技伦理委员会和专门团队来全面评估和管理生成式AI的潜在风险。

暂无评论

暂无评论...