WDTA发布业内首个大模型供应链安全国际标准

日前,世界数字技术院(WDTA)在2024inclusion·外滩大会期间正式发布国际标准《大模型供应链安全要求》(以下简称为《要求》)。据悉,《要求》是由云安全联盟(CSA)大中华区联合蚂蚁集团、微软、谷歌、百度、NIST、Meta、PrivateAI等数十家企业的专家共同编制,同时也是业内首个大模型供应链安全国际标准。

业内首个大模型供应链安全国标发布,推进AI安全发展

据WDTA方面介绍,《要求》为大模型系统提供了全生命周期的安全管理框架,有效解决了供应链中的安全问题,从而确保大模型技术在全球范围内的安全性和可持续发展。据悉,通过这一标准可有效识别和评估大模型系统生命周期中面临的供应链潜在安全风险,如数据泄露、模型篡改及供应商不合规等,保障供应链的完整性、可用性、保密性,从而提升大模型系统的安全性。


其中在大语言模型(LLM)方面,《要求》涵盖了LLM从开发、训练到部署和维护的整个生命周期,为每个阶段提供了详细的指南。据了解,该标准提出了一种多层次的安全方法,涵盖网络层、系统层、平台和应用层、模型层以及数据层,因此模型开发者可使用该标准来增强其识别、评估和管理LLM系统供应链安全风险的能力。


对此WDTA方面表示,《要求》作为AI安全、可信和负责任(AI STR)系列标准之一,为全球AI供应链安全建立了全面且系统化的管理框架,推动了全球AI技术安全治理的进一步升级与规范化。而此前在第27届联合国科技大会上,WDTA方面还发布了AI STR系列其它两项国际标准,即《生成式人工智能应用安全测试标准》和《大语言模型安全测试方法》。

WDTA0.jpg

据联合国科学和技术促进发展委员会执行主席、WDTA创始理事长Peter Major指出,国际AI标准的制定对于保障AI技术的安全性、伦理性及互操作性至关重要。随着全球AI技术的快速发展,虽然带来了前所未有的机遇,但同时也暴露出数据隐私、安全和伦理等诸多全球性问题的挑战。


此外Peter Major还进一步强调,“国际社会必须通过跨国合作,建立统一的AI治理框架,确保AI系统能够在安全和道德的前提下广泛应用。AI STR认证正是为实现这一目标的重要举措,通过制定一系列国际标准,确保AI技术的开发和应用符合全球范围内的安全、伦理和合规要求,为全球AI治理提供了可靠的工具和框架”。


公开信息显示,AI STR认证即“Artificial Intelligence Safety, Trust, and Responsibility”认证,是由WDTA基于AI STR系列标准推出的一项全球性认证项目。该认证旨在为AI应用的开发者和使用者提供一套全面的安全与合规保障、以推动全球AI技术的安全和负责任应用。


据了解,AI STR认证不仅局限于技术层面的安全评估,更涵盖了伦理和法律合规性的全面审查。通过该认证,能够确保AI技术在实际应用中能够负责任地处理各种潜在风险,包括数据隐私的保护、算法偏见的消除,以及其他可能对社会产生负面影响的问题。


在此次活动中,CSA大中华区方面还发布《AI可信度分析》报告,深入剖析了AI技术在实际应用中的可信性问题。这一报告从可靠性、安全性、透明性和公平性等关键维度,对当前AI技术的优势与挑战进行了全面评估,并提出了AI系统可信度的相关策略,涵盖技术支持、政策建议,以及行业实践等方面。


【本文图片来自网络】

踩(0)

最新文章

相关文章

大家都在看