大型语言模型(LLM)提供商OpenAI和Anthropic日前与美国国家标准与技术研究院(NIST)下属的美国人工智能安全研究所(AISIC)签署了一份协议,计划在包括测试和评估在内的AI安全研究方面开展合作。

作为协议的一部分,Anthropic和OpenAI都将在向公众发布他们的新模型之前与AISIC共享,以便进行安全检查。

AISIC负责人ElizabethKelly在一份声明中表示:“有了这些协议,我们期待着与Anthropic和OpenAI开展技术合作,共同推进AI安全科学的发展。”

这些协议是在美国总统乔·拜登通过一项行政命令近一年后达成的,这项命令为AI的开发和使用制定了一系列全面的标准、安全和隐私保护以及监督措施。

美国AI监管最新动向:OpenAI、Anthropic与NIST达成安全检查协议

NIST在7月初发布了一个名为Dioptra的新开源软件包,允许开发人员确定哪种类型的网络攻击会降低AI模型的效率。

此外,NIST还根据行政命令发布了几份促进AI安全和标准的文件,包括其开发基础模型的指南初稿“管理两用基础模型的滥用风险”,以及作为NISTAI风险管理框架(AIRMF)和安全软件开发框架(SSDF)的配套资源,旨在帮助开发人员管理GenAI风险的两份指导文件。

协议还支持美国与英国AI安全研究所的合作

与LLM提供商达成的协议还包括一项条款,该条款将允许美国安全研究所与英国人工智能安全研究所的合作伙伴合作,并向两家机构提供有关其模型潜在安全改进的反馈。

美国和英国的政府部门在今年4月初签署了一项协议,测试支撑AI系统的安全LLM。

该协议由美国商务部长GinaRaimondo和英国科学、创新和技术部部长MichelleDonelan在美国华盛顿签署,AI安全研究所之间的合作是该协议带来的直接结果。

美国围绕AI安全采取的其他措施

OpenAI和Anthropic签署这份协议正值加州AI安全法案进入成为法律的最后阶段,该法案可能将制定美国最严格的AI法规,并为其他类似的法规铺平道路。

这项名为《前沿AI模型安全创新法案》(SB1047)的立法为AI开发人员提出了严格的测试和问责措施,特别是那些创建大型复杂AI模型的开发人员。如果该法案成为法律,将要求AI公司在向公众发布之前测试其系统的安全性。

直到8月早些时候,OpenAI还在反对该法案,直到最近才承诺支持该法案。

NIST还采取了其他措施,包括今年2月成立了由AI创建者、用户、学者组成的AI安全咨询小组,为AI的使用和开发设置了一些安全措施。

AISIC咨询小组的任务是制定AI系统“红队”行动指南,这些任务包括评估AI能力、管理风险、确保安全、以及为AI生成的内容添加水印。OpenAI、Meta、谷歌、微软、亚马逊、英特尔和英伟达在内的一些主要科技公司都加入了该联盟。