美国AI监管最新动向:OpenAI、Anthropic与NIST达成安全检查协议

互联网消息·人工智能9月2日 大型语言模型(LLM)提供商OpenAI和Anthropic日前与美国国家标准与技术研究院(NIST)下属的美国人工智能安全研究所

互联网消息·人工智能9月2日 大型语言模型(LLM)提供商OpenAI和Anthropic日前与美国国家标准与技术研究院(NIST)下属的美国人工智能安全研究所(AISIC)签署了一份协议,计划在包括测试和评估在内的AI安全研究方面开展合作。

作为协议的一部分,Anthropic和OpenAI都将在向公众发布他们的新模型之前与AISIC共享,以便进行安全检查。

image001.jpg

AISIC负责人Elizabeth Kelly在一份声明中表示:“有了这些协议,我们期待着与Anthropic和OpenAI开展技术合作,共同推进AI安全科学的发展。”

这些协议是在美国总统乔·拜登通过一项行政命令近一年后达成的,这项命令为AI的开发和使用制定了一系列全面的标准、安全和隐私保护以及监督措施。

NIST在7月初发布了一个名为Dioptra的新开源软件包,允许开发人员确定哪种类型的网络攻击会降低AI模型的效率。

此外,NIST还根据行政命令发布了几份促进AI安全和标准的文件,包括其开发基础模型的指南初稿“管理两用基础模型的滥用风险”,以及作为NISTAI风险管理框架(AI RMF)和安全软件开发框架(SSDF)的配套资源,旨在帮助开发人员管理GenAI风险的两份指导文件。

协议还支持美国与英国AI安全研究所的合作

与LLM提供商达成的协议还包括一项条款,该条款将允许美国安全研究所与英国人工智能安全研究所的合作伙伴合作,并向两家机构提供有关其模型潜在安全改进的反馈。

美国和英国的政府部门在今年4月初签署了一项协议,测试支撑AI系统的安全LLM。

该协议由美国商务部长Gina Raimondo和英国科学、创新和技术部部长Michelle Donelan在美国华盛顿签署,AI安全研究所之间的合作是该协议带来的直接结果。

美国围绕AI安全采取的其他措施

OpenAI和Anthropic签署这份协议正值加州AI安全法案进入成为法律的最后阶段,该法案可能将制定美国最严格的AI法规,并为其他类似的法规铺平道路。

这项名为《前沿AI模型安全创新法案》(SB 1047)的立法为AI开发人员提出了严格的测试和问责措施,特别是那些创建大型复杂AI模型的开发人员。如果该法案成为法律,将要求AI公司在向公众发布之前测试其系统的安全性。

直到8月早些时候,OpenAI还在反对该法案,直到最近才承诺支持该法案。

NIST还采取了其他措施,包括今年2月成立了由AI创建者、用户、学者组成的AI安全咨询小组,为AI的使用和开发设置了一些安全措施。

AISIC咨询小组的任务是制定AI系统“红队”行动指南,这些任务包括评估AI能力、管理风险、确保安全、以及为AI生成的内容添加水印。OpenAI、Meta、谷歌、微软、亚马逊、英特尔和英伟达在内的一些主要科技公司都加入了该联盟。

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )

您可能有感兴趣的文章
超越GPT-4,OpenAI前高管发布"最强"大模型

内部人看微软AI:风光背后内部有疑虑,把"噱头"卖给客户好吗?

中国工程院院士邬贺铨:算力十问

如果谷歌与苹果达成AI合作 微软与OpenAI的联盟会不会地位难保?

GPT商店热度不尽人意 仅用在写论文和炒股票上较受欢迎