人工智能风险管理框架发布

NIST发布了他们的人工智能(AI)风险管理框架,作为建立和灌输公众对人工智能信任的更大努力的一部分。

通过国家标准和技术研究所 2023年1月26日
提供:N. Hanacek/NIST

人工智能洞察

  • 人工智能风险管理框架(AI RMF 1.0),来自NIST,是一份指导文件,帮助组织管理AI技术的许多风险。
  • 这是NIST和美国政府为帮助建立和灌输公众对人工智能的信任而做出的更大努力的一部分,因为人工智能在许多不同应用领域的使用持续增长。这是必要的努力,因为ChatGPT和其他程序已经成为人们关注的焦点,并显示出人工智能程序可能提供的双刃剑性质。

美国国家标准与技术研究所(NIST)已经发布了它的人工智能风险管理框架(ai RMF 1.0),这是一份指导文件,供设计、开发、部署或使用人工智能(AI)系统的组织自愿使用,以帮助管理人工智能技术的许多风险。

AI RMF遵循国会对NIST的指导与私营及公营机构密切合作,制定有关架构。随着技术的不断发展,它旨在适应人工智能领域,并被不同程度和能力的组织使用,以便社会能够从人工智能技术中受益,同时也免受其潜在危害。

美国商务部副部长唐·格雷夫斯在一份新闻稿中说:“这一自愿框架将有助于开发和部署人工智能技术,使美国、其他国家和组织能够增强人工智能的可信度,同时根据我们的民主价值观管理风险。”

与传统软件相比,人工智能带来了许多不同的风险。人工智能系统是根据数据进行训练的,这些数据可能会随着时间的推移而变化,有时会发生重大而意外的变化,从而以难以理解的方式影响系统。这些系统在本质上也是“社会技术”的它们受到社会动态和人类行为的影响.人工智能风险可能来自这些技术和社会因素的复杂相互作用,影响人们的生活,从他们使用在线聊天机器人的经历到工作和贷款申请的结果。

NIST发布了他们的人工智能(AI)风险管理框架,作为建立和灌输公众信任的更大努力的一部分。提供:N. Hanacek/NIST

AI RMF的目的、结构

该框架使组织能够以不同的方式思考人工智能和风险。它促进了制度文化的变革,鼓励组织以新的视角看待人工智能——包括如何思考、沟通、衡量和监控人工智能风险及其潜在的积极和消极影响。

AI RMF提供了一个灵活、结构化和可测量的流程,使组织能够应对AI风险。遵循这一流程来管理人工智能风险可以最大限度地发挥人工智能技术的效益,同时降低对个人、群体、社区、组织和社会产生负面影响的可能性。

该框架是NIST培养对人工智能技术信任的更大努力的一部分,根据标准与技术副部长和NIST主任Laurie E. Locascio的说法,如果该技术要被广泛接受,这是必要的。

“人工智能风险管理框架可以帮助任何行业和任何规模的公司和其他组织启动或加强他们的人工智能风险管理方法,”Locascio说。“它提供了一种新的方式来整合负责任的实践和可操作的指导,以运行值得信赖和负责任的人工智能。我们希望AI RMF能够帮助推动最佳实践和标准的发展。”

AI RMF分为两部分。第一部分讨论了组织如何构建与人工智能相关的风险,并概述了值得信赖的人工智能系统的特征。第二部分是框架的核心,描述了四个具体功能——治理、映射、测量和管理——以帮助组织在实践中解决人工智能系统的风险。这些功能可以应用于特定于上下文的用例以及AI生命周期的任何阶段。

NIST与私营和公共部门密切合作开发AI RMF 18个月.该文件反映了400组正式评论NIST收到了来自240多个不同组织的框架的草案版本.NIST今天发布一些组织的发言已经承诺使用或推广该框架的公司。

该机构还发布了一份配套志愿AI RMF剧本,它提供了导航和使用框架的方法。

NIST计划与人工智能社区合作,定期更新框架,并随时欢迎对剧本的添加和改进提出建议。2023年2月底之前收到的意见将包括在2023年春季发布的剧本更新版本中。

-编辑自NIST新闻稿由CFE媒体和技术。