AI在线 AI在线

Meta 推出新框架,计划限制高风险 AI 系统的发布

Meta 近日发布了一项新的风险政策框架,旨在评估和降低前沿 AI 模型所带来的风险,并在必要时停止开发或限制这些系统的发布。 该框架名为 “前沿 AI 框架”,详细阐述了 Meta 将如何将 AI 模型分为高风险和关键风险两类,并据此采取相应措施,以将风险降低到 “可容忍的水平”。 在这个框架中,关键风险被定义为能够独特地促成特定威胁场景的执行。

Meta 近日发布了一项新的风险政策框架,旨在评估和降低前沿 AI 模型所带来的风险,并在必要时停止开发或限制这些系统的发布。该框架名为 “前沿 AI 框架”,详细阐述了 Meta 将如何将 AI 模型分为高风险和关键风险两类,并据此采取相应措施,以将风险降低到 “可容忍的水平”。

Facebook 元宇宙 meta

在这个框架中,关键风险被定义为能够独特地促成特定威胁场景的执行。而高风险则意味着模型可能显著提升实现威胁场景的可能性,但并不直接促成执行。威胁场景包括生物武器的扩散,其能力可与已知的生物剂相提并论,以及通过大规模长篇欺诈和诈骗造成的对个人或公司的广泛经济损害。

对于达到关键风险阈值的模型,Meta 将停止开发,并仅向少数专家开放该模型的访问权限,同时在技术上可行且商业上可行的情况下,实施安全保护以防止黑客攻击或数据外泄。对于高风险模型,Meta 则会限制访问权限,并采取减缓风险的措施,以将风险降低到中等水平,确保该模型不会显著提升威胁场景的执行能力。

Meta 表示,其风险评估过程将涉及多学科的专家和公司内部的领导,确保各方面的意见都能得到充分考虑。这一新框架仅适用于该公司的最先进模型和系统,这些模型的能力匹配或超过当前技术水平。

Meta 希望,通过分享其先进 AI 系统的开发方法,能够提升透明度,促进外界对 AI 评估和风险量化科学的讨论与研究。同时,该公司强调,针对 AI 评估的决策过程将随着技术的发展不断演进和完善,包括确保其测试环境的结果能够真实反映模型在实际运行中的表现。

划重点:

🌟 Meta 推出新风险政策框架,以评估和降低前沿 AI 模型的风险。  

🔒 关键风险模型将停止开发,并限制专家访问;高风险模型将实施访问限制和减缓措施。  

🧑‍🏫 风险评估过程将涉及多学科专家,力求提高透明度和科学性。

相关资讯

Meta Ray-Ban 智能眼镜隐私政策调整:AI 随时“看”,语音云端存

Meta更新Ray-Ban智能眼镜隐私政策,AI摄像头功能默认开启,语音录音强制云端存储一年。用户需手动关闭“Hey Meta”功能以禁用AI分析,物理按键仍可作普通相机使用。#智能眼镜隐私# #MetaAI升级#
4/30/2025 11:24:30 PM
远洋

Meta AI 应用新增隐私警告:避免分享个人或敏感信息

Meta更新AI应用,为“发布到信息流”按钮新增免责声明,提醒避免分享敏感信息。此前该应用信息流存在过度分享隐私问题遭批评。更新后分享有警告,信息流仅展示AI生成内容,变化情况未知。#MetaAI#
6/17/2025 9:08:13 AM
远洋

LeCun回应赵晟佳出任“首席科学家”

henry 发自 凹非寺量子位 | 公众号 QbitAI人工智能是年轻的事业,也是年轻人的事业。 90后华人科学家赵晟佳(清华校友,ChatGPT到o3核心成员)履新Meta超级智能实验室(Meta Superintelligence Labs,MSL),担任首席科学家。 与此同时,Meta另一位首席科学家——60年出生的图灵奖得主——LeCun的去留话题,也引发了舆论热议。
7/28/2025 3:18:45 PM
henry
  • 1