AI在线 AI在线

专家揭示数百项 AI 安全测试存在严重缺陷

根据最新报道,来自英国政府 AI 安全研究所和多所知名大学的计算机科学家们发现,当前用于评估新一代人工智能(AI)模型安全性和有效性的测试存在广泛的缺陷。 这项研究分析了超过440个基准测试,发现几乎所有的测试在某个方面都有弱点,这些弱点可能会影响到最终结论的有效性。   图源备注:图片由AI生成研究的主要作者、牛津互联网研究所的研究员安德鲁・比恩(Andrew Bean)表示,这些基准测试是检查新发布 AI 模型安全性和是否符合人类利益的重要工具。

根据最新报道,来自英国政府 AI 安全研究所和多所知名大学的计算机科学家们发现,当前用于评估新一代人工智能(AI)模型安全性和有效性的测试存在广泛的缺陷。这项研究分析了超过440个基准测试,发现几乎所有的测试在某个方面都有弱点,这些弱点可能会影响到最终结论的有效性。  

机器人AI

图源备注:图片由AI生成

研究的主要作者、牛津互联网研究所的研究员安德鲁・比恩(Andrew Bean)表示,这些基准测试是检查新发布 AI 模型安全性和是否符合人类利益的重要工具。然而,由于缺乏统一的标准和可靠的测量方法,很难判断这些模型是否真正取得了进展,或者只是表面上看起来在进步。  

在目前英国和美国尚未出台全国性 AI 监管法规的背景下,基准测试成了技术公司推出新 AI 时的安全网。近期,一些公司因其 AI 模型造成的危害而不得不收回或收紧其产品。例如,谷歌最近撤回了一款名为 Gemma 的 AI,因为该模型虚构了关于一位美国参议员的不实指控,这引发了广泛的争议。  

谷歌表示,Gemma 模型是为 AI 开发者和研究人员设计的,而不是供普通消费者使用,并在得知非开发者尝试使用后将其撤回。研究还发现,许多基准测试并未使用不确定性估计或统计测试,仅有16% 的测试具备这样的措施。此外,在评估 AI 的 “无害性” 等特征时,相关定义往往存在争议或模糊,进一步降低了基准测试的实用性。  

该研究呼吁建立共享标准和最佳实践,以提升 AI 安全性和有效性的评估能力。

划重点:  

🔍 近440个 AI 安全测试发现几乎所有都有缺陷,影响结论有效性。  

🚫 谷歌因 Gemma 模型引发虚假指控事件,撤回该 AI。  

📊 仅16% 的测试使用统计方法,亟需建立共享标准与最佳实践。

相关资讯

​AI 安全性与有效性测试存在严重缺陷,引发专家关注

近日,来自英国政府 AI 安全研究所的计算机科学家及斯坦福大学、加州大学伯克利分校和牛津大学的专家们,对超过440个用于评估新人工智能模型安全性和有效性的基准进行了深入研究。 他们发现几乎所有测试在某一领域存在缺陷,这些缺陷可能会 “削弱结果声明的有效性”,并且一些测试的评分结果可能 “无关紧要甚至误导”。 图源备注:图片由AI生成随着各大科技公司不断推出新 AI,公众对 AI 的安全性和有效性日益担忧。
11/4/2025 10:51:41 AM
AI在线

“人类终极考试”基准测试发布:顶级 AI 系统表现惨淡,回答准确率均未超 10%

非营利组织“人工智能安全中心”(CAIS)与提供数据标注和 AI 开发服务的公司 Scale AI 联合推出了一个名为“人类终极考试”(Humanity's Last Exam)的新型基准测试,旨在评估前沿 AI 系统的综合能力。这一测试因其极高的难度引起关注。
1/24/2025 4:27:49 PM
远洋

​OpenAI 推出 SWE-Lancer 基准测试:评估真实世界自由软件工程工作的模型性能

在软件工程领域,随着挑战的不断演变,传统的基准测试方法显得力不从心。 自由职业的软件工程工作复杂多变,远不止是孤立的编码任务。 自由职业工程师需要处理整个代码库,集成多种系统,并满足复杂的客户需求。
2/18/2025 4:55:00 PM
AI在线
  • 1