AI在线 AI在线

普渡大学

第一名方案公开,代码智能体安全竞赛,普渡大学拿下90%攻击成功率

近期的引用研究[1-2]表明,即使是经过安全修复的大模型,也可能在正常开发场景中无意间生成漏洞的代码,为后续利用存在埋下隐患;而在不良用户手中,这样的模型还能显着着恶意软件的构建与重建,降低攻击邻居、整个周期开发。 许多风险模型推理中的缺陷,而超过输入输出的显着性问题。 在亚马逊举办的针对代码智能体的安全竞赛(Amazon Nova AI Challenge)中,普渡大学的团队 PurCL 作为红队以超过 90% 的攻击率获得比赛成功第一名,赢得 25 万美元奖金。
8/23/2025 7:26:00 PM
机器之心

能找神经网络Bug的可视化工具,Nature子刊收录

近来,《自然》子刊收录了一项能找出神经网络在哪里出错的研究成果。研究团队提供了一种利用拓扑学描述神经网络的推断结果与其分类之间关系的可视化方法。这项成果能够帮助研究人员推断神经网络推理过程中发生混淆的具体情况,让人工智能系统更加透明。研究人员发现,在神经网络推理的某些数据图中存在尖峰,这些尖峰往往出现在神经网络判断模糊与产生错误的地方。观察这些尖峰,研究人员可以更容易发现人工智能系统中的故障点。从分析癌症突变的原因到决定谁应该获得贷款,在解决这些问题的过程中,仿照人脑的神经网络比人类表现得更加快速、准确、公正。但是
1/15/2024 10:49:00 AM
机器之心
  • 1