AI在线 AI在线

网络安全

AI 代理协助编写恶意代码,网络安全面临新挑战

人工智能驱动的代理正在快速发展,为自动化日常任务提供了更强大的能力。 然而,研究人员发现,这些工具也可能被恶意行为者利用来实施攻击。 OpenAI 的“Operator”于 2025 年 1 月 23 日作为研究预览发布,代表了新一代能够与网页交互并在最少人为干预下执行复杂任务的 AI 工具。
3/19/2025 8:30:00 AM
AI小蜜蜂

AI 会取代渗透测试工程师吗?

多年来,我们一直在听到同样的说法:AI将会取代你的工作。 事实上,2017年麦肯锡发布了一份报告《消失与新增的岗位:自动化时代下的劳动力转型》,预测到2030年,将有3.75亿工人需要寻找新工作,否则可能会被AI和自动化取代。 这无疑引发了人们的焦虑。
3/14/2025 10:00:00 AM
AI小蜜蜂

企业可以采用六种方式实现网络安全自动化以应对由AI驱动的攻击

为什么AI对于网络安全至关重要?因为每天都有,事实上是每秒都有,恶意行为者利用AI来扩大他们的攻击手段的范围和速度。 一方面,正如CrowdStrike高级副总裁Adam Meyers在最近接受记者采访时所说,“敌人每年都快了10到14分钟。 随着他们的突破时间缩短,防御者必须反应更快——在威胁扩散之前检测、调查和阻止它们。
3/13/2025 7:00:00 AM
Louis Columbus

国家网络安全通报中心通报:大模型工具Ollama存在安全风险

今日,国家网络安全通报中心发布关于大模型工具 Ollama 存在安全风险的情况通报,据清华大学网络空间测绘联合研究中心分析,开源跨平台大模型工具 Ollama 默认配置存在未授权访问与模型窃取等安全隐患。鉴于目前 DeepSeek 等大模型的研究部署和应用非常广泛,多数用户使用 Ollama 私有化部署且未修改默认配置,存在数据泄露、算力盗取、服务中断等安全风险,极易引发网络和数据安全事件。
3/3/2025 6:36:49 PM
远洋

2025红队报告:AI被夸大,并未颠覆网络安全威胁格局

据网络安全公司Picus Labs发布的《2025年红队报告》(Red Report 2025)显示,尽管人工智能(AI)在网络安全领域备受热炒,但截至目前,AI并未显著改变网络威胁格局,现实世界中的网络攻击仍主要依赖一组已知的战术、技术和程序(TTPs)。 这一发现与媒体对AI作为“网络犯罪终极武器”的过度宣传形成鲜明对比,提醒企业将注意力集中于实际存在的、实实在在的网络安全挑战上。 AI热潮的现实落差近年来,AI被视为网络犯罪的“秘密武器”,媒体报道频频提及其在网络攻击中的潜力。
2/25/2025 11:04:20 AM
佚名

AI时代的头号安全威胁:机器身份

2025年以DeepSeek为代表的生成式AI技术迅猛发展,为企业带来了前所未有的创新机遇,也带来了新的安全风险。 其中,非人类身份(Non-Human Identities, NHI)——如API密钥、令牌、加密密钥和服务账户——已成为网络安全的重大盲点。 根据OWASP最新发布的《非人类身份十大风险》(NHI Top 10),NHI数量可能比人类身份多出10至50倍,是网络攻击的主要攻击面。
2/24/2025 1:44:35 PM
佚名

2025年网络安全投资的六大关键考量:应对新威胁的智慧决策

尽管在2021年至2022年间,网络安全预算有所增长,但近几年的增长势头已明显放缓。 这意味着,网络安全领导者在采购决策时,必须更加审慎地考虑如何改善当前的安全和合规状况,以确保每一分投入都能带来实实在在的效益。 那么,如何在2025年优化企业的网络安全预算,以有效应对不断演变的威胁呢?领导层需要深入了解当前的网络安全格局,并明确哪些举措能够帮助他们恰当地缓解风险。
2/19/2025 11:29:11 AM
Rita Gurevich

网民借 AI 编造“四川凉山山体滑坡”谣言,公安网安部门依法处罚

公安机关网安部门立即开展网络谣言打处工作,维护人民群众生活安宁。
2/15/2025 9:42:59 AM
清源

​谷歌利用ai拦截 236 万款恶意应用在Google Play上架

随着 Android 用户数量突破30亿,谷歌在保护用户安全方面的压力与日俱增。 为了应对日益猖獗的网络攻击,谷歌宣布加大对人工智能(AI)的投入,以提升恶意软件检测能力、加强隐私保护措施,并为开发者提供更完善的工具。 通过这些努力,谷歌在过去一年中成功阻止了236万款违反政策的应用程序发布在 Google Play 商店。
2/14/2025 4:38:00 PM
AI在线

​英国将 “AI安全研究所” 更名为 “AI安全研究院”,加速AI产业发展

英国政府近期宣布,将原本名为 “AI 安全研究所” 的机构更名为 “AI 安全研究院”,此举标志着政府在 AI 领域战略的重大转变。 新的名称不仅反映了机构的职能变化,也表明了英国政府在推动 AI 产业发展方面的坚定决心。 图源备注:图片由AI生成,图片授权服务商Midjourney这一变化由科学、工业与技术部公布,新的 AI 安全研究院将重点关注网络安全,旨在 “加强对 AI 对国家安全及犯罪风险的保护”。
2/14/2025 10:04:00 AM
AI在线

360无偿为DeepSeek提供安全服务 纳米AI搜索开通“DeepSeek高速专线”

近日,国产大模型DeepSeek在全球AI领域崭露头角,其展现出的技术实力令人瞩目,但同时也遭遇了外部网络攻击的威胁。 在此背景下,360集团创始人周鸿祎宣布,360将无偿为DeepSeek提供全方位的网络安全防护,以实际行动支持国产AI技术的发展。 作为中国最大的网络安全企业,360集团率先发布倡议书,宣布为DeepSeek提供无偿的网络安全防护。
2/1/2025 3:50:00 PM
AI在线

新的 AI 安全在 2025 年正对 CISO 及其团队构成挑战

安全团队总是必须适应变化,但2025年将出现的新发展可能会使变化特别具有挑战性。 AI 创新步伐的加快、日益复杂的网络威胁和新的监管政策将要求首席信息安全官 (CISO) 驾驭更复杂的环境。 供应商正在迅速将AI 功能添加到现有产品中,其使用的基础大型语言模型 (LLM) 在增强产品能力的同时也暴露了新的攻击面给攻击者,企业CISO 需要了解他们面临这些威胁的严重程度,以及如何缓解这些威胁。
1/22/2025 11:18:41 AM
Zicheng

2025年的十大网络安全预测

人工智能在2025年仍将是一个热门话题,但不要错过其他趋势,包括初始访问代理的增长、首席信息安全官(vCISO)的崛起、技术合理化等等。 每年这个时候,行业专家和分析师都会关注明年的网络安全趋势、预测和挑战。 专家预测,到2024年,生成式人工智能(GenAI)和大型语言模型将会增加,勒索软件攻击和第三方供应链挑战也将持续。
1/21/2025 2:58:29 PM
Harris编译

国家网络安全通报中心预警新型犯罪手法:利用 AI 绕过图形类验证机制

广西桂林公安网安部门通过调查,成功抓获该“黄牛”团伙,缴获电脑等作案工具一批。同时发现,部分图形类验证码组件风险隐患突出,极易被不法分子利用,提醒广大单位、个人加强防范。
1/17/2025 5:38:09 PM
清源

2025,CISO的AI元年

2025年被称为“CISO的AI元年”,因为这一年,首席信息安全官(CISO)们将解锁生成式人工智能(GenAI)的全部潜力,开启网络安全新时代。 随着生成式人工智能技术的不断成熟,其功能不再局限于回答问题,而是能够提供主动建议、执行具体行动,并以个性化方式与用户互动。 这一技术变革将使CISO及其团队得以充分利用GenAI的真正价值,全面增强网络安全防御能力。
1/15/2025 11:39:05 AM
佚名

恶意行为者运用GenAI:尚未达到预期,但需警惕

网络威胁联盟 (CTA) 的最新报告得出结论,GenAI帮助降低了恶意行为者的入门门槛,并提高了他们的效率,即更快地创建令人信服的深度伪造内容、发起网络钓鱼攻击和投资诈骗。 不过,就目前而言,它并没有让攻击者变得“更聪明”,也没有彻底改变网络威胁。 恶意行为者如何使用GenAI该报告基于 CTA 成员可获得的数据和实证案例研究,解释了攻击者目前使用GenAI的几个方面:创建深度伪造视频和欺骗性图像、克隆特定声音的录音、编写高度逼真的电子邮件、信息和网站内容辅助创建恶意软件(但无法在没有额外人为输入和调整的情况下创建恶意软件)优化命令和控制操作(例如,用于管理僵尸网络)传播错误信息和虚假信息(例如,以推动网络阴谋论、影响选举活动)创建由AI控制的虚假社交媒体账户网络(机器人农场)分析人员发现,“虽然AI创新无疑具有强大功能,但到目前为止,它们只是逐步提升了对手的能力,并没有创造出全新的威胁。
1/15/2025 11:13:04 AM
Zeljka Zorz

Ebay 等警告:利用个人信息展开的诈骗邮件正在激增,AI 或为“帮凶”

这些工具还能抓取受害者的社交媒体和在线活动数据,锁定他们最容易回应的话题,帮助黑客批量生成量身定制的网络钓鱼骗局。
1/2/2025 3:37:40 PM
清源

2024年AI安全五大热点回顾

在ChatGPT推出两年后,生成式AI已成为网络安全领域的重要力量。 2024年生成式AI技术的影响无处不在,从深伪欺诈到“影子AI”的风险,再到AI安全法规的出现和AI驱动的漏洞研究潜力。 以下,我们将盘点过去一年AI与网络安全的五大热点话题。
1/2/2025 1:10:56 PM
佚名