你有多确定自己能识别出AI克隆的声音?如果你认为自己完全有把握,那你可能错了。
为何其威胁日益加剧
只需三秒钟的音频,犯罪分子现在就能克隆某人的声音,而这些音频很容易从网上或社交媒体上分享的视频中获取。
一位美国母亲差点成为虚拟绑架骗局的受害者,骗子用克隆的声音逼真地模仿了她女儿的求救声,这一案例显示了犯罪分子为达目的不择手段的残忍程度。
AI语音劫持骗局常针对老年人,冒充其家人或信任的人,但现在,这些骗局也开始对企业构成威胁。
“AI驱动的语音骗局利用企业的安全漏洞,如安全协议薄弱、缺乏认证方法以及员工培训不足。”Visa北美区高级副总裁兼首席风险官Mike Lemberger表示。
AI语音劫持的财务影响
如果一名能接触公司财务的员工接到一个自认为是CEO打来的电话,尤其是当这些骗局利用制造紧迫感和需要迅速行动的心理时,该员工可能会上当受骗。
一旦成功,这种攻击可能导致重大财务损失,并失去客户、投资者和合作伙伴的信任,这可能会对企业的长期发展造成损害。德勤金融服务中心预测,到2027年,GenAI可能导致美国的欺诈损失达到400亿美元。
意大利警方最近冻结了与一起利用AI生成语音进行深度伪造的骗局相关的近100万欧元。骗子冒充意大利国防部长,向该国顶级大亨索要钱财,以解救被绑架的记者。
AI进展超越语音生物识别技术
尽管方便,但随着AI的进步,语音生物识别技术作为公司和行业验证用户的方法已显得力不从心,尤其是在金融领域。虽然这些行业依赖这项技术来验证客户,尤其是在呼叫中心,但这也使它们更加脆弱。
为了保持领先,企业必须在语音认证的基础上集成多因素认证(MFA)和AI驱动的欺诈检测,如果没有这些额外的保护层,仅凭语音生物识别技术将无法抵御GenAI的崛起。
“由于AI能够模仿人类,我们将看到比以往更逼真、更危险的钓鱼邮件。如果你将其与能够创建深度伪造音频和视频的多模态AI模型相结合,我们可能需要对与他人的每一次虚拟互动都进行两步验证。”SecurityPal的CEO Pukar Hamal指出。
如何防范AI语音劫持
升级语音认证:基本的语音系统容易被AI欺骗,因为它们往往只依赖单一的语音特征,使用能够检查个人语音多个方面的技术,如音调和节奏,这些系统更难被欺骗。
添加行为生物识别:将语音识别与行为分析相结合,观察如停顿、语调变化和压力等语音模式,这些细微的线索AI很难模仿,因此更容易识别出虚假或篡改过的声音。
教育员工:培训员工,特别是像高管这样的关键决策者,让他们能够识别AI驱动的社会工程策略。确保他们了解骗子可以利用AI复制声音并操纵他们采取行动。鼓励他们对任何不寻常的请求,特别是涉及金钱或敏感信息的请求,保持质疑态度。
限制在网上分享的个人信息:如果可能的话,限制在网上分享的个人信息,包括语音录音。犯罪分子可以利用这些信息克隆声音并实施有针对性的骗局。