根据网络安全研究机构NCC Group最新发布的报告显示,AI驱动的语音伪造技术已突破技术瓶颈,实现了所谓的“即时”伪造能力。这一创新使得攻击者可以在普通通话场景下动态模仿目标人物的声音,实验数据显示,其诈骗成功率几乎达到100%。
区别于传统的变声软件,这项被称作“深度伪造语音钓鱼”的技术,依托先进的人工智能模型,仅需对目标的声音进行短暂学习,即可在定制网页界面上实现一键切换。令人担忧的是,该技术对硬件配置的要求并不高,研究人员在配备英伟达RTX A1000显卡的普通笔记本电脑上,成功实现了延迟低于0.5秒的实时语音转换,生成的声音自然流畅,几乎难以辨别真伪。
更令人震惊的是,哪怕从低质量的录音资料中,也能生成极为逼真的语音复制品。与以往需要长时间训练、只能输出固定片段的旧式工具不同,新系统允许用户在通话过程中实时根据情境调整语调和语速,极大降低了技术门槛,普通用户只需借助笔记本或智能手机,便能达到专业水平的语音伪造效果。
在经过授权的模拟测试中,安全专家Pablo Alobera透露,当将实时伪造技术与电话号码伪装结合使用时,几乎每次都能成功欺骗测试对象。这一结果暴露出该项技术对当前安全体系带来的严重威胁。
尽管语音伪造技术日益成熟,但实时视频深度伪造仍受到技术难题制约。专家指出,现有的最先进AI模型在实时生成视频时仍存在表情不连贯、情绪不匹配以及音画不同步等问题,普通观众通过观察这些细节,仍能识别出伪造的痕迹。
随着人工智能伪造技术的快速推广,真实损失事件也逐渐浮出水面。有企业在招聘环节中遭遇视频深度伪造陷阱,将笔记本电脑寄往虚假地址,造成财产损失。由此可见,传统的语音或视频身份验证方法已变得不再可靠。
专家呼吁建立全新的身份验证体系,可以借鉴棒球比赛中的“暗号”策略,通过独特且具有结构化的信号或代码,在远程交流中确认真实身份。若不及时应对,个人和机构都可能面临愈发复杂的AI社会工程攻击,网络安全格局或将发生根本性变革。
