研究显示,超70%的普通人无法在短时间内分辨真实语音与克隆语音的区别。即使是专业的音频工程师,在没有特殊检测工具的情况下也可能“中招”。这使得“语音本身”不再是信任的保障。
三、AR/VR+环境语音伪造:下一波沉浸式诈骗风暴 1. 虚拟现实中的“拟真骗局”
随着AR(增强现实)和VR(虚拟现实)设备的普及,越来越多的用户开始沉浸于虚拟世界中。而诈骗者也迅速跟进,在这些平台中制造“沉浸式陷阱”。
例如,在某款热门元宇宙社交应用中,诈骗分子创建了一个模拟银行柜台 电话号码数据 的虚拟场景,配上穿戴制服的AI角色以及“背景银行音乐”和“对讲机语音”噪音,再加上通过语音克隆实现的“银行客服”对话,让受害者误以为自己正在与真实金融机构沟通,最终被骗取账号和密码。
2. 环境语音伪造的危害
不仅是克隆人的声音,AI还可以制造周围环境的声响,例如电话背景的键盘敲击声、儿童在旁边玩耍的声音、交通噪音、呼吸频率等。这些“背景音”原本是判断通话真伪的重要依据,但如今也可通过AI模拟,增强“真实感”。
诈骗者通过在语音中加入模拟环境音,使整个对话听起来“更生活化、更真实”,从而进一步降低用户警惕。