在AR眼镜中,骗子可以伪装成路边的虚拟广告或“真人导航员”,诱导你扫码或支付。
在虚拟会议中,冒充上级领导的虚拟分身可能会指示你转账或提供敏感数据。
假“AI助手”可以在你不经意间,潜入你的AR界面,并用“背景语音”激活手机支付指令或智能合约。
为什么这些骗局更加危险?
情感真实感:比起冷冰冰的诈骗短信,AI语音+克隆+沉浸式场景让受害者更易相信。
反应速度快:AI可实时对话、自动应变,规避传统反诈系统的识别。
攻击面更广:从电话、短信扩展到视频、AR、VR、物联网设备等,形成“多终端、多入口”的攻击链条。
个性化定制诈骗:通过大数据分析,骗子能为每位受害者“量身打造”话术剧本。
1. 增强数字素养
熟悉AI生成内容的常见特征,如语气不自然、过度逼真或缺乏语义深度。
不轻信“熟人”语音请求,尤其涉及金钱时应二次验证。
2. 技术层防护
启用语音验证码、设备指纹验证等多重身份机制。
使用AI反诈检测工具,例如银行推出的反语 电话号码数据 音诈骗提醒系统。
3. 社会与政策推动
推动政府出台语音克隆内容标识机制,强制标注AI语音。
建立诈骗AI黑名单系统,将已识别的恶意模型和话术库纳入公安数据库。
加强对AI技术滥用的立法监管,如限制开源语音克隆模型的用途。