案例二:AI换声“冒充子女”诈骗

Collaborate on forex dataset strategies for optimal performance.
Post Reply
Jahangir307
Posts: 201
Joined: Thu May 22, 2025 5:54 am

案例二:AI换声“冒充子女”诈骗

Post by Jahangir307 »

南京的陈女士某天接到“儿子”的电话,对方语气急促、语音略带回音,称自己出车祸急需10万元手术费。因为声音高度相似、又能叫出小名“阿楠”,她当即转账。当晚与儿子视频后才意识被骗。调查后发现,这是一起基于深度伪声技术的AI换声诈骗。

技术要点拆解:

语音合成模型:采集目标社交媒体上的视频/语音,通过开源模型如“SV2TTS”快速生成伪声

诱导通话环境:制造嘈杂背景掩盖细节漏洞

事先脚本策划:诈骗分子不再“瞎说”,而是AI训练出“高压情绪诱导话术”剧本

2.3 案例三:冒充公安的跨国诈骗“剧本杀”
诈骗分子借助VoIP技术,从“+86”开头的号码拨打电话,显示为“北京 电话号码数据 公安局”,甚至能同步公安局Logo图标和定位地图。受害人接通后,会被引导进入一个“公安协查系统”的视频通话页面。页面中,诈骗分子穿着警服坐在办公室,对方通过人脸识别摄像头确认身份,语音则通过AI合成器进行实时伪装。

最终,受害者在长达1小时的高压话术轰炸中,被逼配合转账“安全账户”。

通过开源的SIP服务器和VoIP中继服务,诈骗分子可将任意号码作为来电显示。这使得“银行客服电话”“公安来电”“学校老师”等身份伪装毫无门槛。

技术手段:

使用如Asterisk、FreePBX等开源VoIP平台;

在国际网关上设置Caller ID Override;

利用“境外呼入+本地显示”提升可信度。
Post Reply