“怎么可能?我儿子的声音我还能听错?”一位老人不相信地说。
李飞播放了一段经过处理的案例录音:“请大家听一下这个。”
音箱里传出一个年轻男子的声音:“妈,我出车祸了,急需五万块钱交住院押金,千万别告诉我爸...”
台下一位老阿姨突然站起来:“这、这和我上个月接到的电话简直一模一样!当时我还真以为是儿子出事了!”
李飞点头道:“这就是AI语音模仿技术。骗子通过获取您子女的语音样本,能够模仿出非常相似的声音。但是,”他加重语气,“这种技术也有破绽。”
他继续讲解:“第一,这类诈骗通常发生在您子女确实不方便接电话的时间;第二,对方会强调事情紧急,要求立即转账;第三,通常会要求您保密,不让告诉其他人。”
周强补充道:“最重要的是,无论电话里的声音多么像,一定要通过您原来存的号码打回去确认,或者联系子女的同事、朋友核实。真正有急事,不会因为您多确认一遍就耽误了。”
老人们纷纷点头,有人拿出小本子认真记录。
“那我怎么知道手机那头是不是真是我儿子?”一位老人问。
“问一个只有您和儿子知道的问题,比如他小时候的趣事,或者家庭内部的昵称。”秦风建议道,“AI能模仿声音,但不知道这些私人信息。”
现场民警还发放了印有防范提示和紧急联系电话的小卡片,方便老人随身携带。
回到局里,特诈小组正在撰写结案报告。技术滥用风险分析部分由王媛主要负责。
“AI语音合成技术原本用于语音助手、有声读物、配音等行业,但现在被犯罪分子利用,成为了诈骗工具。”
王媛在报告中写道,“这类犯罪的危害性在于打破了传统的身份验证方式,受害人基于对熟悉声音的信任而放松警惕。”
报告提出了多项建议:加强对语音合成技术的监管,实行开发备案制;
应用程序商店加强对相关应用的审核;电信运营商监测异常通话模式;
金融机构对大额转账加强身份验证等。
小组内部也就此案展开了热烈讨论。