骗子盯上AI技术:换脸、骚扰电话提取人声,公安部提醒防范

记者/张唯

1月31日,公安部网安局发文提醒公众,注意防范合成声音和AI换脸等人工智能新型手段诈骗,建议通过多重验证、保护信息和相互提示的方式避免上当。

所谓合成声音,是指骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。

据公安部网安局公布的案例,2020年12月,某公司财务小王接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,小王信以为真,在1小时内转款完成,后发现被骗。

澎湃新闻梳理发现,类似的案件也发生在国外。2019年9月,犯罪分子使用语音克隆软件对英国一家能源公司高管的声音进行模仿。该公司的执行董事在接听诈骗电话后,将24万美元汇入了一个匈牙利账户。目前,该罪犯仍未被抓获。

2020年2月20日 ,互联网安全专家公司Symantec报告了三起音频诈骗案例,犯罪分子通过电话会议、YouTube、社交媒体以及TED演讲获得了公司高管的音频,然后用机器学习技术复制高管的声音,致电财务部门的高级成员要求紧急汇款。

比声音合成更高级的骗术是AI换脸。

近年来,以“深度伪造”技术(Deepfake)为代表的AI换脸技术日益成熟。通过“深度伪造”技术,可以将图片或视频中A的脸换到B的头上。其名字由深度机器学习(deep machine learning)和假照片(fake photo)组合而成。

2019年8月,一个名为“ZAO”的AI换脸APP一度爆红,后因隐私、伦理等问题备受诟病。在“ZAO”APP中,用户只需上传一张自己的照片,就能将自己的脸替换到某位明星的头上,而且脸融合效果非常棒。这款应用强大的“换脸术”就是基于“深度伪造”技术。

目前,“深度伪造”技术正在被用于诈骗。骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。

近日,南京警方接到小李报警称,被诈骗3000元。小李介绍,大学同学通过QQ跟她借钱,对方打过来一段只有四五秒的视频电话,小李看到确实是本人,便放心转账。她在第二次转账时发现异常,再次拨通对方电话才得知同学的帐号被盗。警方判断,那段视频很有可能被人换了脸。目前,警方已立案。

《科技日报》此前援引安全分析公司Sensity的调查结果称,自2018年12月以来,“深度伪造”技术在线造假视频的数量大约每6个月翻一番,而截至2020年6月,造假视频已经多达49081个,比2019年7月增长了330%。

公安部网安局提醒,面对AI换脸诈骗,“看眼睛”是识别假脸的方法之一。多数假脸都是使用睁眼照片合成,假脸极少甚至不会眨眼,缺少眨眼是判断一个视频真假的好方法。

辨识“深度伪造”换脸视频的方法还包括语音和嘴唇运动的同步状况、情绪不符合、模糊的痕迹、画面停顿或变色。然而,专家指出,通过不断的技术迭代,迟早会有人可以通过“深度伪造”技术制造出人类用肉眼无法识别的“假脸”。

面对日益强大的人工智能新型诈骗手段,公众可以采取哪些防范方法?

公安部网安局提醒以下三点:

多重验证,确认身份。目前,AI换脸难以肉眼区分。因此,在涉及钱款时,尽量通过电话询问具体信息,确认对方是否为本人。

保护信息,避免诱惑。加强个人信息保护意识,对于不明平台发来的广告、中奖、交友等链接提高警惕,不随意填写个人信息,以免被骗子“精准围猎”。

相互提示,共同预防。做好家中老人的宣传防范工作。提醒老年人在接到电话、短信时,要放下电话,再次拨打家人电话确认,不要贸然转账。

发表评论