币灵灵财经 2024-11-22 16:00 454
某天,你的一位熟人发来借钱的请求,随后对方打来了视频。视频接通后你确认长相和声音就是熟人“本人”,你没有怀疑把钱转了过去。没过多久,你发现自己被骗了,刚才视频里那位“熟人”并不是真的他。
这可不是鬼故事,而是已经发生在多位受害者身上的真实案例。
只需一张照片、10分钟声音素材
近日,一则10分钟被AI骗走430万元的新闻刷屏。据警方通报,受害人郭先生遇到的就是上述情形,骗子通过智能AI换脸技术,佯装成好友对他实施了诈骗。
尤其值得警醒的是,据公开报道显示,利用AI 技术实施诈骗,此前已有多起相似案例。而这些案件背后,均涉及了AI换脸以及声音合成技术。
目前,AI换脸随处可见,在短视频平台,不少用户都体验过换脸带来的新鲜感。这项技术也越来越成熟,仅需提供一张照片,就可以让你变成视频中人,或直接生成会眨眼、张嘴的视频。
七七(化名)专门在网上接单用AI帮别人生成视频,“只需提供一张背景干净的正面照,我就能生成视频,不仅眼睛、嘴巴都会动,还能时不时动动头,非常自然。另外如果你提供文字,我还可以让视频中的人物口型对上,配合度很高,可以连续播放1分钟。”七七说,他目前做这个工作已经非常熟练,“一个晚上就能完工”。
除了快速AI换脸,用AI手段合成或克隆声音也越来越常见。
一位商家向中新经纬介绍,只需要提供某人一段10分钟至30分钟的声音素材,要求没有杂音,就能用2天左右时间生成一个专属模型,后续输入任何文字,发出的都是这个人的声音。
“这个办法属于一劳永逸,而且这个模型不仅能读文也能唱歌。一般来说,提供的素材时间越长,最终相似度越高。”上述商家介绍。
成本低至数十元
据中新经纬了解,目前制作一套“露脸且说话”的视频成本不高。七七表示,用照片生成一段1分钟时长的视频仅需30元左右,如果视频时间比较短,且画面质量要求不高,这个价格可以再降,几块钱一段都可以。上述商家也表示,生成一个专属模型也只需要几十元。
这意味着,如果有人蓄意生成你的长相搭配你的声音的视频,花费也仅需数十元。
不过,对于前述警方通报的案例,网友们也有疑问。比如不法分子是如何获得的郭先生好友的照片及声音素材?本应是即时的视频聊天,郭先生的手机里为何播放的是合成好的视频?
电信分析师付亮对中新经纬表示,假冒某人声音、图像实施诈骗在十多年前就已经出现,严格说目前AI诈骗并不是新类型。“通报中没有详细说明不法分子是如何获取郭先生好友个人信息的,但有一点可以肯定,这位好友的社交媒体账号被盗了。不法分子可能是从社交媒体里直接获取了个人信息,也可能之前以骚扰电话的方式与郭先生的好友联系过,获取了其声音信息。”付亮分析。
而至于为什么接通视频通话,播放的却是已经合成好的视频,付亮分析认为可能是通过插件实现的。
据中新经纬了解,目前虚拟摄像头就可以做到这一点。利用一个程序,可以在视频通话中让对方看到任何你想播放的视频,其中也包括通过AI换脸和声音克隆合成的视频。
应对“高端”诈骗往往还得靠最朴素的手段
蓄意制作别人人脸、声音的视频是否违法?
北京嘉维律师事务所律师赵占领对中新经纬表示,目前未经他人许可使用其肖像,即使不以营利为目的,也侵犯肖像权。但对于声音来说,目前则不受著作权法保护。“但有些具有显著性的声音申请注册了商标,这种情况下是声音是受法律保护的。”赵占领说,如果将合成的视频用于诈骗,且达到一定的数额标准,那就涉嫌刑事犯罪。
目前,针对AI诈骗,包括北京反诈在内的各类平台已向公众发出提醒,甚至称“诈骗成功率接近100%”,并给出了一些提示。值得注意的是,由于对新技术辨别能力不强,这种新型AI诈骗给中老年人更是带来挑战。
在日常生活中,公众除了要注意个人信息保护,不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频外,还要增强意识,尤其是涉及财务往来,务必通过电话、见面等最朴素的途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息。
此外,也要进一步提高和掌握辨别AI合成视频的能力、技巧,目前AI合成的视频虽已比较逼真,但在细节处如色彩分布、肌肤纹理、表情自然连贯性仍有较为明显的瑕疵。