• 视频“变脸”的相似度达到80%!如何防范“人工智能变脸诈骗”?

  • 2023-11-22
当前位置:首页 > 新闻资讯

  最近,变脸视频网站通过人工智能改变了脸,视频似度《亮剑》中的相达主角用英语飙升了台词 ,用户也可以通过小程序将自己变成电影中的何防角色 。新技术带来了快乐,范人但也带来了一种叫做“人工智能面部欺诈”的工智新欺诈 。不久前,脸诈国家金融监督管理局北京市监管局发布了风险提示  ,变脸以防止“人工智能变脸”等新的视频似度欺诈手段 。如何防止这种欺诈?一起关注-。相达

  青岛一名大学生与他在网上认识的何防“女朋友”视频聊天。对方说需要资金周转。范人男孩赚钱后,工智发现自己被骗了。脸诈

  深圳市安络科技市场营销部经理 梁雅婷 :通过证据收集 ,变脸我们发现不是他的女朋友和他聊天。另一方通过虚拟摄像头与他聊天,然后通过人工智能面部交换功能与他聊天 。

  那么人工智能如何在视频通话中换脸呢?记者在一家为公安机关提供技术支持的科技公司看到的演示中 ,相似度可达80%。

  深圳市安络科技产品部经理 刘元阳:刚才我们拍了一张照片 ,然后上传到电脑上。我们只需要打开软件来选择化身 。我们已经在左边看到了我们的照片,在右边是事先拍摄的视频 。工程师已经设置了所有的参数。我们只需点击执行并输入要保存的文件名。窗口弹出后,更换视频开始生成 。

  我们在现场看到 ,一台高配置的电脑只需要一两分钟就能合成一个10秒的换脸视频。随着技术的发展 ,视频聊天的实时变脸并不难 。

  深圳市安络科技产品部经理 刘远洋:照片上传后,一般会有30秒左右的时间来识别照片的特征,然后进行建模 。建模完成后 ,可以实时转换。无论是你的头像还是朋友圈的小照片,只要是照片 ,都可以直接上传识别和建模特征。

  AI生成的技术仍在不断更新迭代 ,如性别交换、声音交换等。因为算法是开源的 ,也就是说 ,一个普通的工程师可以制作一个变脸软件,这给我们带来了很大的困难来控制源头 。

  人工智能变脸用于诈骗 还有新的反诈手段 。

  不断迭代的人工智能技术使面部变化视频“难以区分真假”,那么我们应该如何防止这种新的欺诈呢?

  首先,目前视频换脸的技术并不是无懈可击的 。视频交流中的一些动作可以发现缺陷 。

  深圳市安络科技副总裁 肖建伟:在这个操作中 ,如果我用另外三个图像来干扰它 ,比如让他用手捂住脸,动一动,就会干扰图像的合成 。从这里的演示中,当我把手放在上面时,我会清楚地看到我们同事的眼睛在屏幕上颤抖 ,鼻子在颤抖 ,我的手消失了,我的嘴消失了 。

  除了让对方在脸上做一些动作来判断外 ,专家们还表示,人工智能合成软件的升级可能会很快 。如果避免了动作捕捉 ,我们需要通过一些更专业的软件来区分它。

  深圳市安络科技副总裁 肖坚炜:我们可以通过软件来识别 ,比如人的整体轮廓 ,眼睛、鼻子 、嘴巴的替代品。它的像素大小不同,颜色的色域也不同 。就像我们的衣服一样 ,没有办法做到完美。我们的眼睛肉眼看不到这些,但是软件算法是可以检测到的。

  目前 ,这种识别软件对设备及周边地区的要求也比较高,使用起来并不流行。然而 ,在这个阶段,使用专业的识别软件来识别视频传播网站或社交软件 ,然后贴上“人工智能制作”的标签是一种方法 。

  为了防止“人工智能变脸欺诈” ,我们还应加强对人脸 、声纹 、步态  、指纹等生物特征数据的安全保护 。

  中国科技大学公共事务学院,网络空间安全学院教授 左晓栋 :在使用互联网服务或社会生活中 ,当我们需要输入人脸等生物特征数据时  ,我们应该看看对方收集的生物特征数据是否符合数据安全法和个人信息保护法的要求 ,是否合法  、合法 、必要。

  此外 ,国家还通过多种手段防止“人工智能面部欺诈”。近两年来,有关部门发布了《互联网信息服务深度合成管理条例》、《生成人工智能服务管理暂行办法》等相关政策文件。先后开展了“互联网深度合成算法备案”“大语言模型算法备案”等相关工作。严厉打击利用人工智能换脸 、变声等手段实施的违法犯罪行为 。

  中国科技大学公共事务学院 网络空间安全学院教授 左晓东  :目前,人工智能技术的滥用似乎得到了初步遏制 。特别是这些从事违法犯罪的势头,整体治理效果开始显现,也有效地促进了人工智能技术的标准化发展。