中工娱乐

有图必有真相?谨防“变脸”诈骗

来源:今晚报
2022-04-16 11:02:40

  “今晚谈” 

  原标题:有图必有真相?谨防“变脸”诈骗

  一段视频、一段语音未必是真人拍摄或者录制,在你不知道的手机App后台、支付界面、门禁闸机,或许有人正在盗刷你的脸……据《今晚报》报道,随着深度合成技术迅猛发展、落地场景激增,一些不法分子趁机牟利。去年以来,多地发生“变脸”诈骗案,音频、视频等合成技术滥用,对人脸、声纹、指纹等个人敏感信息保护形成挑战。

  以前我们常说“有图有真相”,然而随着智能科技的发展进步,如今即便有视频、有声音,都不一定是“真相”。通过深度合成技术,用静态照片、音频可制作为人脸动态视频,可完成丰富表情,模拟效果极为逼真,已经能够骗过支付识别系统,人工审核亦难辨真假。更值得关注的是,相关技术应用的门槛也在不断降低,通过一些短视频平台提供的道具,就能轻松实现“改头换面”。

  近年来频频发生的“变脸”诈骗案,凸显出深度合成技术正在遭到非法滥用,已成为犯罪分子作恶的工具,不仅损害人民群众的切身利益,甚至危害公共安全和社会稳定。

  科技的发展本质是服务百姓的工作生活,不能让其沦为犯罪行为的“帮凶”。面对诈骗手段的“智能化”,有关方面必须以“魔高一尺,道高一丈”的决心,不断提升发现、打击违法活动的能力,以更强大的科技力量、更快速高效的反应能力,对抗、震慑、打击不法分子,切实守护好百姓财产安全。

  值得一提的是,今年年初,《互联网信息服务深度合成管理规定(征求意见稿)》公开面向社会征求意见,其中就对人脸生成、人脸替换等深度合成技术的应用场景、应用规范、技术提供者的主体责任及违规惩戒办法等内容做出了明确规范。我们期待该规定能及早出台、落地,为深度合成技术应用的规范和管理,提供有力的法治保障。(木棉)

责任编辑:宋新雨

媒体矩阵


  • 中工网客户端

  • 中工网微信
    公众号

  • 中工网微博
    公众号

  • 中工网抖音号

中工网客户端

亿万职工的网上家园

马上体验
关于我们 | 版权声明 | 违法和不良信息举报电话:010-84151598 | 网络敲诈和有偿删帖举报电话:010-84151598
Copyright © 2008-2022 by www.workercn.cn. all rights reserved
扫码关注

中工网微信


中工网微博


中工网抖音


工人日报
客户端
×