守护个人信息安全,防范“AI换脸”成圈套 - 特评

文 | 深圳特区报评论员 尹传刚


上传一张照片,就可以把歌手换成自己;一键制作,就可以变成视频中的经典角色……一段时间以来,“AI(人工智能)换脸”技术,给社会公众带来了新鲜体验。


AI换脸等深度合成技术的迅速发展,是一把“双刃剑”。人们一边惊叹于技术的先进扩充了人类的想象,一边又担心它模糊现实与虚拟的边界,让人在“眼见为实”的幻觉中落入圈套。


相比普通的网络诈骗,AI诈骗的欺骗性更强。有的地方企业注册需要人脸识别,易被人利用“AI换脸”技术冒名注册。不法分子通过虚拟摄像头,用“AI换脸”功能跟受害者聊天,相似度可达80%,面对一个面容、声音与熟人几乎一致的“假面孔”,诈骗陷阱将变得更加难以察觉。而“短短10分钟,被骗430万元”等新闻提醒我们,“AI换脸”的滥用,可能严重侵犯个人权益。


说到底,AI换脸诈骗,是隐私信息泄露与诈骗陷阱的结合。近年来,非法收集乃至倒卖人脸数据的事情时有发生。AI技术之所以在诈骗事件中屡屡得逞,正是因为盗取了个人的隐私信息。


因此,用法治手段维护好个人隐私至关重要。去年12月,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》,明确了深度合成服务提供者和技术支持者提供人脸、人声等生物识别信息编辑功能的,“应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意”。这意味着,AI软件必须经过“主人”授权才能生成人脸人声。


在人脸、人声等信息的应用场景越来越广阔的当下,建议持续从制度层面发力,加大对人脸等信息的保护力度。


技术本无善恶,但是管控不好就会激发出人性幽暗的那部分。防范包括“AI换脸”在内的人工智能技术被滥用,只有“道高一丈”,完善法律制度与强化监管并举,加大反诈宣传与提升技术反制能力同行,才能更好“校准”技术运用方向,让技术进步真正为人类谋福祉。

展开阅读全文

页面更新:2024-03-19

标签:公安部   人工智能   人声   圈套   陷阱   深度   隐私   人类   编辑   技术   信息

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top