张凌寒:深度合成治理思路异于算法推荐,技术开发方也被规制

2022年可谓是人工智能创造内容(AIGC)的一年,前有AI绘画在全球各地引发讨论无数,后有AI聊天机器人ChatGPT一鸣惊人,而更多利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等信息的应用,也开始纷纷进入人们的生活。在这一背景下,国内外都纷纷就AIGC或深度合成技术进行相关立法。

那么,对于这一与人们生活关系逐渐密切的前沿技术,国内监管部门的基本治理思路是怎样的?相关的制度框架又该如何解读?对于AI换脸、AI绘画等具体应用可能带来的财产、隐私、个人主权的风险,我们又该如何应对和规避?

12月22日,由南都个人信息保护研究中心联合清华大学人工智能国际治理研究院、人工智能治理研究中心(清华大学)主办的“2022啄木鸟数据治理论坛”在北京举行。会上,中国政法大学数据法治研究院教授张凌寒分享了她的看法。

她提到,当前各国的技术开发者主要是以“用魔法打败魔法”的思路来化解深度合成技术带来的风险,主要分为三种具体方式:

  1. 训练源头的数据安全。比如利用技术使得某些图像无法被AI提取有效信息,也就从源头避免了图像被违规“喂”给AI的问题;

  2. 把技术关在笼子里。比如OpenAI、谷歌的部分工具仅仅为少数用户提供服务;

  3. 技术可以读取的看不见的水印。也就是利用技术手段生成人眼不可见,但系统可以识别的特殊水印。

当然,除去这些技术开发者自治手段,国家层面、监管部门也会采用法律、监管手段。比如由国家网信办、工信部、公安部在12月11日发布的《互联网信息服务深度合成管理规定》(下称《规定》),这部国内首个深度合成技术的单独规范就对深度合成服务提供者和使用者提出了诸多要求。

张凌寒认为,《规定》延续了国内一脉相承的网络信息应用安全的思路,但从算法治理的角度来看,还是与之前专门针对网络信息内容安全的规定(比如《互联网信息服务算法推荐管理规定》)存在差异。

在她看来,《规定》从信息内容服务层面深入到了技术开发应用层面,采用了一种“三位一体”的数据与技术规范。也就是综合服务提供者、技术开发者、服务使用者三方提出了规制。

对于深度合成技术的服务提供者和技术支持者,《规定》要求他们在提供人脸、人声等生物识别信息编辑功能时,应当提示使用者(用户)依法告知被编辑的个人并取得其单独同意。也就是在开发测试、训练算法阶段就要考虑到风险和危害。而对于服务提供者,《规定》要求他们在使用深度合成技术时,要对用户提示一些显著的标识。也就是将事后的追责转移到了技术的开发应用环节,实现了可问责可追溯。最后,还要对使用者输入数据和合成结果进行审核。

当然,张凌寒也表示,国内对深度合成算法的治理仍处于起步的初级阶段,因此还存在很多问题。

首先,对于深度合成技术引起的公民名誉权或人格权受损的情况,当前还尚未落地一个有效、具体的保护公民权利的监督机制;第二,深度合成算法在训练阶段的数据来源,仍存在是否合法的疑虑;第三,深度合成技术合成的信息内容一旦传播,其损害仍然难以弥补,这就对辟谣机制和澄清机制的建设提出了要求。

在最后,张凌寒表示,期待将来通过技术规范、行业规范,以及一些实时的监测工具,使得国内深度合成算法治理的相关规定能够确实落地。

采写:南都记者杨博雯

展开阅读全文

页面更新:2024-03-03

标签:算法   深度   信息内容   人工智能   提供者   开发者   使用者   技术开发   思路   国内   数据   技术   张凌

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top