「关注-解读」ChatGPT风险初露,法治如何回应?

2022年11月30日,美国人工智能研究实验室OpenAI推出一款聊天机器人程序——ChatGPT。作为人工智能技术驱动的自然语言处理工具,ChatGPT会通过连接大量包含真实世界对话的语料库来训练模型,从而获得语言理解和文本生成能力。因此,ChatGPT上知天文下知地理,还能根据聊天的上下文进行互动,做到与真正人类几乎无异的聊天交流。此外,ChatGPT还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。这无疑是AI技术发展领域一个引人注目的新成就。然而,随着ChatGPT的广泛应用,其捏造知名人物虚假信息、泄露用户聊天内容、回答问题不切实际等负面新闻也随之而来。那么,ChatGPT时代来临,给我们带来的究竟是机遇还是风险,我们又该如何妥善应对?

一、ChatGPT带来的道德与法律风险

(一)虚假信息频出

近日,乔治·华盛顿大学法学教授乔纳森·特利近日被ChatGPT列入“性骚扰”名单,声称他在一次去阿拉斯加的旅行中对学生“动手动脚”,并援引了一篇所谓《华盛顿邮报》的新闻报道作为信息来源。然而经事后查证,这则消息完全是子虚乌有。[1] 类似的事件此前在澳大利亚也曾发生。据报道,ChatGPT的AI 聊天机器人将Brian Hood 错误地定义为“已定罪的罪犯”,参与了澳大利亚储备银行 (RBA) 过去“非常真实的贿赂丑闻”。2011 年,RBA 子公司 Note Printing Australia 的官员因串谋贿赂外国政府官员而被判有罪。事实上,Brian Hood在这起案件中扮演的角色绝非ChatGPT声称的罪犯,而是揭露不正当行为的英雄。[2]

除了上述引发广泛关注的事件外,在日常生活中,即使我们搜索一些周知的问题,ChatGPT也可能会给出错误的答案。随着质疑和追问的深入,它甚至会随意更改答案,推翻先前的表述。与此同时,措辞能力的不断提高,使得ChatGPT的言论看起来十分可信,一不留神就会被它“带到沟里”。因此,AI机器人捕风捉影、伪造内容,抑或不加甄别地提供信息,不仅严重损害个人名誉、对未成年人的教育造成不良影响,还有可能会降低民众对政府的信任度、破坏新闻等可靠信息源,最终影响国家安全与社会稳定。

(二)个人隐私和商业机密泄露

今年3月,有海外网民在于ChatGPT聊天的过程中发现了“不属于他们自己的ChatGPT对话记录”,并将相关截图发布在Reddit和推特等社交媒体平台上。随后,ChatGPT的开发公司OpenAI创始人山姆·阿尔特曼在推特发文承认了这一点,声称该AI的一个故障让一些用户能够看到其他用户对话历史记录的标题,并表示“对此感到很难过”。虽然该故障已经修复,但依然引发民众对AI泄露个人隐私的担忧:是否还有更多我们尚未发觉的bug潜藏在其中?[3]

除个人隐私风险外,公司泄密危机同样值得关注。AI机器人很有可能将用户输入的敏感数据转化为输出的内容,造成数据泄漏。基于此,美国银行、花旗集团、德意志银行、高盛集团、富国银行、摩根大通和Verizon等机构已经禁止员工使用ChatGPT聊天机器人处理工作任务。同样,微软的工程师和亚马逊的律师都曾警告员工,不要与ChatGPT分享“任何亚马逊的机密信息,包括你正在编写的代码,因为他们可能会将其用于训练未来的模型。”

随着AI算法检索与抓取信息的能力不断增强,各类主体的隐私和机密都可以更容易地暴露在公共环境中。ChatGPT无法对是否属于隐私或机密内容以及内容真伪进行甄别,对于用户输入的信息与数据,也同样未公示其处理路径,是否全部删除、如何删除以及是否存储部分数据加以利用,公众都无从知晓。

(三)剽窃和学术不端行为滋生

ChatGPT走红后,AI是否可以作为著作权人、其创作是否可以成为“作品”等问题再次引发热议。国内外立法普遍认为,著作权人仅限于自然人和法人,不包含其他类型主体。原因主要在于,AI输出的内容是基于人预先设定好的程序、算法的结果,并非自主意识创作。因此,它在本质上依然是人类使用的“创作工具”。同样地,ChatGPT的技术原理是依靠从训练数据中学到的模式和关系,来生成风格和内容与训练数据中的文本相似的新文本。[4]

然而,我们不得不承认的是,ChatGPT经过一系列复杂的程序运作后所生成的内容,确实具备一定的独创性,在现有作品库中往往难以找到雷同文本。根据这个特征,许多人通过输入不同关键词或其他指令,生成各类具有原创性外观的文章,谎称是自己的创作成果,用于营利或其他目的,肆意违反学术道德。不仅如此,如果在科学研究中使用人工智能生成的内容,还可能存在算法偏见、虚假叙述等一系列伦理风险。

二、ChatGPT风险的法治应对

(一)明晰责任主体

ChatGPT是否应当为其提供虚假信息、侵犯他人名誉权、隐私权等行为承担责任,是我们首先应当明确的问题。只有确认其作为适格责任主体的身份,才能进一步追究责任,法律对AI技术对规制才能更加有效。AI是如何识别数据并进行判断进而作出某种决策的,这是决定人工智能能否对自己的行为承担法律责任的实质性理由。然而,它是否以及如何能够自主识别、自动判断、自主行动以及自主创作,目前依然是无法被理解的。

因此,我们的当务之急在于促进AI运行机制的进一步透明化、可解释化。2021年9月25日,我国国家新一代人工智能治理专业委员会发布的《新一代人工智能伦理规范》第12条规定,要在算法设计、实现、应用等环节,提升透明性、可解释性、可理解性。专业机构和人员不应当仅仅着眼于推动AI的不断智能化,同时应当注重对算法全过程、各环节的研究和解释工作,譬如输入内容的处理、输出内容的依据、信息抓取与改造的逻辑等方面。人工智能的行为和决策的空间越大,需要解释的空间就越大。如同在人类世界一样,只有做出明晰的解释,了解人工智能如何思考、反应,我们才能有章可循,精准分配责任。[5]

(二)有效运用法律规制

在人工智能领域,我国已经颁布了一系列法律法规加以规制,如《网络安全法》《数据安全法》《网络信息内容生态治理规定》等,《生成式人工智能服务管理办法》也在征求意见之中。这些规定在一定程度上明确了人工智能的基本道德要求和应用原则,能够有效约束算法技术滥用可能导致的安全风险。此外,上述专门领域立法还与《民法典》《个人信息保护法》等法律规定相结合,全方位保障用户的个人权益。因此,我国可以充分利用现有法律制度,加强对ChatGPT相关产业的规制,并根据产业发展状况,适时推出新的立法。

有了法律文本做依托后,对于法律责任的具体承担方式,有学者指出,应当视情况分析。如果用户故意输入指令让人工智能编造谣言,此时AI聊天机器人充当的是工具角色,应由用户承担法律责任。若用户没有主观故意,虚假信息内容由人工智能算法自行生成,可以推定人工智能对编造、传播谣言起到了实质性的帮助作用,因此相应的用户与AI运营公司承担连带责任。运营平台承担责任大小,应综合考虑是否尽到注意义务、侵权范围、损害程度以及平台避免损失扩大的能力等因素。[1]

(三)强化科技伦理审查

如果法律是维护网络安全兜底性的后置措施,那么科技伦理审查是AI研发过程中不可或缺的前置环节。从事人工智能等科技活动的单位,凡研究内容涉及科技伦理敏感领域的,均应设立科技伦理委员会。安全性是当下人工智能领域的短板,更应当成为未来的重要发展方向。

近期,科技部会同相关部门研究起草了《科技伦理审查办法(试行)》,正面向社会公开征求意见。《科技伦理审查办法(试行)》是覆盖各领域科技伦理审查的综合性、通用性规定。在总则部分规定了审查范围,并开宗明义地提出了提出了科学、独立、公正、透明的审查原则和要求。随后,对审查主体、审查程序、监督管理等方面进行了详细规范。其内容的制定充分遵循科技创新规律,在立足实际的同时广泛借鉴,并且坚持问题导向、有的放矢地提出措施。此外,它也能够与《科技进步法》《个人信息保护法》《数据安全法》等多项法规制度相衔接,防范科技创新风险,保护民众权益。[6]《科技伦理审查办法》的出台,无疑是对科技创新过程中暴露出的诸多问题的有力回应,使得企业的伦理审查工作有章可循,也让民众更放心地接纳科技进步带来的成果。

(四)监管企业研发活动

由于研发企业的趋利性特征,除内部审查外,加强外部监管也十分重要。首先,政府应当规制ChatGPT的应用范围与标准,规定禁用领域,以防止泄密或其他风险,并且制定一定的标准,依循其对各项性能指标进行评估,达标后方可投入市场使用。此外,政府牵头成立外部审查机构也非常必要,此类机构应包含各领域专家,依据现有法律法规对AI产品的技术内容和伦理内容进行全方位审核,以防范安全风险,保障民众权益。最后,政府应当对ChatGPT等AI技术的违规行为采取处罚措施,以警示研发企业:遵循公共道德伦理是提升技术的首要前提,技术的进步最终是为了增进全人类福祉。





参考资料

[1] 钟雨欣:《“令人不寒而栗”,ChatGPT编造法学教授性骚扰丑闻》,载微信公众号“ 21世纪经济报道”,2023年4月9日。

[2]Lauren:《AI生成错误信息不负法律责任?澳大利亚市长准备起诉OpenAI,称ChatGPT诽谤其行贿犯罪》,载微信公众号“ Tech商业”,2023年4月6日。

[3]严梓瑄、郭美婷:《意大利宣布禁用ChatGPT》,载微信公众号“ 21世纪经济报道”,2023年4月3日。

[4]万 勇:《ChatGPT引发著作权问题新思考》,载《法治日报》2023年2月15日。

[5]刘艳红:《人工智能的可解释性与AI的法律责任问题研究》,载《法制与社会发展》2022年第1期。

[6]科学技术部科技监督与诚信建设司:《科技伦理审查办法(试行)(征求意见稿)》,载科技部官网2023年4月4日,https://www.most.gov.cn/wsdc/202304/t20230404_185388.html。


文 |聂思琪

编辑 | 聂思琪

转载请注明来源,并保持内容完整

--热点速递与解读--
2023-04-13 盗卖数字藏品该定何罪?
2023-04-11 《生成式人工智能服务管理办法(征求意见稿)》发布
2023-04-06 人民币国际化趋势下的跨境结算新发展
2023-04-05 数字时代的职场防“控”
2023-04-03 简评《衍生品交易监督管理办法(征求意见稿)》
2023-04-01 金融GPT问世,彭博推出BloombergGPT
2023-03-30 员工持股平台巨额补税风波背后
2023-03-22 瑞信危机的前因后果
2023-03-19 由德勤被罚引发的审计监管之思
2023-03-16 《新时代的中国网络法治建设》白皮书发布
2023-03-14 《中华人民共和国立法法》修正
2023-03-12 硅谷银行倒闭始末之察析
2023-03-10 《国务院机构改革方案》获批准
展开阅读全文

页面更新:2024-05-11

标签:风险   人工智能   法治   伦理   算法   领域   内容   数据   用户   科技   信息

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top