熊进光 贾珺|元宇宙背景下ChatGPT蕴含的法律风险及规制路径

ChatGPT与元宇宙具有密切的联系,前者是布局元宇宙的主要抓手,并且两者具有许多共通性。在资本市场热捧概念的同时,我们应评估ChatGPT所蕴含的法律风险。虽然算法歧视、算法黑箱并非ChatGPT特有,但却可能会因为“智能化”而导致虚假信息传播、侵害知识产权、侵害个人信息权、泄漏商业秘密及数字网络安全等问题。应完善ChatGPT人工智能立法、构建相关侵权责任体系、建立相关责任保险制度,并从数据收集规则、数据来源、生成内容、操作标准、风险评估、参与主体的责任意识及监管力度等方面完善规制。结合元宇宙时代背景,采用民法典立法模式进行修改,用分步走的立法路径对民法典体系结构进行整合,过渡性地解决ChatGPT人工智能法律问题,从而更好地造福社会。

一、ChatGPT发展的时代背景

以元宇宙为代表的数字经济正以惊人的速度改变着世界的经济格局。ChatGPT与元宇宙具有许多共通性,都需强大的数据、算力和算法支持运行,ChatGPT有利于促进人与人、人与机器、机器与机器在元宇宙世界中更好地交互。将数字技术与概念更加精准化地应用于具体跨界虚拟场景中,势必会推动二者的共生共荣。从理论上说,已经实现了线上化服务入口的行业,都可以进入到元宇宙中。而依托人工智能技术的高速发展,ChatGPT的核心技术是通过构建大型语言模型,并接收大量的文本数据训练和算法,最终将其应用于现实的对话交流场景中,这本身就是人工智能技术的跨越发展,其将会让更加智能的机器人硬件设备加速应用于现实生产和生活场景中,从而可以加速元宇宙的应用场景改变人们的物质和精神生活世界。以ChatGPT为代表的生成式人工智能的高速发展,为元宇宙世界的构建提供了高效的内容生产工具。元宇宙的核心技术体系从BIGANT演变到ABIGANT,核心技术也在现有的区块链、虚拟交互、人工智能和物联网技术的基础上增加了人工情感技术。ChatGPT是元宇宙的一个关键要素,在虚拟场景和虚拟人制作领域大有可为。其重塑了人类寻求的内在超越性空间的交流渴望和数字多维的幻想,寄希望在元宇宙中搭建数字共同体。元宇宙尝试在三维虚拟世界和现实世界中构建沉浸式的虚拟数字空间,让人们可以拥有属于自己的数字身份。由于元宇宙主要探讨的是去中心化的三维虚拟世界,而只有ChatGPT能加速数字身份的构建以及与现实世界的人生取得关联。人工智能必然是未来科技的发展方向,ChatGPT只是其应用场景之一,元宇宙作为专业化平台,主要目标就是打造新型社会经济空间,二者在技术层面和市场需求方面具有许多共性,亦存在多个可视可行的应用场景,这是形成相关应用以及产业并造福人类社会的重要前提。元宇宙、区块链、Web3.0将介入各个学科,以AR、VR、MR等技术为基础,以一些集成性的应用为窗口,将人类的数字生活引入到一个全新的状态。虚拟现实(VR)旨在通过视觉、触觉和听觉输出为用户创建沉浸式、交互式和富有想象力的模拟,计算机系统提供仿真逼真的场景方便用户体验虚拟世界。虚拟世界是一个在线环境,成千上万的人可以在其中通过他们的在线角色持续地互动交流。换句话说,虚拟世界是一个独立和持久的空间,在这个空间中,由图形或文本代表的用户可以实时交互。按照量子力学假设,有人推测可能出现多个平行元宇宙,我们可以生活在其中一个或多个组合的元宇宙世界。元宇宙早已超出游戏环境的相关性,可应用于商业、教育、专业、社交等。随着虚拟现实技术的持续发展,虚拟世界的发展为新一波的企业提供了基于他们在产品设计、虚拟旅游、空间、环境美学、社会交流等领域的创造性技能和知识进行创新的机会。

二、ChatGPT的崛起及应用现状

ChatGPT指的是生成式人工智能,也就是人类让人工智能协助处理未来想要完成的任务。其之所以被认为是人工智能语言处理领域的重要技术突破,是由于其趋于“类人化”的说话方式,完全超越了上一代人工智能。2022年11月底美国一家名为OpenAI的人工智能研究公司推出了ChatGPT,因其广泛的使用价值,在两个月的时间内就新增了上亿的用户。其可以实现与用户之间的智能聊天对话,系倾向于任务型的多轮对话和问答系统,系GPT-3.5架构的主力模型,可以通过大量的数据存储和高效设计架构来理解和解读用户的提问,并以类人的自然语言方式形成具有较高复杂度和逻辑紧凑的文本。2023年3月OpenAI又发布了多模态预训练大模型GPT-4,实现了强大的识图能力、文字输入限制提升至2.5万字、回答准确性显著提高、能够生成歌词、创意文本并实现风格变化等方面的飞跃式提升。ChatGPT的风靡标志着AI时代的再次复兴,也促使人工智能的语言模型更趋向于“类人化”。ChatGPT“类人化”的说话方式是基于OpenAI公司开发的一个GPT-3.5架构的大型语言模型,该模型参数规模据推测达十亿级别,通过强化学习训练人工智能聊天机器人的应用程序,并在训练过程中引入人类反馈机制技术,使得ChatGPT在回答问题的准确率、流利度、道德表现上具有跨越性的突破。其还具有Transformer架构的强大算力的语言模型及深度学习特质,拥有出色的语言理解和文本对话的自主生成能力。ChatGPT有利于解决人工智能自身存在的“人工智能完备”或“人工智能困难”等问题,使得现有人工智能达到强人工智能状态。ChatGPT作为接近强人工智能的征象体质,整合了智能体架构、认知架构或包容式架构,并在数据库或语料库的基础上应用新的智能化文本生成功能辅助人类学习的工具,是人类联系和交流的携带工具。其所代表的通用人工智能技术的进化加速了技术升级以及科技伦理自身的不断完善。ChatGPT在交互和创作方面也展现了出色的能力,标志着人工智能由决策型向生成型转变的历史性跨越。ChatGPT基于强大的自然语言生成式模型,具有灵活性和人性化等特质。其中灵活性特质是指其拥有各种话术的灵活性,能够提供更快速、更高效、更人性化的语言文本服务;人性化特质是指它能像人类一样说话,完善了上一代智能机器人语言系统表述中出现的表达机械化等缺陷,并在一定程度上具有揣测人类的意图的能力和准确理解对话中上下文的语言环境。但ChatGPT目前难以进行高级逻辑的处理,无法提供综合判断、修改调整等。且用于ChatGPT语言模型训练的数据仅为2021年底前的数据,导致在后续更新的数据和事件存在一定的滞后性,使得在内容的准确性和知识的专业性上亦存在一定缺陷。当前,ChatGPT在需要海量的人机交互的场景中具有广泛的应用场景,在搜索、金融、教育、医疗、商品营销、娱乐等众多领域对人类社会传统行业产生了深远影响。其主要应用于:第一,搜索引擎;第二,银行、律所等各类中介机构以及商场、医院、政府政务服务平台中的服务系统、导诊导航、政务咨询系统等;第三,智能汽车、智能家居等;第四,公文写作、公关写作以及新闻写作等;第五,小说、剧作、漫画、动画短片和动画脚本创作;第六,文本生产、数据分析、代码编写和图像生成等。同时,ChatGPT关联产业十分丰富,其上游产业主要包括芯片等硬件技术研发与生产、大型模式软件技术研发与生产、网络及人工数据供应方、各类算法算力机构、元宇宙平台、内容创作者、底层技术辅助工具、辅助功能的平台或生态等;中游产业包含文字、图像、音频、视频及其复合形式的生产者,数字内容设计、数字内容创作工具、周边数字类产品及与ChatGPT产品直接相关的营销、服务及运营等;下游产业主要有包括需求者与使用者、各类内容创造及传播平台以及内容服务机构、关联消费品厂家、第三方内容服务机构等。

三、风靡全球的ChatGPT所蕴含的法律风险

在风险社会视野下,智能科技会带来多种风险,而风险的丛生、风险的叠加和风险度高本身就是数字社会的独有特征。科学是风险的解决方案,也是风险的媒介。处于风险社会的人类面对风险的威胁无法回避,尤其当这种威胁将指向未来,即人类当下的行为可能直接威胁不远的未来。根据风险社会理论,智能革命的到来,人工智能所带来的侵权风险将完全暴露在我们面前,这必然会颠覆当前的法律规则、公共管理体制甚至是社会秩序。法律相较于社会的发展往往具有一定的滞后性,难以对未来发生的和正在发生的事物进行有效规制。“科林格里奇困境”与“法律的滞后性”之间的张力,显现的就是对ChatGPT这一类人工智能进行法律规制的困境。人工智能对法律的挑战包括工具性挑战和根本性挑战,其中根本性挑战必须通过修正或变更现有法律体系或理论实践才能有效应对。ChatGPT或者类似的AI聊天机器人不久的将来也会在国内被应用,所带来的相应挑战不容忽视。其中所蕴含的法律风险主要有虚假信息传播、侵害知识产权、侵害个人信息及商业秘密、违法经营、不正当竞争、网络数据安全及对未成年人保护的潜在风险。具体如下:

其一,虚假信息传播风险。人工智能生成的信息并不总是准确的,ChatGPT已出现大量“一本正经地胡说八道”的情况,需要一定的专业知识才能辨别真伪。ChatGPT人工智能生成内容开发者都难以完全控制机器学习的结果,以及准确实现对生成内容的事先控制。此外,ChatGPT工具的出现让虚假信息的制造者只需提供虚假信息的主题或相关信息,再让ChatGPT自动生成相应的虚假信息内容。同时,虚假信息制造者可直接通过语言模型模仿他人的写作习惯,直接冒充他人制造和传播谣言。这将大幅降低制造虚假信息的门槛,也会导致更多的网络虚假信息的出现及其高速传播。ChatGPT也有可能成为制造极端言论、煽动仇恨情绪的机器,由此破坏整个社会的公平与正义。美国新闻可信度评估与研究机构NewsGuard对ChatGPT进行了测试,研究人员对ChatGPT提出充斥阴谋论和误导性叙述的问题,发现它能在几秒钟内改编信息,产生大量令人信服的具有误导性的内容。而ChatGPT已被广泛应用到搜索引擎、客诉服务系统等领域,其回复的信息内容如涉及虚假信息,因其自身出色的语言理解和文本对话的自主生成能力,很可能拼凑出一些看似准确无误但实则具有误导性的答案。ChatGPT一旦被不法分子利用,使其提供涉欺诈、诽谤、诈骗、淫秽、儿童色情、赌博、钓鱼网站等内容,让ChatGPT沦为互联网上制造和传播网络谣言的武器,将损害公民人身和财产安全,导致极为严重的法律风险,对社会产生不利影响。实际上,上述法律风险已出现过,2022年11月上线的Meta服务科研领域的语言模型Galactica人工智能,由于其生成的答案涉及真假答案混杂的问题,在测试的第三天就涉及用户投诉及其他棘手问题而被迫停止使用。

其二,侵害知识产权风险。首先,ChatGPT这样的预训练语言模型,主要是通过挖掘人类日常交流的文本并进行统计分析。其中涉及的数据大部分来源于书籍、网站等媒介,但上述数据往往未获得合法授权,且这种训练过程及训练数据也并不对外界公开,上一代GPT-3.5语言模型就已经需要挖掘千亿级参数加以支撑。在没有经过相关权利主体的授权下,直接获取信息内容并复制到数据库中,再进行修改、拼凑则可能会侵害他人的知识产权。对受著作权法保护的作品进行使用时,必须在获得权利人许可,支付相应的许可使用费用后方属于合法使用,而在现行著作权法下ChatGPT对作品的使用并不能援引法定许可或合理使用条款作为其著作权侵权的例外条款。因此,ChatGPT未经许可使用作品的行为将会侵犯被使用作品的复制、改编、信息网络传播权等权利。其次,ChatGPT不会体现部分数据的正确来源,具有知识产权的资料与数据在ChatGPT向用户提供回复的过程中,极其容易造成侵害他人知识产权的纠纷,尤其当引用的素材本身就存在侵害他人知识产权的情形时,则进一步增加了ChatGPT的侵权风险。例如,ChatGPT在训练的过程中可能会用到受著作权保护的数据,可能导致该模型在向用户提供回复时会借鉴他人的作品,通过算法设计和程序运行,综合性地使用他人作品的全部或部分片段并组合成新的作品,如果达到了实质性相似的程度,则会涉及侵犯他人著作权的问题。第三,ChatGPT生成的内容如果是在保留他人作品的基础上做了创造性变动,可能会侵犯他人的改编权;或如果是对数据进行个性化选择和编排,也可能会侵犯到他人的汇编权。除此之外,还可能涉及传播侵权问题,即在未经创作主体许可的情况下,擅自对其作品进行传播和使用。今年1月底,在美国加利福尼亚州联邦法院提起的一项价值90亿美元的集体诉讼中,原告指控微软和OpenAI窃取了授权代码来构建代码托管平台GitHub的Copilot人工智能工具,违反了开放许可条款;全球知名图片提供商华盖创意(GettyImages)早前也起诉了热门人工智能绘画工具StableDiffusion的开发者StabilityAI,指控他们未经许可在其训练数据中使用受版权保护的艺术作品;还有3位艺术家对Stable AI和另一个AI绘画工具Midjourney以及艺术家作品集平台DeviantArt提起诉讼,称这些组织通过在未经原作者同意的情况下,从网络上获取的50亿张图像来训练其人工智能,侵犯了不计其数艺术家的权利等。

其三,侵害个人信息权及泄漏商业秘密及国家秘密的风险。首先,数据信息正在进化成为能够深刻改变人类生活的新型产品和服务,数据信息已然成为新的权力的中心。虽然大数据时代,数据爬虫是企业采集数据的惯常手段,但对于抓取的数据是否会有意识地筛选个人信息及商业秘密,所使用的爬虫技术是否具有侵入性以及前期抓取的数据是否仅用作训练等问题,均应引起社会的高度关注。ChatGPT依靠大量的数据进行学习训练和预测,并在后期与用户的交互中不断获取新的数据信息,这其中必然涉及用户信息权及商业秘密、国家秘密保护的问题,即如何实现数据保护和数据处理之间的平衡是当前亟待解决的问题。其次,ChatGPT依旧具有人工智能的通病——算法黑箱,OpenAI并未对外公示其所使用的数据来源及相关训练数据库是否均获得相应授权。ChatGPT的预先学习模式并不需要人工的介入、标注和监督,致使ChatGPT获取数据方面不受人为干预和控制,无法避免获取非法来源。在ChatGPT如何合法合规的获取并使用数据,当前仍无具体的规则参照。第三,在用户和ChatGPT交互的过程中,输入各种信息,其对信息和数据来源无法进行有效的核实,因其依靠海量数据库中的信息,包括大量的互联网用户自行输入的信息,故当用户输入相关信息时,ChatGPT可能将其纳入自身的语料库,这个过程很可能产生侵害他人个人隐私、商业秘密及国家秘密的风险。ChatGPT实际上影响了个人隐私信息自决行为的“自治性”,ChatGPT人工智能的便利性是以收集和使用用户的个人信息为基础的,用户虽享受到人工智能技术的便利,却也在便利性与让渡个人信息之间作出了选择。当前OpenAI的使用条款规定其对用户输入和输出内容拥有广泛使用权,而用户如不希望OpenAI使用其输入的内容,则需向OpenAI单独提出申请。虽然ChatGPT承诺删除所有涉及用户的个人信息的内容,但并未说明删除的方式,在其不能对信息与数据来源进行核实的当下,用户个人信息、商业秘密、国家秘密等仍将面临泄露的风险。第四,ChatGPT在编程协助、广告设计和文学创作等领域,用户需向其提供完整且详细的信息使得ChatGPT生成较为准确的内容。而在商业场景下,用户输入的信息不可避免的涉及商业秘密,导致公司的营业信息或技术信息在相关工作人员未察觉的情况下被泄露。OpenAI并未对用户输入的信息提供专门的技术保护,已有公司注意到该风险。最后,用户同意使用ChatGPT是否可视为其同意了ChatGPT对其个人信息进行处理,以及用户在提问中披露了个人信息、商业秘密后被纳入了ChatGPT的训练数据库,用户行使撤回同意和删除权能否真正得以实现等问题也无具体的操作指引。而从机器学习模型中删除数据,当前仍存在技术障碍,已用于训练模型的数据,如删除数据将会导致模型失去自身的准确性,此处数据保护和数据处理之间的张力也凸显无疑。

其四,违法经营风险。ChatGPT由于其服务端对中国大陆的IP存在限制无法直接注册使用,导致其账号在国内多个购物平台、社交平台上成为炙手可热之物。在ChatGPT注册、访问阶段,如不使用其他信道进行国际联网是无法注册和访问ChatGPT。而在连通ChatGPT的API接口并提供转接服务阶段,如注册的账号采用的是代收验证码等方式,以故意隐瞒真实身份和国籍的方式连接ChatGPT的API接口,该转接服务者是通过绕开国家公用电信网提供的国际出入口信道为用户提供接入ChatGPT的服务,帮助使他人访问国内IP无法访问的境外网站的,则该经营行为是违反了《电信条例》《互联网信息服务管理办法》的行为。故提供代问、代注册的商家搭建或使用VPN进行注册账号,并擅自经营买卖该账号等行为存在违法经营的风险。

其五,不正当竞争风险。由于ChatGPT风靡一时,借其名称热度“搭便车”的牟利行为也在短期内剧增。以ChatGPT作名称的小程序、公众号的数量激增,不少小程序都显示有“1000+人最近使用”。仿冒ChatGPT软件打着正版软件的旗号进行虚假宣传,称用户所接受的服务是由其“转接”ChatGPT的AI模型提供的,诱骗消费者进行下载,实则最终下载的都是张冠李戴的其他软件,该行为可能构成反不正当竞争法中规定的虚假广告宣传行为。同时,仿冒ChatGPT软件使用的名称及标志,误导他人认为与正版存在某种联系,也可能构成反不正当竞争法中规定的商业混淆行为等。

其六,网络数据安全风险。生成式AI技术的时代已到来,相伴而生的网络数据安全相关的问题也不断凸显。首先,ChatGPT的应用基础是把网络上大量的数据汇聚,后再次分散到个体用户,在此过程中所涉及数据的保护将面临不可控的风险。欧洲通用数据保护条例颁布后,引起了全球各公司对自身数据隐私条款的重视。而ChatGPT在帮助我们解决问题的同时,也可能会被别有用心的人利用作为写恶意软件代码的工具,产生危害网络安全的风险。且存有大量交互信息的ChatGPT本身也可能成为网络黑客攻击的对象。如果网络安全防范技术存在漏洞,则将带来数据泄露的风险。其次,ChatGPT帮助我们获取知识和做出判断,也会带来操控人类思想的危险,由于算法偏见以及不真实信息源带来的政治操控,将给信息安全及国家安全带来不可预测的风险。即ChatGPT可能被恶意利用收集敏感信息或传播不安全内容,从而威胁国家安全和国防安全。如ChatGPT帮助使用者收集影响国家安全的信息或帮助使用者制定危害国家安全的计划等。最后,ChatGPT进行内容生成的过程中,主要是通过互联网形式进行的数据流动,当出现数据发生跨境流动时,不可避免地出现法律法规的适用性、数据的外泄及主控权等国家安全风险。尤其在数据出境方面,ChatGPT用户所提出的问题中可能涉及个人信息、敏感信息,有关国家安全、经济运行、社会稳定及公共健康的重要数据信息。上述信息被传输至境外,这个过程则存在较大的网络数据安全风险。根据数据安全法、个人信息保护法及《数据出境安全评估办法》的相关规定,信息处理者向我国境外提供信息,应通过国家网信部门组织的安全评估环节,并经专业机构进行信息保护认证,还应向信息收集的相对主体明确告知境外接收方的详细信息、处理的目的和具体方式、涉及的信息种类等事项,必须在取得用户的单独明确同意后方可向境外提供。但当前ChatGPT信息处理者并未严格履行上述规定的义务,使得数据被传输至境外产生不可控的网络安全风险。

其七,对未成年人保护的潜在风险。当前,ChatGPT生成内容的质量存在良莠不齐的现象,可能存在暴利、色情、反人类及伪科学的内容,对未成年人将构成潜在的威胁。根据ChatGPT隐私政策,未满13岁的儿童不得使用ChatGPT,但如何保护13至18岁未成年人方面,ChatGPT并未采取任何有效的措施。且ChatGPT使用手机号即可注册,在目前手机号码未完全实现实名认证的情形下,很难限制未成年人的使用。因此,如何在用户协议中确认用户的年龄限制、如何在注册阶段严格防止未成年人的使用以及如何过滤掉影响未成年成长的不健康的信息等方面,是企业、社会与政府亟待予以解决的现实问题。

其八,刑事风险。随着越来越多功能类似于ChatGPT生成式AI技术的诞生,从图片、音频到视频的合成已不存在任何技术难题了,不法分子利用AI技术盗刷人脸损害他人合法权益以及国家安全的问题,仍未彻底解决。当前不法分子可以利用ChatGPT生成式AI技术制造恐怖、颠覆政权的虚假信息等,使得不法分子的手法更加多样化,造成刑事犯罪风险激增。如何应对利用ChatGPT开展的网络诈骗、恐怖活动等违法行为,消除数字科技带来的日益增大的负面影响,也是当前亟待解决的难题和挑战。

四、ChatGPT的规制及应对路径

信息技术革命使人类进入了史无前例的数字时代,形成了现实与虚拟的双重空间,打造了人机协同基础上的数字社会关系,这些技术发展将致使社会和经济的范式转换,法治模式也将随之改变。面对当前ChatGPT所带来的相应法律风险,我们应积极予以应对,促进ChatGPT的可使用性,充分发挥其自身的优势,促进数字经济健康发展。面对ChatGPT这样的新兴事物,我们应打破学术的壁垒,从法学的视角对人工智能开展前瞻性理论分析,积极探索新兴学科的内容,竭力保持技术发展与权利保障之间的理性平衡。主要应对措施具体如下:

(一)完善ChatGPT人工智能立法

ChatGPT人工智能技术迅猛发展,给现有法律体系带来了严峻的挑战,面对技术的冲击,我国相关部门及地方政府已进行了人工智能产业立法的相关尝试,对ChatGPT人工智能的法律规制在电子商务、数据安全和个人信息保护等领域的相关立法中已经有个别条款分别涉及,但尚未形成统一的法律规则体系。2018年7月,中国科学院软件研究所联合15家产学研单位共同编制了国内首个人工智能深度学习算法标准《人工智能深度学习算法评估规范》;2021年国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》并提出将伦理道德添加进人工智能研发和应用的全过程;2022年国家互联网信息办公室出台的《互联网信息服务算法推荐管理规定》也明确规定人工智能的算法应当坚持社会主义主流价值观,不能利用算法危害国家和社会安全或扰乱经济和社会秩序等;2022年10月1日施行的上海市促进人工智能产业发展条例提出对高风险的人工智能产品和服务实行清单式管理模式;同年9月深圳市公布了深圳经济特区人工智能产业促进条例,系全国首部人工智能产业专项立法;2023年1月10日施行的《互联网信息服务深度合成管理规定》是第一部专门规范人工智能生成内容的部门规章,其中规定任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律和行政法规禁止的信息。2023年4月为促进生成式人工智能技术健康发展和规范应用,根据网络安全法等法律法规,国家互联网信息办公室起草了《生成式人工智能服务管理办法(征求意见稿)》。美国埃尔曼杰认为“法律是改革的主要力量,也是解决冲突的首要途径”。法律的诞生是为了解决现实问题。科技是大国的核心竞争力,人工智能的技术需求和国际合作徒增,而当前有关ChatGPT人工智能法律规制仍跟不上节奏,大大影响了中国无人工智能的发展。立法需拟制出社会关系的模式,才能作用于社会关系。立法本不是一蹴而就的事情,我国法律体系庞杂,采取分步走立法路径,能够缓和各主体之间的冲突,协调各主体的诉求。立法也是一国之大事,以试点方式慢慢推广开来是我国当前的实践办法。

首先,按照我国法律体系,针对ChatGPT人工智能的立法模式可选择颁布相关行政规章、制定单行法或人工智能法、修改民法典等。分步走的立法路径优势是在促进ChatGPT人工智能技术发展和维持现有法律基本稳定之间找到平衡点,通过分步走的立法路径所具有的缓和能力,协调不同的利益相关者的不同诉求。因此,政策应当先于法律,相关行政法规是法律制定的先行步骤,在行政法规中率先增加ChatGPT人工智能相关规制的内容是必要且可行的。可由工信部制定《ChatGPT人工智能侵权责任管理规定》,来落实对ChatGPT人工智能的规制。同时,在我国民法典侵权责任编内容的基础上,针对ChatGPT人工智能侵权责任的特殊性制定相应的部门规章,对ChatGPT人工智能侵权责任主体、归责原则、赔偿方式和如何分配责任等进行规定。其次,为ChatGPT人工智能制定单行法暂无必要,民法典是我国民法规则的基本法,有关ChatGPT人工智能的重要问题也有必要在民法典中加以肯定。为确保立法的前瞻性,可采用民法典立法模式进行修改,用分步走的立法路径,对民法典体系结构进行整合,过渡性地解决ChatGPT人工智能法律问题。可通过在现有民法典的民事主体、侵权、合同等各框架范围内进行补充完善的方式来实现,对于确属法律空白地带的例外情况,可以在现有的法律体系中增加相关条款。具体可根据民法典总则相应修订侵权编的侵权责任主体范围、侵权规则适用、如何赔偿及赔偿范围等相关内容。在民法典各分编中规定ChatGPT人工智能侵权责任类型及责任分配规则等。即在侵权责任编中增加人工智能物侵权,作为一个特殊侵权责任类型。例如,可在民法典侵权责任编中增加2条,增加人工智能物侵权责任条款和人工智能责任机制条款;在民法典人格权编中扩张第999条、第1032条、1034条、第1035条和第1038条的范围将ChatGPT人工智能的信息也包含在内;增加第1033条第六项,ChatGPT人工智能不得泄露侵害使用者的个人信息;另增加1个条款来完善告知同意环节。最后,ChatGPT的立法应当遵循立法规制与数字技术融合发展、立法规制与政策调整互动发展、国内法治与涉外法治统筹发展。并抓紧总结地方立法先行先试的实验,积极参加和主导人工智能国际规则的制定等。深化人工智能领域的国际监管合作,加强主要国家或经济体在这一问题上的联系和共识,共同应对人工智能快速发展和人类合作的法律框架。

(二)构建ChatGPT人工智能侵权责任体系

首先,明确ChatGPT人工智能侵权责任的承担主体。侵权责任承担主体的模糊是造成ChatGPT人工智能侵权风险难以控制的主要原因。在ChatGPT人工智能侵权场景下,特定的开发人员应对该算法造成的伤害负责,这是传统侵权法视角下的做法。但在ChatGPT人工智能不仅存有生成式AI工具自动侵权的情况,也存在用户输入相关指令后所生成的内容侵权的情形,仅适用单一责任主体的侵权责任架构将会导致责任承担主体识别错误的发生。因此,在上述两种运作模式下,应对侵权责任的承担主体加以区分。如在简单的指令输入输出型生成式AI场景下,则原则上应当追究指令输入人的相关责任。但ChatGPT服务提供者应适用“通知—删除”规制,在接到受害人通知后应及时采取删除、屏蔽、断开链接等必要措施防止损害结果的不当扩大,并提供相关用户的身份信息协助受害人展开有效维权。而在更为复杂的自主生成式AI应用场景下,对ChatGPT人工智能的自主侵权行为,由于人工智能生成行为在本质上还是体现着ChatGPT人工智能开发者的意志,原则上应由开发者承担侵权责任。其次,明晰归责原则。归责原则是处理各类侵权纠纷案件所应遵守的基本准则。但适用单一的过错责任原则却难以解决ChatGPT人工智能带来的侵权问题,主要是由于受害人的举证困难以及该技术潜在的侵权风险与其侵权成本之间的高度不对称性。ChatGPT技术的独特性严重影响了相关民事主体之间的法律关系的可预测性与相对稳定性。ChatGPT人工智能在运行过程中具有造成大范围且不可控风险的潜在威胁,且能以更高效的方式进行互动导致给他人带来更大的风险。相对于受害人创造风险的活动而言造成不相称的、过度的伤害风险,那么在损害实际发生时,行为人就应当承担无过错或过错推定责任。这在一定程度上能迫使ChatGPT的开发者避免生成式AI侵权行为的发生,促进ChatGPT技术的完善和发展。当然,即使设置了无过错或过错推定的归责原则,还应设置相应的法定免责或减轻责任的事由。如ChatGPT人工智能开发者能证明损害是系不可抗力或受害人故意造成的则可以免责,以及被侵权人对损害的发生有重大过失的,也可以在一定程度上减轻ChatGPT开发者的责任等。

(三)建立ChatGPT人工智能责任保险制度

元宇宙、区块链、人工智能等数字科技极大地解放了劳动力,也往往伴随着潜在的风险。虽然科技工作者长期致力于将风险降到最低,但是一旦发生风险往往意味着巨大的损害。针对ChatGPT人工智能侵权问题,通过保险制度来分散各方主体风险是有必要的。责任保险主要为ChatGPT人工智能可能造成的损害投保,并设立赔偿基金来解决保险无法涵盖的损害。一旦风险变成了损害现实,则由保险机构来赔付。保险制度能够在ChatGPT人工智能被不当利用所造成的难以估计的损害时,以较小的经济成本分担相应的风险。ChatGPT人工智能放大了不特定第三人的风险,需要更多的主体参与责任保险,比如ChatGPT人工智能的开发主体、运行主体等,主体范围的扩大不仅可以降低单一主体的保险负担,还可促进各环节的参与公司提高责任意识,尽可能地提升技术,规避损害的发生。为此,需为ChatGPT人工智能购买一份责任保险,化解ChatGPT人工智能责任承担的潜在风险。责任保险可分为强制保险责任和商业责任险,ChatGPT人工智能的开发主体、运行主体应购买强制责任保险,否则对相应损害应承担连带责任。投保强制责任险将减少ChatGPT人工智能侵权事件发生时的经济赔偿纠纷,促进ChatGPT人工智能乃至元宇宙行业的良性发展。同时,对于强制责任保险赔偿不足的部分,ChatGPT人工智能的开发主体、运行主体还可投保商业责任险,最大限度地分散风险。此外,亦可结合藤雅信教授“综合性的人身损害救济系统”概念,建立新式的综合救济系统。该系统不仅具有社会保险的特征,还能与损害赔偿制度相对接。在该系统内设立人身损害救济基金,基金的主要来源是缴纳的社会保险费。这个综合赔偿体系由侵权责任、责任保险、社会保险、商业保险以及公益救助基金等救济途径所组成。主要分为两大类:一类属于公共性的损害赔偿体系,包括社会保险和公益基金等救济机制;另一类则是私人性损害赔偿体系,包括第一方保险与侵权责任。在这一系统内,基金可以赔偿受害人的损害和治疗费用。

(四)健全ChatGPT收集数据的规则

首先,ChatGPT公司收集数据应取得用户的授权同意,并对内容的使用及时予以公示。相应公司如使用ChatGPT为用户提供服务,也应保障用户的知情权以及选择权。即应向用户明示在使用过程中将会收集的数据类型,并取得用户的明确授权同意,以及其所提供的生成内容涉及的数据类型,并提示用户涉及的内容可能存在不准确的风险。其次,ChatGPT公司应严格规范知情同意,在个人信息处理规则或隐私政策中要明确告知可能收集的用户个人信息类型,如通信信息、日志数据、使用数据等,并明确收集数据的使用目的、范围及后续的处理方式等。在涉及敏感个人信息及商业秘密时还应以醒目方式提醒用户,并获得用户的明确同意。第三,个人信息是个人用户的所有物,其使用方式由用户选择,故用户的授权行为不能排斥其撤销权,这有利于保护个人在数据中的劣势地位,开发者则不能以先前的授权行为进行抗辩。第四,一旦发生侵权案件,则对开发者适用无过错归责原则。无论是否系直接侵权,开发者无法证明未擅自超出授权范围使用个人信息,则应向用户承担连带赔偿责任。开发者擅自收集信息,未取得授权,则应该借鉴消费者保护法的惩罚性赔偿规则。而开发者即使取得了用户授权,但是超过授权范围擅自使用,则同时构成违约责任与侵权责任,用户可以根据不同的情形选用不同的责任要求赔偿。授权后侵权与未授权侵权的情形都应该通过法律进行规定,这不仅可以确保信息安全,限定个人的信息使用范围,还有助于促进数据在授权范围的使用和分享。最后,在儿童权利的保护方面,ChatGPT的运营主体应承担特别注意义务,即对涉及未成年的信息持审慎的态度予以收集及处理,并对涉及敏感信息予以安全、彻底的清洗,全面落实保护未成年权利的义务。

(五)从源头有效防范数据泄漏风险

语言模型中的数据泄漏可能导致模型暴露,黑客从模型中窃取敏感信息从而危及个人隐私。首先,可采用客户端加密、服务器加密等方式来保护在ChatGPT聊天过程中所涉用户的隐私以及商业秘密,其中客户端加密是在客户端予以加密,任何未获得授权的第三方无法获取聊天所涉的内容,而服务器加密是在服务器端进行技术加密并通过双向验证来保证聊天数据的安全性。另外,还可对日常聊天内容进行日志监控,以备及时发现程序运行过程中的违法和违规行为,从而保障所涉聊天数据的安全性。其次,应加强内部规制,通过筛选训练数据,并使用交叉验证技术,保护模型免受攻击,防止数据的泄漏风险。还可以使用广泛的测试数据进行评估,实时监控模型的性能状态。同时,加强ChatGPT人工智能技术的开发和实施,加大对此类项目的投资,开发更具先进性、公正性和透明性的人工智能技术。第三,加大个人隐私责任约束。加大对泄露个人隐私的惩罚力度,虽然我国现行法律对隐私权已有明确规定和相应的保护措施,但无法涵盖所有新型领域出现的新情况。而个人信息被监视、窃听无法自主决定信息的使用,丧失主体地位。当前形势,用户数据集中在大型互联网或数据处理平台之上,对其保护个人信息及隐私的责任规制的重要性愈发凸显。公司构建系统时需要考虑黑客入侵的情况,相应公司不仅应加大力度开发技术,而且应在信息受到攻击时能够通知个人,并自动采取行动阻止攻击者。同时,必须设计弹性的分布式系统,比如运用区块链技术,这有助于防止篡改和数据泄露。第四,确立数据匿名化处理。从各国关于个人信息和数据的保护立法来看,一般都是通过立法确立匿名化处理的技术手段,以便全方位保护个人信息安全。我国需细化对于匿名化数据的规定,并引入隐私风险的评估机制,建立数据匿名化的事前、事中及事后的规制体系。第五,ChatGPT相关企业在跨境传输数据时,应按照《数据出境安全评估办法》《关于实施个人信息保护认证的公告》《网络安全标准实践指南——个人信息跨境处理活动安全认证规范V2.0》和《个人信息出境标准合同办法》等相关规定,开展数据出境风险自评估,为数据出境获得必要的授权,并建立完善的数据出境保障措施和数据接收方管理措施,定期评估和审计数据出境的情况,并严格遵守各国家和地区关于数据出境的相关规定,维护我国网络数据安全。最后,推动各国际组织制定国际信息保护协定。由于ChatGPT的服务器设在境外,其向我国境内用户提供服务的过程中,还可能涉及数据出境问题。人工智能对数据的获取并无明确边界,促进国际范围内协同立法才能更快地应对未来ChatGPT人工智能造成的跨境争端。如何平衡严格保护与有效利用、开发数据三者间的关系,仍有待国际间的进一步协商。

(六)对ChatGPT生成的内容予以严格把控

ChatGPT生成的内容不但受其训练的语料库影响,也受用户提问的方式所影响。首先,对ChatGPT应用边界加以管控,建立对人工智能生成内容的管理规定,规避利用人工智能生成和传播虚假、恶俗、违法的内容。加强治理工具的开发,通过技术手段识别人工智能生成内容,并对ChatGPT等类似人工智能服务的提供者落实其主体责任。同时,ChatGPT公司应遵守《互联网信息服务管理办法》《网络信息内容生态治理规定》中有关信息内容的管理主体责任,还要符合其被应用的各自领域关于生成内容的生态治理义务。其次,ChatGPT服务的提供者应在爬取信息之前,对数据信息进行审查,排除具有知识产权的作品,或取得相应权利人的授权后再纳入资源库。在代码生成服务过程中,如ChatGPT需要先获取开源代码进行学习理解,同样也应遵循所引用的开源许可协议。第三,还应建立算法机制机理审核、科技伦理审查、用户注册和信息发布审核等。一旦ChatGPT公司和平台发现违法信息的,应及时采取辟谣、删除或屏蔽等措施,防止信息扩散,保存有关记录以备后续追责,并及时向有关部门报告。如因ChatGPT企业和平台自身原因未履行上述义务,则应承担相应的不利后果。最后,应加强政府与企业通力合作,鼓励研发者加强人工智能自检测模型构建,将人工智能生成系统设定在既有事实之上,保证有据可依,制止其生成编造的内容。同时,引入不同来源的比照分析模型,提高ChatGPT识别信息真实性的能力。政府还应在社会上广泛开展宣传,增强ChatGPT用户辨别真假信息的能力,批判性对待人工智能提供的结论,而非一味盲从。

(七)严苛筛选ChatGPT的数据来源

数据来源风险主要是指ChatGPT在预先学习和训练过程中存在数据获取侵权、数据内容违法、吸收虚假信息三种风险。为防止数据获取侵权可加入数字版权管理技术(DRM),通过DRM对ChatGPT生成内容的管理和分发,可以确保生成内容被合法使用。DRM可分为基于密码技术的DRM系统和基于数字水印的DRM系统以及两者相结合的系统。前者是指通过对数字文件的加密使其在传递过程中无法被获取,从而达到版权保护和信息安全的目的。后者是将创作者的创作信息和个人标志等不可感知的辅助信息嵌入载体中,只能用专用的检测器或计算机软件才可以检测出隐藏的水印。凭借DRM系统的密码技术或者密码和数字水印技术的结合,可以有效降低聊天机器人生成作品在使用与被授权使用过程中的侵害知识产权的风险。此外,还可通过“贴标签”的方式对使用风险较大的作品予以标识。同时,还应加强对ChatGPT的数据来源中涉及隐私、伦理、道德、政治偏见和种族主义等内容进行严格的数据筛选,以及有效过滤存在获取侵权、内容违法、虚假信息等数据信息,从源头把好安全关。加快布局人工智能安全标准、伦理规则的制定,针对人工智能新技术可能带来的知识产品风险、网络安全风险以及侵害个人信息、商业秘密等风险,加速推动行业自律的形成。同时,还应做好ChatGPT技术应用的科普工作,提升民众的科学素养和风险认知能力。数字素养在信息传播过程中具有至关重要的作用,通过宣传与培训使民众认识到人工智能技术自身的局限性。倡导政府和民间领域实现一体化,通过同一个系统和网络密切关联起来,共同参与大数据的构建和利用。

(八)增强ChatGPT各参与主体的责任意识

ChatGPT的参与主体主要包括开发者、使用者、第三方评估机构和训练数据提供者。在确保ChatGPT的合法合规方面,上述主体必须加强对ChatGPT的监督,并确保不违反任何法律法规和道德准则。首先,开发者是制作和发布ChatGPT的机构,包括OpenAI和其他技术平台提供商,应该对ChatGPT的技术质量和安全负责,确保ChatGPT符合相关法律法规和道德标准,以及定期评估ChatGPT的风险和进行相关风险管理确保ChatGPT的使用系安全、合法的。同时,还需公开信息来源,在产生争议时证明其程序设计环节并不存在侵犯他人合法权益的故意,否则应为其算法黑箱承担相应的责任。其次,使用者是使用ChatGPT的个人或组织,应严格遵守相关法律法规和道德标准并对ChatGPT的使用方式负责,确保ChatGPT不被用于违反法律法规和道德标准的活动。再次,第三方评估机构是独立于ChatGPT开发者和使用者之外的机构,应对ChatGPT进行客观、公正的评估和评价,并对ChatGPT的技术质量、合法合规和安全性等方面进行评估,确保ChatGPT符合相关法律法规和道德标准。最后,训练数据提供者是向ChatGPT模型提供数据的用户或者其他人员。由于训练数据内容的正确性和合法性将直接影响系统的输出是否合法合规,如训练数据是通过非法爬取、未经个人同意等违规途径收集而来,则系统的输出内容也因来源的不合法、不合规而不具备合法性基础;如果训练数据中包含极端、诽谤、歧视、骚扰或任何其他违法行为,系统很可能在输出内容时产生违法行为。故训练数据提供者应对训练数据来源的合法性负责,确保训练数据内容的正确性和合法性。

(九)强化对人工智能ChatGPT的监管力度

鲍德温等人认为,政府应不断对规制系统进行监督与管理,并及时制定自我规制的应对方案。首先,政府应通过公共政策来更好的调整社会关系,分配社会价值,建立一个权责统一、分工明确的监督机构。建立可以深入人工智能整个系统的监管机制,即从模型的建立、语料库的标注、模型训练、投放市场后的迭代进化及系统退出使用等环节。并监管到每个具体的环节,包括语料库的选取标准、参与人工标注的人员资质、开发者的价值观考察等。还应将算法监管和数据监管结合起来,充分考虑算法决策主体的类型和作用类别,探索场景化和精细化的算法治理机制。并建立有层次的市场准入清单制度,对ChatGPT人工智能实施投入前的合规评估。同时,对ChatGPT人工智能的研发、运行、维护到使用进行全流程的伦理审查。其次,国家应当加强对人工智能的伦理规制,将伦理道德纳入人工智能研发和应用的全过程。同时,应认真理解ChatGPT人工智能新兴技术带来的工作性质的变革,并严肃应对其所带来的社会、伦理与法律问题,打造共建共治共享的治理格局。再次,制定ChatGPT人工智能的准入合格标准,实行备案登记制度,并要求ChatGPT企业和平台定期发布社会责任报告,强制ChatGPT企业和平台及时公开披露所涉的相应风险活动及数据处理的目的、数据处理者的身份和数据接收者等相关内容。并完善惩罚机制,以督促强制义务的履行程度。最后,建立相应的监管制度对人工智能的使用进行事中和事后监管。事中监管主要是完善个人信息保护投诉、举报工作机制,以用户举报和政府审查方式保证已投入市场的ChatGPT不存在违法违规现象。事后监管则是对违反规定的ChatGPT研发公司责令整改、施以行政处罚等。工信部可制定《人工智能民事法律管理规定》,规范ChatGPT在内的人工智能及其产物的民事责任、主体地位、透明度和问责制审查等内容。加速建立高效、连贯和透明的监管方法,使得有效监管和保障创新并驾齐驱。

(十)制定严格的ChatGPT操作标准和规范,并建立风险评估制度

通过严格的操作标准和规范来保证ChatGPT的运行,如使用规范的登录流程,按照规律的间隔时间对数据库进行扫描,严禁未经许可的操作。此外,还应定期备份数据库、配置文件等,以防止数据丢失或不可恢复。同时,ChatGPT在回答问题时可能涉及到算法推荐或深度合成,关于AI人工智能的监管规定虽然当前仍处在探索阶段,但算法推荐和深度合成方面已有《互联网信息服务算法推荐管理规定》,使用ChatGPT时仍应遵守此方面的相关规定。ChatGPT公司内部还应制定相应管理规则,由专业技术人员实时关注类似“DAN”等通过诱导提问而攻破系统的突发情况,并及时予以解决和系统升级完善。ChatGPT运行中产生的合同纠纷或者侵权纠纷,往往是由其技术开发公司承担法律责任。故技术开发公司也应向用户提供明确的服务条款,明确相应的法律责任,以此来规范用户使用ChatGPT的情形。同时,针对ChatGPT应完善相应的风险评估系统的建设,把人工智能可能带来的不利影响降到最低限度,通过事先防范机制有效预防不利风险,促进符合人类价值观的人工智能的发展前景。具体可从风险识别、风险分析以及风险评价三个环节进行,通过技术更新增强风险识别的灵敏性,建立科学的风险分析系统,健全风险评价机制等。还可根据《数据出境安全评估办法》等相关法规,构建中国数据出境评估体系。

结语

随着虚拟化、数据化、电子化、智能化和全球化的纵深融合发展,曾经三维物理空间的信息闭塞和流通障碍已成功突破瓶颈,充分发挥人财物价值的确权经济也逐渐过渡为数字社会的治理逻辑及其法治化展开的共享经济。ChatGPT的问世掀起了新的一轮人工智能热潮,但使用过程中可能涉及的法律问题亦不容忽视,面对当前ChatGPT“热”趋势,法律人应进行客观的“冷”思考。人工智能在给我们生活增添乐趣、提供便利的同时,其信息真伪、知识产权、数据安全、商业秘密及隐私的泄露等法律问题也日益凸显。在元宇宙时代,应针对数字经济的新特点制定新的规则。而如何以数字思维引领社会治理,以数字伦理与法治规制社会治理,是我们需要攻克的一个重要课题。随着人工智能的逐步发展,相应的法律合规问题将会越来越多。人工智能的发展底线应是不得反人类,必须为人类服务,并符合社会主义核心价值观。应增强全社会对人工智能的伦理意识和行为自觉,才能促进人工智能健康发展。立法机关还应当就人工智能的开发环节和应用领域,制定专门的规范措施,以期人工智能真正地为人类福祉赋能。ChatGPT人工智能生成内容技术的深刻复杂性及其潜在的法律风险也引发了法学研究者的重视,必须探索出一条妥当的规制路径,在有效规范ChatGPT人工智能技术的同时,也为元宇宙技术的快速发展预留必要的制度空间,实现两者的动态平衡。

展开阅读全文

页面更新:2024-02-08

标签:风险   人工智能   路径   主体   宇宙   模型   法律   责任   内容   数据   用户   技术   信息   熊进光

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top