昂格鲁玛|论大型内容生成式人工智能模型设计者及提供者的侵权责任

要目

一、ChatGPT和人工智能内容输出模型二、内容生成式人工智能模型的法律风险三、法律风险规制及模型设计者侵权责任体系的探索

结语

早在19世纪20年代就提出了人机对话的构想,到现在为止ChatGPT及类似的大型内容生成模型成为新一轮的科技革命。各个国家的学者对生成式人工智能提出了不同的学理和立法主张。我国除了互联网相关监管法规已经逐步形成规模和体系外,也针对深度合成和内容生成式人工智能尝试新一轮监管立法。对此,根据生成式人工智能模型的固有体量大和算法不透明特征,对于人工智能模型的设计者和提供者可以进行一般民法体系下的归责解释。以一般理性人的预见可能性及避免义务进行归责,并以侵权责任法进行损害后结果的追责和合同违约式赔偿。

2023年于人工智能,可以称得上是创世纪元年。人工智能技术在算力、数据训练以及模型运用上取得了新的进展和突破。自动驾驶、以ChatGPT为首的聊天智能模型已经开始在市场上进行流通;元宇宙的开发与探索进入了一个新的阶段;国内外针对人工智能的专门立法也已经开始。如何超越碎片化的技术表象,摆脱科幻化的应用猜想,认知技术及其应用的体系性,思考法律应对的整体框架,甄别人工智能法的理论体系与核心议题,启发更有价值的学术讨论,已成为理性且可欲的选择。国内有其自主的立法精神也有市场和社会的独特属性,为了应对国际化局势以及平衡科学技术进步和伦理要求,应当以审慎的态度、科学的立法和司法技术,勇敢而坚定地拥抱未来。

一、ChatGPT和人工智能内容输出模型

早在1936年,英国数学家图灵在研究可判定问题时就已提出,可以让计算机理解自然语言,从而证明计算机能够具备人的思维能力。并且随后提出了图灵测试。尤其是在近几年计算机处理自然语言已经成为各个国家和研究者共同的目标和市场上持续的热点。即便从塞尔提出“中文屋子”问题以来,哲学家和人工智能研究者关于图灵测试究竟是否能够说明模型或者机器具备测试智能的能力,但这种人机对话的技术,和自然语言处理的方式,依然在很大程度上,对于近期的发展和人工智能的演化成为最可能的人工智能方向。

语言处理和人工智能内容生成模型(AICG),是在人类语言的规则基础上,进行大规模的训练并生成类人语言的输出。在早期,语言模型由于数据和算力的局限性,导致其处理的范围和规模都相对较小,随着2012年以来的神经网络深度学习方法的适用,使得自然语言处理进入了一个崭新的时代,语言模型也进入了工业化的程度,“预训练语言模型”的出现也加快了语言模型的研究进程,让语言模型可以在大数据中学习到语言知识并进行迁移。本研究就以大型语言模型代指进入工业化时期的语言模型。

由OpenAI公司开发的基于转换器(Transformer)的生成式预训练模型(Generative Pre-trained Transformer,GPT)已经成为当前自然语言处理研究的核心技术。ChatGPT利用了这种基于转换器模型的编码器和解码器,在文本和数据基础上获取了大量的信息,并进行了知识性学习,因此在自然语言学习和生成中达到了突破性水准。因此,这种预训练模型成为人工智能生成式大模型中的基础语言模型,也让深度学习和深度网络时代的自然语言处理有了新的进步。

2022年11月30日,ChatGPT开放公众测试。上线第一周即拥有100万用户,两个月的时间吸引活跃用户数量破亿。无论是用户、学者还是研究人员都开始了广泛的讨论。同以往被用作商品定价、医疗诊断、信息推荐、人脸识别或绘图等单一功能且多面向特定用户群体的人工智能系统不同。用户可以在类ChatGPT的大型内容生成模型上进行命令式输入,令其按照用户的要求进行模拟聊天式的输出,而输出内容包括文字、图片、代码、音乐或视频等等。ChatGPT的基础和本质仍然是基于自然语言处理模型的聊天机器人,ChatGPT是根据用户输入的提问,通过自然语言进行回复,使用深度学习技术模拟人类聊天行为,与用户对话。内容生成式人工智能将显著改变人类的工作方式与交互方式。

到目前为止,ChatGPT经历了GPT-3、GPT-3.5系列模型(Azure AI超级计算基础设施上的文本和代码数据进行训练),达到了GPT-4的模型,参数将高达100万亿。在这个数据体量上可以说是达到了真正的大语言模型的定义。但是实际上,ChatGPT的市场成功不完全等于人工智能产业,人工智能产业涵盖的内容相当的大,但是目前这基本上深度模拟了人学习知识并运用知识的高级水平,因此,相对应的风险治理思路更应当以现有的技术水平和发展情况相对应。

在2023年上半年,我国部分互联网公司相继推出类似的大语言模型,在商业运用和生活运用中也有持续不断的需求,于此我国相对应的监管脚步也应当逐渐跟上。一方面,ChatGPT作为新的科技产物表现出前所未有的效率优势。另一方面,与其他新兴科技产物一样,它展现出了潜在的伦理障碍,将人类置于威胁之下。霍金曾多次就人工智能具备毁灭人类的可能性发出警告,马斯克也公开谏言停研发比GPT-4更强大的AI(人工智能)系统至少6个月,因此,我们需要保持理性的态度审视其伦理风险,并且在其在中国的应用和引导中进行科学的审视和理性的法律法规制定和司法适用,以平衡科技和伦理发展。

二、内容生成式人工智能模型的法律风险

科技的每一次变革都会给人类的生活带来一定的改变和影响。每一次都伴随着巨大的社会变革和生产力和生产关系的改变。但以往的变革(机械、电气以及信息变革)都有一个基本的共同点,即传统科技强调“解放”,让人们的工作和生活变得更加便捷和高效。但是在人们的下一阶段变革中,不得不考量的就是“替代”的问题。这种带些特殊风险的变革必然会涉及不可避免的新议题。归结为两点,就是技术问题和伦理问题。而在法律领域内所需要解决的技术问题包括数据与人工智能在法律领域的具体应用问题(案例检索和数据信息应用、诉讼数据建模等),而伦理问题则是现行具体法律制度如何调整和应对新科技带来的问题。前者由技术研究人员和专家进行调整,后者才是法学家以及法学研究人员所关注的问题。

关于生成式人工智能风靡的当下,也有学者在以人类未来的角度,探讨多年来人们困惑和担忧的议题:人工智能在彻底进入我们的生活领域之后,是否会对我们的生活带来一定的负面影响,甚至会产生我们最为不能抵抗的后果?将ChatGPT等生成式人工智能模型的诞生和流通适用带给我们短期内的问题进行分类,则避不开以下几个方面:

首先是生成内容的可版权性问题。关于ChatGPT生成内容的商业性使用问题,OpenAI在《使用协议》第3(a)条约定,用户向模型的输入和接收模型的输出称为“内容”,用户拥有所有输入内容,能够在遵守本条款和法律规定的前提下受让输出内容的所有权利、所有权和利益,并对内容负责,包括确保其不违反法律和本条款(5)。依照意思自治原则,在双方当事人没有违背法律强制性规定的前提下,OpenAI与用户的约定合法有效。据此约定,用户享有ChatGPT输出内容的所有利益,同时,利益受让者对内容的合法性承担义务和责任。

针对生成式人工智能的最大争议和伦理问题是来源于其数据方面的风险。主要包括数据来源合法性风险,生成不良、虚假或违法信息风险,隐私或机密数据泄露风险。大型生成式人工智能的工作原理最大的特点是模型需要预先适用既有的文本和数据对其进行训练和学习。OpenAI在发布了Chat-GPT之后也没有公布其训练的数据来源。因此有学者对其进行了质疑,认为ChatGPT的训练语料并非完全合法,其相关数据源是否获得授权也存在着疑问。ChatGPT的预先学习模式是机器学习模式,其海量的数据学习既无需也无法真正实现全部由人工介入、标注和监督,因此,也无法完全保证每一个数据是完全符合规则的。其次,是生成不良、虚假或者违法的内容。与前文叙述内容相同,其每一个算法和输出无法实现由人工全方位的检查,在训练和迭代中也无法保证每一次都能识别人类的有意诱导。当然,ChatGPT也获得了学界专家的一致好评,OpenAI公司在开发ChatGPT时已经极力避免输出带有算法歧视、偏见或侮辱、攻击、色情、暴力及血腥导向的内容。还有值得一提的是数据泄漏、数据侵权方面的风险,用户个人信息泄漏会导致隐私权问题,国家秘密泄露会导致侵害国家安全的问题,商业秘密和专利数据泄漏也会产生不正当竞争和专利侵权等问题。除此之外,还可能存在学术伦理方面的风险(学术不端),也有不少学校已经明令禁止利用生成式人工智能进行学术研究以及发表文章。然而,模型的规制,最重要并最终的指向仍然是模型提供者和设计者。模型的安全性有赖于模型提供者。

设计者对于科学技术有最直接的控制作用,规制文件和规制探讨也基本是针对设计者和训练者而来。研究人员和设计者正是在风口浪尖上的群体。每一次的科技革命的动机都是功利性的,人类最伟大的进步不能以每个人的道德作为要求和动力。我们既不可以打击设计者和提供者的制造动力也不能阻碍一个不断进步的蓬勃的科学活力,同时我们也要保障人们最基本的权利。

那么,在了解这种科学进步成果带来的危害后如何规制、以及侵害发生之后,我们该如何去归责。归责在两种意义上充当着保障和支持。首先是在民法体系下,归责始终是弥补受害者损失的重要途径,只有归责的前提存在,才有可能让损失得以弥补。另外是行为的规制作用,一般而言,侵权法存在的使命绝不是发挥侵权法事后的作用,而是维护权利,甚至是让侵权这种消极意义的行为减少、降低乃至消失。归责也是如此,在生成式人工智能产品的讨论背景下,归责问题的核心是为了减少侵权行为的发生。

而人的意志是判断行为是否违反法律规范或者造成法律意义上的侵害的关键。生成式人工智能的侵害性行为由人来负责的最主要的部分就是在人的自由意志支配下的行为。即不在自由意志支配之下的人的举止不该属于归责到人本身的行为类别中,而“人的自由意志支配之下的举止”这个行为定义可以被置换为另一种概念:即是否为人类的故意决策而呈现的内容。对人工智能致害的归责判断应当围绕与模型本身的行为与决策有关的现象展开,谁的行为制造了支配模型引发侵害结果的风险,谁就应当对该结果承担责任。而行为结果与行为存在着不可忽视的联系,只有行为存在侵害的可能性,才能现实地转化为侵害结果,故侵害的主观意志以及因果关系也应当是追究至是行为实施之时。生成式人工智能的设计行为对于该模型最终引发侵害结果的整个过程起到了重要的作用,判断该智能产品设计者在设计时是否存在过错是对人工智能产品引发的侵害结果进行归责时必须解决的问题。

需要明晰整个生成式人工智能模型的运作及算法原理:算法是人工智能模型的基础,算法的更新迭代、训练完善是应对现实生活中与人进行交互时可以应对各种情形的重要技术基石。而目前的算法技术进步迅速,其计算和学习方式已经由原本的监督学习改为非监督学习,无需人类知识和经验的指引。监督学习和非监督学习都属于机器学习算法的一种,监督学习属于传统机器学习,非监督学习属于作为全新机器学习种类的深度学习。人工智能产品依赖的机器学习算法能够在没有人类参与的情况下在后台自动运行,其内部结构属于一种深度神经网络,深度神经网络从经验中学习,由成千上万个人造神经元组成,这些神经元对信息的判断不能简化为固定的顺序,单个或单独一组的神经元也不能单独决定说哪个信息重要或哪个信息不重要,而是奉行一种交互式联系的理念,各个人造神经元进行一种分散式的通力合作,共同对最终的输出所依赖的外部信息进行决定,进而作出最终输出。也就是说,在这种神经元的决定下,依赖外部信息作出输出决策或者命令,甚至可以说是一种直觉型的后果,因此算法设计者也无从知晓,究竟最终会输出何种结果。绝大部分机器学习的结果,无论是与输入信息的因果关系有多么的相关,或者逻辑上是多么的融洽,也无法准确无误的断定其究竟用的是何种原理。输入数据的庞大性,算力的复杂性,算法的多重迭代性,都会使其最终变得无法解释,这也就是学术以及生活上经常讨论到的“黑箱”。因此,机器学习算法的整个算力过程无法被全程监控,其学习过程对于算法研究人员来说也不是完全透明的。

所以,人工智能产品引发侵害结果时,情况会发生根本性变化。人工智能产品依靠自身搭配的算法根据外部信息进行决策,进而对机器发出指令,这个过程并不包含自然人,因而人工智能产品致害的整个过程都没有人力决策的参与。因此,在人工智能产品引发危害结果时,犯罪过失判断的核心应当是人工智能装载的算法决策的不确定性,而不再是人力决策的不确定性。而算法设计者在此过程中的归责原理应当是什么样的才是我们讨论的核心内容。

三、法律风险规制及模型设计者侵权责任体系的探索

当前的生成式人工智能的发展和好处已经十分明显,它可以极大程度的提升人们的生产力,也可以让人们从繁琐的基础工作当中脱离出来,无论是民用还是商用;打破知识壁垒以及改变传统学习模式都有着十分重要的作用。可以说,这方面的研发和投用已经成了大势所趋。《生成式人工智能服务管理办法(征求意见稿)》收集发布之后,就引起了广泛剧烈的讨论,有人认为其可以在规范带领企业和设计者方面有积极的作用,也有学者认为,在如此严苛的监管模式和条件下,会严重阻碍其发展。但是我们应当看到的是,这些监管条件的难度及问题。

模型提供者和设计者方面,《生成式人工智能服务管理办法(征求意见稿)》中主要涉及的条款是第4、5、6、7条。第4条提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗。第5条要求包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。第7条要求提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。

法律与技术的关系并非简单的治理与被治理的关系,他们需要相互促进,也具有相互的作用力,更是表现为被需要与需要的关系。技术在不同的发展阶段,往往具有不同程度的需求,这种需求也表现出相当大的差异化特点。我们能看到这种治理规范包括了产业促进制度,或是禁止性规范,或是对既有立法体系的法律解释与概念重述。在目前ChatGPT技术尚未落地应用之前,过于超前地规划立法方案和制度建构路径,会产生制度成本的浪费,更有甚者,可能会压制技术的创新。

首先,数据来源复杂、追溯难,数据的准确性很难100%保证。对于大多数提供生成式人工智能产品服务的企业来说,训练数据可能来源于开源数据库或通过第三方采购,理论上确实应当保证个人信息的安全性、不侵犯他人知识产权、确保训练数据授权链条的合法合规性。但在实践中,由于部分训练数据的开源性及体量巨大,难以从源头追溯,企业可能难以100%确保数据的真实性、准确性、客观性。

第二,利用涉及个人信息的数据训练模型,取得个人信息主体同意也比较困难。对于利用涉及个人信息的训练数据,如果要求提供者对此类数据的处理必须以获得个人信息主体同意为合法性基础,由于涉及的个人信息范围较广,在落地上可能存在较大困难。

第三,在模型训练过程中的数据和文本,难以经过细致的人工审核,在这种算法黑箱的条件下,无法对每次的迭代和学习做到百分之百的合乎道德和法规条款。

在法律领域,责任可以分为过错责任和严格责任两种。在新数字时代,人们主要对过错责任的概念提出了挑战。在传统过错责任学说中,归责的主要条件是控制力条件,即行动因此,让发展中的模型提供者以及设计者以最理想最严苛的标准来进行规范,在目前看来具有时间和逻辑上的为难之处。因此,可以以危害结果的出现作为归责的前提,将严苛的管理规制条款进行进一步的标准明晰。最重要的是在确定发生的损害结果和侵害行为上可以进行追踪和归责,体现有责任才有规制的效果。应对独属于当前社会和科技的变化,让人工智能侵权过程中呈现新的规制方式,让法律真正起到作用,有以下几种进路,有学者认为应当重新订立适用于生成式人工智能相关的新的侵权责任法律。对于人工智能法律制定的问题,从最开始提出人工智能想法的时候就已经有所思考。人工智能主体地位的观点、人工智能侵权责任体系的搭建,都是较为引人关注的话题。因此,人工智能责任立法也是不断被提及的观点。在区块链、元宇宙等领域同样存在类似问题,专门立法和配套措施等治理思路并不能真正解决这些问题,同时还可能会致使法律偏离原本的功能定位。网信办自创立之处开始,就承担着进行灵活的监管条例的设立,从互联网算法、深度内容、推荐算法方面都发布了不同程度的监管条例,是各个互联网企业和组织在进行合规设置时的主要依照。行业监管条例是以公法的身份来进行治理。因此,这些学者的观点是在这些监管条例起到公法作用的前提下,进行新的私法规制。也有类似的观点认为是在已有的侵权责任法律体系中添加关乎于人工智能责任的相关条款。为人工智能设计者和提供者添加特殊的条例来进行强调和补足。

最后是对现在已有的条款进行解释,应对当前的人工智能现状。人工智能生成内容技术的现有规范多是公法领域下的监管性要求。但对于私法方面,不可否认的是,就AIGC技术的发展水平及其当下应用情况而言,采取“传统法律修正”的模式才是一种可行的进路,但这就要求我们合理使用法律解释技术,以解决好AIGC技术所带来的诸多问题。对于人工智能领域下的侵权问题,采取民法典中的侵权法进行处理;对于数据保护方面,如果服务提供者在使用服务之前有专门的授权和处理协议,可以按照合同法的基本法律规范进行处理等。以下内容作为具体的阐述:民法典继承了原侵权责任法的二元归责体系,即以过错责任为主,无过错责任(严格责任)为补充。无过错责任的适用具有严格的法定性,这就意味着,由于法律没有特别规定,对于人工智能生成内容场景下相关主体侵权责任的判定只能采取过错责任的归责原则。但事实上,适用单一的过错责任原则难以解决生成式人工智能技术所带来的诸多侵权难题,一是该场景下受害人的举证难题问题,二是该技术潜在的侵权风险与其侵权成本之间的高度不对称性。呼吁适用无过错责任而非过错责任的主要原因之一便是考虑到生成式人工智能技术的独特性,尤其是“黑箱”问题严重影响了相关民事主体之间的法律关系的可预测性与相对稳定性。但是这种传统无过错责任直接降低生产者对于新科技发明的积极性。机器学习算法的复杂性、不透明性会导致侵害结果发生之后的因果追溯与归责更加复杂,机器算法导致模型的决策“行为”缺乏可理解性与可预见性,进而使设计者不太可能对智能产品装载的算法决策所引发的危害结果历程存在具体预见可能性。因此,人工智能产品致害缺乏事前的预见可能性,是其最重要的特征。但是我们在考虑归责问题的时候又如何不考虑行为人对于该结果的避免可能性呢?

科学技术的不断进步,其能力和限度也逐渐打破原有的限制,进入了人类安全稳定的领域,自然会让人们产生畏惧和担忧。因此,科学技术的利用者和发明者,必须承担人类共同命运的责任感。这是我们人类共同认可的观点。那么说到科学技术可能会发生的危险是否应当被技术运用者所避免,而避免的前提自然是预见。这种预见不是指危害结果发生具体的时间、地点和情况,而是对危害结果的基本部分存在预见。当然“危害结果的基本部分”不能孤立地考察结果本身,而应考察危害结果发生的整个因果关系历程的基本部分。在法律学说上有一基本的要求,即具体预见可能:要求行为人可能预见的不法构成要件事实必须能够在构成要件要素层面上进行抽象把握。具体到智能产品致害的因果历程中,具体的预见可能性要求是:虽然不要求算法设计者。也就是说,在人工智能设计者者的角度来说,不要求具体预见到算法的哪一个决策会导致哪一个时间、哪一个地点的哪个(群)人受到什么程度的损害,但是要求设计者预见在特定情况下算法的某一个决策的内容,以及这个决策会给人造成什么损害。因为如前所述,算法决策的不透明性会导致法律判断谁在控制算法系统的风险或者识别哪一种代码、行为、输入值或数据最终引发了危害结果的代价非常高昂,甚至无法做到,这种因素会导致行为与危害结果之间的因果关系历程很难被判断。由此可以看到的是模型设计者的措施行为对于预见可能性的结果回避义务关联性。同样的,对于模型和算法的设计来说,低程度的结果预见可能性对应比较容易采取的结果避免措施;高程度的结果预见可能性则对应立即停止其行为的负担较大的结果避免措施。

理性一般的人工智能产品算法设计者应当避免在设计算法时添加含有偏见的价值理念。虽然算法设计者无法准确预知自己设计的算法到底会作出怎样的决策,但是设计者至少可以决定用什么样的理念来设计算法。人工智能产品的算法设计者在设计装载于智能机器上的算法时,应当避免将一些不正常的,乃至明显歪曲的价值理念植入算法之中,这些不正常的价值理念应当满足一定标准:不正常的价值观是为我国社会公众普遍反对或者不赞成的价值观,而不能是只被一小部分甚至个别人反对的价值观。理性一般的人工智能产品算法设计者应当在设计时检验“投喂”给算法系统的数据质量。比方说,海量的数据抓取不能够承担每一个数据都有效的检察和监督,但理性一般人可以预见数据抓取的来源有可能是来自不法网站,并且由此进行几轮筛查。理性一般的人工智能产品算法设计者会注意设置相关警示内容,如果人工智能产品输出的内容是含有非正常价值观的内容,可以进行适当的警醒。比方说人工智能产品输出不符合普世价值观内容的时候,呈现出一般警示选项,是否进行举报等。

因此,如果出现人工智能模型的侵权危害结果,可以通过合同法的侵权责任进行解释和个案灵活运用,极大程度的减少立法冗杂问题。而对于数据保护和数据利用方面,数字交易和数据商业分析是当前的数据利用的重点内容。在这一领域中,合同法在极大程度上可以起到制约作用,交易和平等双方之间的联系中,意思自治原则是核心内容。当事人可以自主选择或决定是否缔约、与谁缔约、合同内容、合同形式以及合同的变更解除。因此,在这种意义上,模型使用者可以在很大程度上决定是否用、如何用自己的信息,是否需要对其进行分析和商用,如果突破了双方意思自治的界限,其违约方是要为其违反合同和意思自治的行为负责。合同法具有鲜明的合意性品格,可以通过当事人约定排除或限制国家干预,并根据当事人的意志进行条款的设计与改变。随着数字社会的技术发展,模型提供者和设计者与使用者的关系可以很大程度上对双方的意思自治关系来进行解释。

在网信办发布的《办法》中进行适当的责任标准明晰,减少过度的事前干涉,结合侵权责任标准和损害结果产生后果的责任承担路径,对其进行解释。因为过度的事前干涉首先由于算力和数据的体量较大,网信办等部门进行严格审查的难度过大,容易沦为形式审查形同虚设的后果。首先,国家支持人工智能算法、框架等技术的自主创新、推广和应用合作,以安全可信为导向,以提供者和设计者正确的价值观引导算法的设置。以一般理性人的标准进行算法理念的适用。排除合理的不法、不健康、涉黄、涉暴的明显危害信息,避免造成绝对的侵害结果。对于明显算法设计者人工引导下(即算法经解释含有故意歪曲的价值观内容)的进行严格的责任承担标准。其次,对于算法黑箱产生的模糊内容,比如歧视、虚假等次危害的信息,以一般理性人的角度进行适度避免,不需要模型设计者和提供者真正对何时何地的具体何种情况产生明确的认知,但需要其产生整体的可能性认知,并排斥该结果的输出,采取一般理性人会采取的避免措施,比如事实抽查、提示用户等措施的要求。第三,算法设计、训练数据选择、模型生成和优化的预训练中,若不产生具体的侵害结果,对于数据抓取和文本训练在一般理性人的尊重知识产权和道德标准上可以适当放宽。再未产生具体侵害结果的情况下,严格要求生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责,并进行停止开发和市场下架等处罚会对科学数据资源以及人力成本产生一定的浪费,并且产生打击科学技术进步积极性的后果。第四,对于算法画像、推荐算法等个人信息处理,可以采取意思自治原则,增加知情同意和算法解释的要求。在满足意思自治和数据授权的基本原则之下,若违反意思自治的原则,需要承担违约后果。

结语

大型生成式人工智能已经成为世界人工智能领域竞争的新赛道,以ChatGPT为代表的一批风靡全球的应用技术为人类谱写数字化生存的新篇章提供了无限可能。掌握人工智能治理的话语权、规则制定权,抢先形成新的国家竞争优势,已经成为世界不同法域的努力目标。我国在信息技术领域和立法领域,可以说与欧盟、美国在进行分秒必争地努力。谨慎的态度是我们面对任何挑战和发展必须要有的意识,但过强的监管并不一定形成制度竞争优势;符合我国现实发展以及国际形势,能够促进我国生成式人工智能产业长远健康发展的监管和治理制度,才是我国真正所追求的目标。欧盟即便其技术发展并不属于强力发展状态,但是正在不遗余力地努力成为人工智能及信息数据治理的先驱。在这一背景下,既保障急用先行,避免新兴技术带来的问题,又不急于推行过于严格的人工智能方案以提高制度的可用性,是我国人工智能立法和治理的努力方向。一方面在算法监管的经验与框架中,继续推进生成式人工智能的治理;另一方面在其探索中,为未来统筹算法、算力、数据的人工智能治理作出更多有益尝试和鼓励,计算机发展是我们新一轮不能落有于国外的重要步伐。在这条赛道上,我们充满敬畏,同时也充满希望。

往期精彩回顾

罗艺 潘璐 ChatGPT4:现状、风险与法律回应

潘香军 论机器学习训练集的著作权风险化解机制

裴丽佳 纪福和 比较法视野下cookie法律保护“双重构造”的提出——兼论cookie“同意规则”的规范构造与标准调适

吕纯顺 AI换脸侵权问题研究

陈欣 金权 我国医疗人工智能侵权规制的演进、特征及难点探析

慕晓琛 | 人工智能时代独创性判断标准之坚守

上海市法学会官网

http://www.sls.org.cn

展开阅读全文

页面更新:2024-03-06

标签:人工智能   设计者   提供者   模型   责任   内容   算法   法律   数据   技术

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top