张学博 王涵睿|生成式人工智能的法律规制-以ChatGPT为例

张学博 中共中央党校(国家行政学院)政治和法律教研部教授

王涵睿 中共中央党校(国家行政学院)硕士研究生

研究机构OpenAI发布的ChatGPT聊天机器人掀起了人工智能的新一轮研究浪潮,也引发了公众对于生成式AI可能威胁人类发展的担忧。目前,ChatGPT可能会引发著作权归属争议、隐私数据泄露、社会不平等、公序良俗受到冲击等问题。对此,要结合我国实际情况采取事前审查、事中监管、事后追责等方式,为生成式人工智能行业平稳有序健康发展保驾护航。

一、生成式AI发展过程及现状

2022年,人工智能领域的新热点无疑是“生成式AI”(Generative AI)。不同于过去的“分析式AI”(Analytical AI),生成式AI采用深度合成技术,通过各种机器学习(Machine Learning)方法从数据中学习对象的组件,进而生成全新的、完全原创的内容(如文字、图片、视频)。这些内容是以训练数据为基础生成的,并不是简单地对学习数据进行复制,也不是对原有数据进行打乱重组。

生成式AI首先在图像生成领域取得重大突破。2022年4月,美国人工智能研究公司OpenAI发布了Dall-E2,这款图像生成AI可以根据用户对内容的描述和形式的要求迅速生成对应的图形,且不限制用户进行夸张的描述。随着言语描述生成图形的AI概念迅速爆火,比Dall-E2表现更出色、更人性化的Stable Diffusion模型迅速走红。Stable Diffusion可以按照使用者的需求,产生一系列的照片。如果使用者认为某一图片更好,就可以把它作为种子保存起来。通过这种方式,该软件能够记住该图像的基本组成风格,并在以后的图像制作中根据该图像作一些修改,使用户得到更为满意的图片。

在图形生成型AI大获成功的同时,文本生成型AI也在逐渐发展壮大,其代表作品就是ChatGPT。ChatGPT也是OpenAI旗下的产品,是“Chat Generative Pre-Trained Transformer”的缩写,即“生成型预训练变换模型”,或可直译为“聊天生成器”。该系统不但能在互动时,对使用者提出的一些简单问题进行流畅回答,而且能在使用者的指导下,比较复杂的任务。例如,用户只要列出大纲、提出要求,其就能在较短时间内迅速撰写出一部符合条件的小说。还有人将ChatGPT和Dall-E2组合使用,将ChatGPT对文字的理解和转化运用到Dall-E2上,使其生成对应的图片,这比单独使用Dall-E2完成的作品更为出色。

北京时间2023年3月15日凌晨,OpenAI发布了多模态大模型GPT-4,并迅速引爆全球舆论。GPT-4的前代产品,正是2022上线两个月狂吸1亿用户的ChatGPT大模型GPT-3.5。与GPT-3.5相比,GPT-4除了支持多模态外,其对自然语言文字的处理也在多个层面进行了增强,安全性也有了更大的提升。首先,GPT-4可以对屏幕上的图片、图表、文档等图文交织的信息进行处理,并将其作为文字输出,而非仅重点处理用户输入的文字信息。其次,GPT-4可以读取、分析或生成的文本长度达到25,000字,大大超过了GPT-3.5的3000字上限,它可以被用在诸如长篇内容创作、扩展对话以及文档搜索和分析等方面。最后,GPT-4比GPT-3.5更能应对复杂微妙的场景。比如在一次模拟律师考试中,GPT-4的分数在应试者中排名前10%,而GPT-3.5的得分排名在后10%。说明GPT-4在专业测试中的表现更接近人类水平。

人们被GPT-4的卓越能力惊艳的同时,对于人工智能接下来会向何处进化、是否会威胁人类的担忧也越来越多。当地时间3月23日,包括Mila-Quebec AI Institute创始人兼科学总监Yoshua Bengio在内的数百名人工智能和技术领域的关键参与者日前共同签署了一封由Future of Life Institute发起的公开信,要求人工智能实验室立刻终止针对比GPT-4功能更强的AI系统进行的训练,并至少持续6个月。在此期间,人工智能领域的研究人员和行业参与者应该共同制定一系列安全规范,以确保AI技术的安全性和可靠性,并对技术发展进行严格的审查和监督。

二、生成式AI对我国当下法律体系的挑战

(一)著作权等知识产权归属争议加剧

生成式AI所创作的作品是否能够受到著作权法的保护,这不仅关系到未来人类对文学艺术作品的创作,更与人工智能的发展路径息息相关。如果说,曾经的AI只是从已有作品中提炼要素并重新组合,这种产物没有独创性也没有内在的理解与思想,因此不能被认为是作品,那么ChatGPT的出现无疑对知识产权领域这一观点产生了巨大冲击。3月16日,美国版权局(USCO)发布的美国法规第202部分中规定,通过Midjourney、Stability AI、ChatGPT等平台自动生成的作品,在整个创作过程中完全由机器人自动完成,并且训练的数据是基于人类创作的作品,因此,不受版权法保护。而在我国,著作权法中没有对此问题进行明确规定,理论界和实务界均没有达成统一共识,且这些争论在面对ChatGPT这一生成式AI时,又会发生新的变化。

首先,对于人工智能产品是否具备了作品的特性这一问题,学界对此的讨论大多集中在“独创性”问题上。反对者认为,对于人工智能生成的内容是应用算法、规则和模板的结果,即便在表现形式上与人类创作的作品几无差别,但其生成过程没有给人工智能留下发挥其“聪明才智”的空间,不具有个性特征,并不符合独创性的要求,因此不能构成作品。而深圳市南山区人民法院在个案中则采取了赞同的立场,其认为具体认定是否属于创作行为时应当考虑该行为是否属于一种智力活动以及该行为与作品的特定表现形式之间是否具有直接的联系,软件的自动运行并非无缘无故或具有自我意识,其自动运行的方式体现了原告的选择,因此,从涉案文章的生成过程来分析,该文章的表现形式是由原告主创团队相关人员个性化的安排与选择所决定的,其表现形式并非唯一,具有一定的独创性。然而,无论是赞成还是反对观点,都是建立在人工智能不具备自主意识的基础上得出的结论。随着ChatGPT的广泛应用,其深度学习和分析数据的能力使得它不仅仅只是程序算法,而是逐渐具备人类特有的独立思考能力。它可以在读取已有数据的基础上,创造性地给出自己的答案,“使得程序算法和独立思考的界限进一步模糊”。那么是否可以认为,生成式AI的产物的表现形式以及内容,在思想上与人类作品几乎没有什么区别,已经满足了法律所规定的最低标准的独创性。

此外,著作权的权利义务归属仍不明朗。ChatGPT使用协议第3(a)条指出“在现行法律允许的范围内,用户拥有输入内容的所有权,且在遵守协议前提下,OpenAI公司向用户转让输出内容的所有权利权益。从双方职责划分来看,OpenAI公司遵守法律法规及协议,可在必要的情况下可以使用用户提供的内容。用户对内容负责,包括确保不违反任何现行法律或用户条款。”OpenAI企图通过这一内容强调ChatGPT的技术中立原则,但这项条款却颇有推卸责任的嫌疑。基于ChatGPT算法模型的复杂性和“算法黑箱”的存在,普通用户很难完全了解ChatGPT的操作逻辑,对其产生的内容没有对应的预期,司法人员也无法通过检查和分析来判断侵权行为是否在算法运行过程中产生,导致用户实际上处于不利地位。

(二)隐私数据、商业秘密泄露风险增大

人工智能的普及使得人们的日常生活越来越趋于“透明化”,当我们面对众多选择难以抉择时,人工智能可以根据对历史记录、行为模式和当前情况等日常数据的分析,以最小的成本和最快的速度帮助我们作出最明智的选择。这虽然为我们的生活带来极大的便利,但背后隐藏的巨大数据隐私泄露风险也不容忽视。OpenAI为ChatGPT提供的在线文本数据,包括约3000亿个来自书籍、新闻文章、博客、社交媒体、百科全书和其他来源的单词。然而,目前ChatGPT仍属于算法黑箱,OpenAI并未对外公示所使用的数据来源,相关训练数据库是否均获得授权还存在疑问。另外,当用户与ChatGPT进行交流时,其输入的信息也可以成为它学习的对象,且ChatGPT使用协议第3(c)条“为了帮助OpenAI提供和维护服务,您同意并指示我们可以使用内容来开发和改进服务。您可以在这里阅读更多内容,了解如何使用内容来提高模型性能”也表明了OpenAI不会对输入的信息进行监控和保护。如果有人恶意将他人信息导入其中,那么被侵权人不但无法确定侵权人的真实身份,还要忍受自己的隐私被分析、编排甚至杜撰的痛苦。另外,ChatGPT的出现也使商业秘密被侵犯的可能性大大提升。某一公司的工作人员在使用ChatGPT时很可能会无意间透露如工作薪水、内部组成等直接影响到企业运营和技术的信息,这些信息被捕获后,若有恶意第三人进行诱导性提问,那么ChatGPT很可能会全盘托出。恶意第三方的侵入也会使得商业秘密被泄露,这里不仅包括第三方直接盗取数据,也包括黑客植入算法病毒造成数据污染。

(三)造谣成本显著下降

一些别有目的的使用者可以利用生成式AI模型,自动产生大量有说服力的误导和不实信息,以达到暗中操控舆论的目的。ChatGPT的横空出世为这一问题带来了更大的挑战,即使是最普遍的AI换脸都需要被侵权人通过细节来证明内容虚假,那么面对GPT这种拥有超强学习能力且可以自主生成看起来毫不虚假的视频或图片的生成式AI,未来被侵权人该如何有效地收集证据来对抗侵权人,值得深思。

(四)冲击公众对法律的认知

2023年1月30日,哥伦比亚一名法官在审判一起孩童医疗权案件时使用了ChatGPT,并最终作出一份关于自闭症患者免于支付治疗费用而获得医疗服务的法庭判决,引发争议。这名法官表示,在与ChatGPT的沟通过程中,它不仅援引了法律来进行说理,还指出宪法法院曾有过类似的有利判决。最终这名法官采用了ChatGPT的答案,但表示“ChatGPT和其他类似程式在拟定审案文本草稿的时候很有帮助,但目标并不在于取代法官”。尽管法官宣称,使用ChatGPT来协助审判具有诸多优点,但由于现有的证据表明,AI可能会带来偏见,甚至是错误的信息,因此,许多人工智能伦理研究人员并不赞成这种做法。关于这个问题,我国最高人民法院于2022年12月印发了《关于规范和加强人工智能司法应用的意见》,其中明确指出:无论技术发展到何种水平,人工智能都不得代替法官裁判,人工智能辅助结果仅可作为审判工作或审判监督管理的参考。

人工智能对于法律体系的冲击远远不止于此。随着网络技术的发展和日趋成熟,人们在购买法律服务时,往往会选择更加标准化、能够由电脑操作的法律产品,因为这意味着成本的降低。人工智能的出现使得成本变得更低,它可以整合全局性数据,使公众从最初的仅认识法律规范,演变成了解条文的运作结果。ChatGPT出现后,基于其强大的学习能力,人们不仅可以通过它得到问题答案并明确法律依据,甚至可以输入自己的信息,让它给出个性化的意见和建议。在人类与人工智能的互动过程中,人们对于法律的认知实际上由原来对单一的立法权威所制定法律规范的认识,逐步被重构为不同的当事人与不同人工智能之间复杂博弈之后形成的状态。当法律活动的参与者与法律规则紧密相连时,规则算法已与现实情况相结合,对于不同的个体来说,即使他们承认自己被一条普遍的法则约束,产生的个体化影响也是不容忽视的。法律规范从一般化到个人化的转换,其实质是一种或然性的转化。正因如此,如果ChatGPT受到大量错误信息的训练,公众的认知就会与专业司法团队的判断形成冲突,最终势必导致一方对另一方的妥协。

(五)垄断现象愈加严重

在人工智能高度发达的当代社会,一些本属于私人的财产或自愿或强迫为互联网巨头企业共同享有,这给他们带来了巨大的垄断利益,且这种垄断利益遵循收益递增规律。在用户与ChatGPT对话的过程中,出于效率的考虑,他们会将自己的信息交给AI使用。长此以往,掌握公众数据的人工智能企业将逐渐拥有实质权力。生成式AI的兴起可能会加剧科技巨头公司的垄断地位,造成市场实际不平等现象。据估计,OpenAI需每天花费10万美元来支撑ChatGPT的运行,这其实是很多企业无法进入这个行业的成本壁垒。大型互联网公司不断投入研发资金,小企业又无法进入市场与之抗衡,导致行业垄断现象愈发严峻。

(六)对公序良俗提出更高挑战

ChatGPT可能会使主流群体的偏见和歧视更加隐蔽。尽管OpenAI在发布产品前投入了大量的人工运力进行训练,以使它尽量地保持其中立的态度。但随着ChatGPT面向公众公开,大量用户成为训练它的主力军,OpenAI进行人工干预的成本显著增加,这就使得歧视问题更加无法避免。研究者们从GPT-3开始就在思考这个问题,但一直没有找到有效的对策,只是给了一些类似于“创可贴”的方法,不能从根本上解决问题。ChatGPT以“理性、中立、客观”自居,实际上其本质已经超越了技术工具的范畴,而是“一种涉及权力配置的意识形态引导的技术范式”。在人工智能技术所形成的政治科技互嵌、真假混杂的背景下,意识形态风险表现为“隐蔽化、全域化、复杂化、动态化”的特征,而AI可以准确模仿极端主义内容,并将个人激进主义化为极端主义意识形态。简言之,使用者根据其自身的主观意志与价值判断对ChatGPT进行训练,那么它将会延续这种价值判断。

ChatGPT也使得诚信问题受到广泛关注。2023年1月,在线课程平台Study.com公布的一项调查结果显示,超过89%的学生使用过ChatGPT完成课后作业,更有50%以上的学生曾使用ChatGPT撰写论文,这一数据在ChatGPT受到广泛关注后呈明显上升趋势。2023年1月27日,《科学》系列期刊的主编HoldenThorp公开表示,《科学》及其子刊不会接收由ChatGPT所写的文章,因为不适当的引用可能存在剽窃风险。除学术论文外,ChatGPT另作品、艺术品的原创性存疑会增加基于信任的交易成本,最终导致社会信用度下降,甚至催生虚假广告、文章造假等黑灰产业链。

三、生成式AI规制制度构建的域外经验

人们对生成式AI这一新兴事物的认知仍然随着它的发展在不断变化,目前各国没有单独针对它颁布法令。但由于其本质上仍属于人工智能,因而对各国关于人工智能的法律规范进行分析,也有助于我国未来应对挑战,并为制度构建指引方向。

(一)美国在促进发展同时兼顾数据保护

英美法的变革较为缓慢和保守,倾向于“向后看”。但是,在对人工智能进行法律规范方面,英美法的发展却是处于世界领先地位的。以美国为例,它的人工智能发展方针是通过对人工智能的长期投入来维持其在该领域的领导地位。而在AI领域,美国更关注在不过多干预的情况下,鼓励人工智能技术的发展。

2019年2月11日,《维护人工智能领导地位的行政命令》的签署,标志着美国人工智能计划的启动。该命令指出联邦政府将制定跨技术部门的人工智能发展准则,并制定完整的人工智能治理方法,以增加对人工智能系统的信心,各部门的专业组织也可以提供专家意见。除此之外,《国家人工智能研发展战略计划:2019更新版》中明确表示必须认识并处理人工智能对法律及社会的影响,以保证其安全性和可靠性,为人工智能培训和测试创造适宜环境和开发公共数据集,并为衡量和评估人工智能制定基准。可以看到,尽管在立法层面上美国提出了制约AI的方案,但在后续动作中仍是以鼓励发展为首要目的。

(二)欧盟在保护基础上关注AI发展

欧盟在数字领域的发展略逊色于美国,因此它对人工智能采取了更加侧重立法和监管的路径。2015—2017年,欧洲议会通过了《欧盟机器人民事法律规则》,目标是在欧盟范围内,建立一套有关人工智能的民事规则,包括其法律地位、民事责任、设计原则、知识产权、标准化和安全保证等。2018年12月,欧盟委员会人工智能高级专家组发布了《可信赖的人工智能伦理准则草案》,建议将“值得信赖的人工智能”作为技术开发和应用的前提条件和原则,这包括“道德目标”和“技术可信性”的内容,强调人工智能的开发和应用必须符合欧盟条约和基本权利宪章中的基本原则和价值观。为此,可问责性、普遍性、人工智能自主决策的监督、非歧视性、尊重隐私、可靠性、安全性和透明度等原则必须被纳入人工智能发展的初始阶段,并在后续发展中不断予以保证。

在数据保护方面,2018年5月25日生效的通用数据保护条例(General Data Protection Regulation,简称GDRP)表现了欧盟对数据问题的重视程度。该条例旨在直接限制企业收集公民信息并利用算法的权利,也对滥用免责条款规避法律责任的问题进行了有效的控制,以确保数据的安全和透明处理。GDRP的针对对象非常广泛,既包括欧盟境内处理个人信息的公司,也包括境外处理欧盟公民个人信息的公司。在处理原则上,GDRP明确表示需要遵循目的限制、存储限制、完整性和保密性等原则,同时也赋予了欧盟居民诸如被遗忘权等关键权利。当ChatGPT在处理个人信息隐私时,它需要遵守GDPR关于数据处理的要求,如果企业未能遵守规定,将会被处以2000万欧元(2170万美元)或高达年收入4%的罚款。意大利对OpenAI的拟处罚决定就是基于此条款作出的。

然而,ChatGPT等人工智能的底层算法逻辑与数据保护存在天然的矛盾性,若对其过分监管又会对它的发展产生一定程度的限制,近几年欧盟也逐渐意识到这一问题。2021年,欧盟委员会发布了人工智能法的提案,指出欧盟需要一个新的人工智能监管框架,在这个框架内,AI的设计和开发阶段将受到公众的监督,欧盟既可以实现低成本的监管,也不会导致人工智能的发展背负不必要的负担。为了找到一个合理的平衡点,欧盟采取基于风险的策略,根据风险等级和应用程度进行分类,以最小的法律成本实现更大的公共利益。这些方式将有助于公众更加信任他们使用的AI,且对运营商来说更有利可图。但是,目前人工智能的监管多集中在传统AI模型上,很少关注以ChatGPT为代表的生成式AI模型。为了达到这个目的,欧盟委员会正在尝试制定更多的规定来规范这些技术。

作为欧盟内具有代表性的国家,德国的AI技术发展较早,但是后继乏力。德国在制造方面有着天然的优势,拥有强大的人工智能研究基础。然而,由于德国在人工智能领域的人才与投资上并没有那么积极,这就给知识转化造成了一定的阻碍。德国的人工智能研究主要集中在解决其伦理问题上,其中最关切的就是它潜在的操控、提供不实信息,以及可能导致失业的风险。德国在人工智能方面的立法比较落后,而且其对个人隐私、数据的保护非常严格,这些都不利于AI对信息的获得,造成了其发展的后劲不足。

(三)实践经验分析

纵观美国与欧盟的规制路径,在经历了反思优化后,二者均在促进人工智能发展的同时强调对个人隐私信息的保护。我国不仅要促进人工智能技术的成熟以应对世界挑战,同时也必须注意到我国对于个人信息的保护仍处于较低水平,必须继续完善相关法律法规。科技与法律并非对立排斥关系,只有找到二者的平衡点才能保证人工智能在合理范围内创新发展。同时也要看到,美国与欧盟对人工智能带来的其他问题并没有太多关注。关于生成式AI在我国发展中可能产生的一系列问题,需要结合我国实际情况找到合理的应对措施。

四、生成式AI法律规制的未来展望

(一)坚持生成式AI为非法律主体

对于人工智能可否在法律上享有主体地位,学界存在诸多争议。刑法学者大多反对人工智能成为刑事责任的主体;而在私法领域,在私法领域,人工智能的法律资格之争主要分为全有、部分、全无三类,分别主张人工智能与自然人的主体性完全等同、人工智能类人型的准主体性、人工智能仅为与主体相对的“物”的存在。笔者认为,尽管目前AI的发展突破了传统边界,具有“生成式”特点,但仍不应将其作为法律主体对待。生成式AI,虽然它在某些方面已表现出学习能力,不需人类训练即可自行得出答案,但算法仍为它的底层逻辑。换言之,生成式AI依旧没有独立的思考能力和自由意志,没有作为理性主体的基础,不符合以人为主体的法律规范的设定前提。

此外,赋予生成式AI法律主体地位无助于规范其行为。如人工智能作为法律主体,那么它就应当承担相应的民事、行政或刑事责任。然而,就民事责任而言,因AI不具有独立财产能力,在侵权行为发生后缺乏偿付损失的能力,受害人也就不能获得实际的赔偿或补偿。司法判决的“执行难”问题会更加难以解决,致使法律无法起到救济作用。就行政和刑事责任而言,尽管在一些例子中可以看到Chat-GPT在恐吓下对于“生死”有同人类几乎一致的理解,但这种理解也是在人类的训练下产生的,其本身并不会产生直接感受,因而行政和刑事责任中限制人身自由的惩罚对ChatGPT来说形同虚设,也就无法发挥法律本身的惩戒作用。更为重要的一点是,如果将生成式AI视为法律主体,那么程序员在修改其内部代码时,是否可以被认定为“故意损害他人身体”从而要求程序员承担法律责任?显然这完全不符合公众的认知,也不恰当地扩大了法律的适用范围。

将生成式AI视为法律主体也会弱化人的主体地位。长久以来,人工智能一直被作为人类降低劳动成本、提高生产效率的工具,生成式AI的出现也不会打破这一局面。若承认AI作为法律主体,人与人工智能在法律上即处于平等地位,人类也就失去了将它作为工具使用的合理性,亦不能以保护个人信息等为由限制其发展。世界的属人性会受到严重冲击,最终人类有可能成为人工智能的附属品。

(二)对生成式AI进入国内市场进行有效监管

通过对我国互联网行业发展历史和监管经验的梳理,在互联网等新技术、新事物、新业态刚刚兴起之时,“尽量降低事前准入,强化事中事后监管”的战略被清晰地提出,但这并不意味着我们对于生成式AI在国内的发展持完全放任态度。目前,以ChatGPT为代表的生成式AI的通用语言仍为英文,其仍不具有进入国内市场的条件,这为我们推出监管措施提供了相对充足的时间。

在批准ChatGPT进入中国市场前,需要考虑至少三方面的问题:第一,对敏感信息的审查管控。在不同文化背景下,涉黄、涉政、违法内容均会有较大差异,监管重点也大有区别。此外,西方国家的歧视问题主要围绕的是种族问题,而中国的歧视问题则更多地集中在权力、金钱、势力等因素上,因此暗含的歧视风险也必须成为审核重点。第二,进行数据安全评估。这里的数据安全,不仅指ChatGPT本身对于用户数据的利用和保护,也包括第三方侵入所可能导致的泄漏风险。在各种交易平台上,已出现了很多VPN供应商、“中间商”,甚至是盗版ChatGPT的卖家,若ChatGPT进入中国市场,可能导致恶意第三方获取信息更加便利,致使ChatGPT本身的数据保护条款成为空文。第三,对我国企业独立研发属于本国的生成式AI的阻碍程度进行分析判断。国内许多互联网公司也纷纷表示要推出自己的生成式AI。如同意ChatGPT等国外产品进入,则要保证其不会大范围挤占国内市场,从而保证本土产品能够持续发展。

(三)国家有关部门适当介入保障用户数据安全

对于类似ChatGPT这种具有强大深度学习能力的生成式AI来说,仅有代码层面的制约和公众的监督是远远不够的,必须有国家强制力保证其被合理使用。在组织机构层面,可以建立专门机构如隐私数据保护部门,以便采取专业措施。

1.制定更为详细的法律法规

在人工智能蓬勃发展的社会背景下,目前我国已经出台了个人信息保护法、网络安全法等法律来防范其可能带来的风险。2023年1月10日起正式施行的《互联网信息服务深度合成管理规定》标志着我国首次对深度合成这种重要但风险性极高的算法服务率先进行立法。该规定第2条:“在中华人民共和国境内应用深度合成技术提供互联网信息服务(以下简称深度合成服务),以及为深度合成服务提供技术支持的活动,适用本规定”,表明了其监管对象不仅包括平台,也包括背后的技术支持者。在此规定下,如深度合成服务的提供者及上游技术支持者没有尽到保护信息安全的义务,则可以追究其对应的法律责任,为被侵权人寻求救济提供了更多渠道。然而,目前我国的法律制度还缺少针对人工智能发展的具有前瞻性、可操作性和指引性的专门立法,对人工智能的总体规制也需要得到进一步的完善。从数字社会生产的角度来看,既有治理往往过分地将重点放在了深度合成的输出内容上,而相对忽略了其他角度的治理。未来,可以将监管范围逐步扩大到生成式AI从收集信息到输出内容的全链条,面对OpenAI等大型技术开发者应提出更高要求,如强制公布数据来源、对训练内容记录保存、公开等。

2.建立用户数据库,对用户是否具有使用生成式AI的能力进行分析

未成年人能否不受任何限制地使用ChatGPT这一问题越来越受到各国重视。意大利个人数据保护局封锁GPT的第三条理由即为“由于无法验证用户的年龄,ChatGPT让未成年人接触到与发育程度和意识相比,绝对不合适的答案。”针对这一问题,我国数据保护部门可与人工智能企业合作,将已在各类应用程序中投入使用的“青少年保护模式”运用至ChatGPT等生成式AI,进而规范未成年人的使用范围。青少年模式的概念源于国家网信办的指导意见,当用户进入模式后,其使用时段、服务功能、在线时长等均会受到限制,且所能接收到的内容全部源于青少年内容池。当青少年模式运用至Chat-GPT后,不仅可以有效遏制代写家庭作业的情况,还能保证青少年接收到与之年龄相匹配的内容。同样,可以仿照“青少年模式”相应推出“员工模式”,通过对企业员工输入对内容进行限制,以保证其在提高工作效率的同时避免泄露商业秘密。

3.加强对生成式AI研发企业的内部监管

鉴于人工智能专业性强的特点,我国可在数据保护部门中设立专门技术岗位,对全过程进行监督。在最初的准备阶段,人监管部门应认真审查研发人员、企业和营销方提供的各种方案,研发人员和企业应根据需要向监管机构披露算法的细节。在人工智能运行过程中,监管机构应定期审查并进行现场检查,做好登记备案,尽可能确保没有遗漏。此外,还应该对生成式AI发展状况进行定期的预测和分析,必要时对其进行跟踪研究,以备不时之需。如果AI出现问题,监管机构可以从专业角度评估风险原因,并以更全面的方式指导实施。此外,监管部门应引导AI行业制定行业标准,形成行业内部制约,进一步规范企业行为。

(四)定期检查并培养生成式AI的学习情况

ChatGPT强大的学习内化能力使这一措施成为必然。为避免有用户进行恶意训练导致整个系统偏离正确轨道,监管人员绝不能一劳永逸,而是要在发展过程中适时调整。具体措施为,首先要对最敏感的违法、涉黄、涉政等问题进行询问,一旦发现AI提供不合适的回答,应当立即停止使用并重新训练或修改算法。其次,对于可能涉及的商业秘密,需要与关联企业进行沟通核实,避免大面积数据泄露等严重后果。最后,对于用户个人隐私数据,由于不能确定数据来源,故只能对这部分数据归纳整理后进行多层防护以防止第三方盗用。此外,无论是否发生安全问题,监管部门都应要求生成式AI的研发公司定期将其“返厂维修”,对全部算法进行检查修改,避免因监管范围的局限性导致不可挽回的后果。最后,要明确生成式AI开发企业的责任承担范围,如在定期检查后,仍出现因故意或重大过失造成AI算法作出违法行为的情况,应当追求企业及其主管人员的民事甚至刑事责任。

(五)强化科研伦理观念,明确研发底线

在发展人工智能的过程中,必须坚持“科技以人为本”和“科技为人服务”的理念,时刻明确科技发展的道德底线。信息技术发展的出发点和落脚点,应该是促进人类的进步和社会的繁荣。人工智能的发展应该按照“社会效用最大化”的逻辑进行,即把技术看作是一种中性工具,是一种基于社会本位的效用总和,并以此为基础实现更大的社会价值。通过创新技术和产品,满足人们日益增长的需求,从而提高生活质量和改善生活条件,促进人类社会的发展和繁荣。

具体来说,除了要提高行业准入门槛、在生成式AI进入市场前进行道德审查外,在软件开发过程中也应经常对研发人员和企业管理人员进行理论培训,将公序良俗、道德法律等基本概念深入心中。要树立正确的科研伦理观念,把人的价值作为科学研究的底线,正确处理科学研究和人的伦理问题,不能为盲目追求最大利润而忽视了伦理研究。

结语

以ChatGPT为代表的生成式AI为人类社会未来的数字化发展提供了更便捷的条件。科学技术的发展是一把双刃剑,我们在享受人工智能红利的同时,也要提防其对传统法律体系的影响,并对其进行有效的干预。现阶段我们看到的法律问题也许只是冰山一角,建立法律问题意识并非对人工智能的全面抵制,而是将可能给人类带来的危害扼杀在萌芽之中。立法部门必须要坚持生成式AI非法律主体这一原则,并在此基础上制定相关政策法规。此外,执法部门在对生成式AI进行日常监管的同时,要积极寻求与开发企业合作,共同推动人工智能行业健康发展,充分发挥其在提升社会效率、促进科技创新等方面的积极作用。

展开阅读全文

页面更新:2024-04-20

标签:人工智能   法律   美国   算法   欧盟   人类   内容   数据   用户   技术   张学博

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top