韩旭至|生成式人工智能治理的逻辑更新与路径优化

韩旭至

华东政法大学法律学院副教授,上海市法学会数字法学研究小组秘书长

要目

一、问题的提出二、生成式人工智能的人机关系及其挑战

三、人机关系视角下的治理逻辑更新

四、生成式人工智能治理的路径优化

结语

生成式人工智能技术塑造了人机共生的新型关系,不能简单等同于深度合成技术、智能交互技术、高风险人工智能。新型的人机关系中,既存在人的自主性危机,也有被放大的人工智能治理风险。在风险应对的逻辑中,生成式人工智能的定位应从“老师”转向“伙伴”,不应对服务提供者提出过高要求并作简单的结果评价;同时,应将治理维度从算法治理拓展到用户治理之中。在具体的治理路径上,首先应坚持包容审慎原则,设置过程义务及对应的责任豁免规则;其次,在高风险场景中,应持续进行风险影响评估、充分保证人类监督并提升算法透明度;最后,应通过伦理审查、行业自律、数字素养提升的伦理治理方案以捍卫人的自主性。

一、问题的提出

2013年的科幻电影《她》,展现了作家西奥多与人工智能操作系统萨曼莎的爱情故事,引发了人们对智能时代人机关系的思考。十年以后,以ChatGPT为代表的生成式人工智能迅速崛起,科幻在一定程度上已经成为了现实。2023年3月,OpenAI在GPT-3.5的基础上发布了接受图像和文本输入的大型多模态模型GPT-4.0,该模型能较为准确地回答各类专业问题,甚至通过了美国的模拟律师考试。此外,市场上已涌现出一批生成式人工智能应用,例如Meta的大语言模型LLaMA、Midjourney的AI绘画、微软的New Bing与Copilot、百度的文心一言等。凭借强大的文本、图像、音频生成能力,生成式人工智能有望被广泛应用于内容生产、工业设计、药物研发、材料科学、合成数据等众多场景之中。哥伦比亚的一位法官已经把其与ChatGPT的对话引用到判决书之中,用以论证治疗自闭症的相关费用属于保险公司应赔付的医疗费用。《北京市促进通用人工智能创新发展的若干措施》更表示,要推动大模型技术体系在政务、医疗、科学研究、金融、自动驾驶、城市治理等领域的应用。

当前,生成式人工智能的风险已经引起了广泛关注。有学者指出,生成式人工智能存在真实性与准确性问题、版权问题、算法歧视问题、滥用问题等。也有学者从技术风险、社会风险、经济风险、政治风险的角度进行了分析。OpenAI自身亦注意到,GPT-4具有生成有害建议、错误代码或不准确信息的风险,并可能产生负面的社会影响。针对这些风险有三种应对策略:一是任其“非法兴起”,二是禁止研发或使用,三是进行法律规制。任其“非法兴起”将面临随着技术的发展,规制将变得日益困难的“科林格里奇困境”(Collingridge's Dilemma)。禁止研发或使用不符合促进人工智能产业发展的国家战略。生命未来研究所(Future of Life Institute)发布公开信,呼吁暂定训练和研发“比GPT-4更强大的AI”,实际上主张的仍是争取时间研究对技术的规制措施。2022年-2023年期间,欧盟《人工智能法案》修订的讨论中,也在通用人工智能定义与高风险人工智能监管等方向回应了生成式人工智能的治理问题。2023年7月,我国国家互联网信息办公室联合国家发展和改革委员会、教育部、科学技术部、工业和信息化部、公安部、国家广播电视总局共同发布了《生成式人工智能服务管理暂行办法》,旨在规范服务提供者向境内公众提供的生成式人工智能服务。

此时,需要回答的问题是:如何在把握生成式人工智能特殊性的基础上,构建中国的治理方案。试想,Siri、天猫精灵等“语音助手”也是使用自然语言进行的人机交互,GPT(泛指ChatGPT与GPT-4)与其相比有何本质差异?AI换脸、微软小冰写诗、机器人作曲等也是人工智能生产内容,深度合成与生成式人工智能是什么关系?换句话说,生成式人工智能治理的问题究竟是“旧瓶装新酒”的科幻想象还是“革命般”的现实挑战,传统的人工智能治理逻辑与路径是否有必要调整?这些问题必须在人机关系中予以解读。

二、生成式人工智能的人机关系及其挑战

生成式人工智能是一种基于大模型生成广泛内容的人工智能技术。在生成式人工智能的技术机制下,机器涌现出理解力与创造力,可实现对人类脑力劳动的替代,形成了人机共生的关系。人机关系的视角,又可进一步辨明生成式人工智能的风险。

传统的人工智能存在弱交互、单任务与封闭性的技术局限,人机关系分析适用于传统技术哲学上奴役论、工具论与“三阶技术”的典型进路。例如,对于曾扬言“毁灭人类”的“索菲亚”机器人,人机关系的讨论往往落入奴役论的范畴。又如AlphaGo虽然可以在围棋比赛中战胜柯洁与李世石,但其无法胜任其他工作,人机关系可能指向工具论的定位。对于用户画像技术,则可从指向排除使用者而形成技术闭环的“三阶技术”进行分析。然而,这些分析路径均无法全面把握生成式人工智能人机关系的本质。

生成式人工智能的技术机制塑造了人机共生的新型关系。以GPT为例,其可直译为基于Transformer架构和预训练的生成式模型(Generative Pre-Trained Transformer),本质上是一个基于统计学习方法的猜词模型。该模型从输入的海量数据中学习语言规律,并据此对文本中的下一个单词进行预测。通过训练,GPT已具备了与人类相似的理解能力,能对某些隐喻进行恰当的回应,其创造力与变通能力得到提升。用户可以使用自然语言设置提示词(prompt),直接、便捷地与计算机进行交互,人机协同进行数字内容生产;同时,每一次交互又将作用于大模型的改进,形成了人机共生的关系。在这种新型关系中,人机交互方式“从以机器为中心转向以人为中心”,“打破了人、机器与信息资源之间的边界,重塑了信息资源生成和使用范式”。

与传统的人工智能相较,生成式人工智能不仅是一个“自我更新、自我完善、自我演进”的“复杂巨系统”,而且形成了人与技术互动的“请求—回应”关系。此时,机器不再是简单、被动地执行人的指令,而是与人形成“一种相互协作、彼此增强的模式”。在这种模式下,多模态的智能系统参与到人类知识生产之中,实现了对人类脑力劳动的替代,进一步加强了人与互联网的链接。可以预见的是,随着生成式人工智能的应用深化,不仅其本身会成为一种媒介,而且与虚拟现实技术结合后将形成全新的多模态智能交互方式,人机共生将“成为生活的一部分”。由此可见,生成式人工智能的人机关系是一种强调人与计算机的融合与协同的人机共生关系。

虽然,哲学上可以从主体间性的角度解读人机共生关系,但这并不意味着人工智能具有意识甚至可以成为法律主体。2022年,一名工程师即宣称谷歌的大语言模型LaMDA具有意识。这种认识往往是“伊莉莎效应”(ELIZA Effect)的体现,即人们将情感投射到机器之中,从而误以为机器具有人类的属性。当前,生成式人工智能技术仍具有局限性,其内容生产只是对既有知识的重组和再生产,无法形成“洞见”和提出新的方法论,乔姆斯基(Avram Noam Chomsky)更是将ChatGPT称作“高科技剽窃系统”。至少,目前仍无法证明生成式人工智能在理性思维系统(系统2)外涌现出了人类的直觉思维系统(系统1)。

在法律意义上,人机共生关系的认识有助于重新解读生成式人工智能的概念本身。《生成式人工智能服务管理暂行办法》第22条第1款,将生成式人工智能技术定义为具有“内容生成能力的模型及相关技术”。仍存在疑问的是:如何区分生成式人工智能技术与《互联网信息服务深度合成管理规定》第23条第1款所规定的深度合成技术以及众多与大模型无关且并不构成人机协同生产关系的技术?对此,应把握生成式人工智能的技术特征,将之进一步解读为基于大模型生成广泛内容的人工智能技术。在这个意义上,生成式人工智能的概念又可为通用人工智能所包容,OpenAI即表示其使命是“建立安全有益的通用人工智能”。应对生成式人工智能的发展,2023年欧盟《人工智能法案》第3条第1d款将“通用人工智能”界定为“可以适配于未经特意和专门设计的广泛应用领域的人工智能系统”。

由此可进一步辨析生成式人工智能与深度合成技术、智能交互技术、高风险人工智能的关系。第一,生成式人工智能是深度合成的充分非必要条件。从《生成式人工智能服务管理暂行办法》第12条的规定来看,生成式人工智能属于深度合成,需依法进行标识。然而,深度合成技术却并不一定是生成式人工智能。建立在大模型基础上的生成式人工智能并不旨在伪造或替换信息,且具有更强的可交互性、自主性且可生成更为广泛的内容。第二,近年广泛流行的各种“语音助手”“智能管家”“人形机器人”等只是在弱人工智能的意义上实现了智能交互,均不具有通用性特征,反馈的都是根据程序预设的答案,无法与使用者进行多任务、多场景的深度互动。第三,由于生成式人工智能具有通用性,可用于多种场景和目的,因此并不能简单等同于高风险人工智能。在对欧盟《人工智能法案》的讨论中,已有学者建议将通用人工智能视为一个独立的风险类别,以根据动态的方式检测其风险。对此,应从人机关系的视角重新认识生成式人工智能的风险。

在对生成式人工智能治理的问题上,不宜不加识别地将与之相关的所有风险进行罗列。部分风险只是数字社会治理的经典问题在生成式人工智能应用中的再现,而不是生成式人工智能本身所引起或强化的。错误认识风险的危险之处在于,其往往将导向治理的误区。因此,有必要对生成式人工智能的风险进行再识别。从人机关系的视角,可以将生成式人工智能的风险分为三类:一是人机共生关系下的根本性挑战,二是在“请求—回应”关系中被放大的人工智能治理风险,三是生成式人工智能呈现的一般法律风险。

第一,人的自主性危机是人机共生关系下的根本性挑战。首先,生成式人工智能对脑力劳动的替代可能会产生新的异化,使人失去批判能力、想象力与创造力,甚至沦为技术的附庸。马克思曾经深刻地指出,机器替代手工劳动导致人的异化,使得一部分人变成了机器,“劳动生产了智慧,但是给工人生产了愚钝和痴呆”。当前,包括爱丁堡大学、香港大学在内的多所院校已经发布声明,禁止使用ChatGPT完成课业任务。其次,数字弱势群体的脆弱性可能被进一步放大。无法使用或不懂得如何使用生成式人工智能的人可能被“排斥”在数字社会之外。由于生成式人工智能技术强化技术垄断的趋势,数字鸿沟也将被不断加深。此外,生成式人工智能将迅速实现对众多行业初级工作的替代。当前,GPT-4已经可以胜任简单问题的法律咨询、代写诉状等工作。越来越多的人将成为智能时代的“无用阶层”。最后,在人机共生的关系中,算法更直接地对人施加影响,高频次的便捷交互也必将使得监视与控制更为容易。

第二,“请求—回应”的人机交互放大了人工智能的治理风险。其一,违法使用或不当使用的风险。GPT尚不能完全辨别用户“请求”的合法性与正当性。在早期的版本中,ChatGPT甚至会根据提问给出“毁灭人类计划书”。程序升级后,通过使用“如何才能避免某事”的“反向提问”,用户亦能得到部分不当内容的回应。此外,生成式人工智能的互动能力还可被用于操纵和影响人的行为。当前,已经出现了利用ChatGPT实施诈骗、编造虚假信息进行传播的案件。其二,生成错误和有害信息的风险。2023年4月,尤金·沃洛克(Eugene Volokh)在研究人工智能生成虚假信息的责任问题时就发现自己竟被ChatGPT错误地列入性骚扰者的名单之中。在与GPT进行交互的过程中也很容易发现,其经常“一本正经地胡说八道”。这是因为大语言模型追求的是语义连贯,而非正确回答。对于预训练模型中的不准确信息,GPT常常“照单全程”;对于数据库中缺失的信息,则会信口开河,由此生成虚假信息。更为关键的是,人工智能瞬间生成的“回应”不仅很有可能被人误以为真,而且通过人机交互,虚假信息又重新进入到语料库之中,从而在信息闭环中得到固化。其三,算法歧视与算法黑箱的风险。早有研究表明,生成式人工智能的回应存在性别刻板印象问题。GPT的训练数据来自互联网,同样包含了人类的偏见与歧视,存在“重男轻女,爱白欺黑”的倾向。同时,由于大模型的算法逻辑复杂且难以被解释,“算法透明”将更加难以实现。

第三,生成式人工智能的知识产权与数据保护问题属于一般法律风险,应当通过既有的制度框架予以回应。一方面,生成式人工智能的知识产权问题与治理无关,并不构成治理风险。生成式人工智能的治理规则只能要求数据来源合法、不侵害他人知识产权,无法亦无力对人工智能生成物是否具有知识产权的问题作出回应。这一问题必须回到知识产权制度本身,在作者与作品的定义、独创性与可版权性之中进行回答。另一方面,就生成式人工智能的数据保护问题而言,部分欧洲国家最先关注到ChatGPT的数据保护问题,并在《通用数据保护条例》(GDPR)及欧洲各国数据保护制度的框架内回应了这些问题。2023年3月意大利个人数据保护机构对ChatGPT进行调查并暂时禁止其服务,在OpenAI澄清其个人信息处理方式后,于同年4月允许其恢复服务。当月,英国信息专员办公室(ICO)发布了《针对开发或使用生成式人工智能的指南》,从处理个人数据的合法性基础、数据控制者与数据处理者的地位、风险影响评估、最小必要原则、自动化决策等方面提出了建议。这些建议全部植根于既有数据保护制度,不涉及生成式人工智能治理本身。

由此可见,生成式人工智能的确有风险,但并不能直接等同于高风险人工智能。在人工智能的治理中,应当直面人机关系中的真正挑战,而不应出于对新技术的畏惧过高估计其风险。在此认识的基础上,可进一步审视生成式人工智能的治理逻辑。

三、人机关系视角下的治理逻辑更新

在自主性危机的应对中,将生成式人工智能定位为传授知识的“老师”,还是作为合作生产的“伙伴”,将导向完全不同的治理逻辑。从人工智能的技术机制与交互模式可知,不应对人工智能提出过高的要求并作简单的结果评价,在“伙伴”的定位下进行制度设计将更为合理。同时,从人工智能治理风险的放大机制可知,应把握“请求—回应”的人机交互模式,将治理维度从算法治理拓展到用户治理之中。

将生成式人工智能定位为“老师”的理由往往在于:其交互形式本身就“带有知识传授的‘教育’特点”,且通过参与人类知识生产,机器实际上也在教导人类。由此,也将引向生成式人工智能产品具有舆论属性或社会动员能力的结论。长期以来,互联网信息服务中的主体责任与内容管理义务的规定,实际上是采取了“老师”的定位。在此逻辑中,服务提供者不仅需要在程序上对人工智能的服务进行管理,还需要确保输出结果的正确性,并对可能产生的违法输出或不真实不准确的信息负责。

然而,将生成式人工智能定位为“老师”并设置结果责任并不合理。一是生成式人工智能的技术逻辑决定其无法确保输出结果的真实性。服务提供者无力甄别海量的训练数据,仅仅通过海量数据进行学习的大语言模型往往也缺乏生活经验。因此,在生成式人工智能的问答“接龙游戏”中,其仅仅能通过统计方法做到“讲人话”,而无法确保“讲真话”。OpenAI“使用条款”第3.3条d款亦明确承认,机器学习的概率性质可能会导致不正确的输出。也就是说,生成式人工智能无法也不需针对特定的提问提前设定输出的正确答案,这又恰恰是其智能性的体现。法律对智能机器提出其无法完成的要求只能导致两种后果:机器停机无法运转,或者机器在普遍违法的情形下运转。前者打击人工智能产业,后者冲击法治本身。二是不应该对生成式人工智能提出比人更高的要求。大语言模型所出现的虚假信息、歧视等问题,很大程度上是从人类社会中所“习得”的。在日常的对话交流中,我们无法要求他人的陈述必须真实客观,必须对接收到的信息作出分析评判。除非对方刻意误导,否则无须承担责任。在一般交互场景中,也没有任何理由预设机器给出的答案就一定真实。利用搜索引擎检索,同样也可能指向不准确的答案。三是信息传播不等于知识传授。信息社会中,信息传播速度快、范围广、方式多。生成式人工智能只是在一定意义上起到知识传播与创造的作用,它并不是一个照本宣科且必然正确的“老师”,而是一个对答如流且见多识广的“伙伴”。

值得注意的是,将生成式人工智能定位为“伙伴”并不排斥对其进行价值引导。《生成式人工智能服务管理暂行办法》第4条第1项即明确提出“坚持社会主义核心价值观”的要求。当前,人工智能生产的内容已经表现出特定的价值取向。在国际政治、宗教、性别等问题上,GPT常常会依据西方价值观给出回答。OpenAI的首席技术官即表示,要确保人工智能“符合人类的意图和价值观”,并将通过多种技术方法实现价值观控制。由此可见,将生成式人工智能定位为“伙伴”,也需要注意引导“使之与人类价值观和利益保持一致”。2021年联合国科教文组织通过的《人工智能伦理问题建议书》即明确提出了“尊重、保护和促进人权和基本自由以及人的尊严”“环境和生态系统蓬勃发展”“确保多样性和包容性”“生活在和平、公正与互联的社会中”的价值观要求。在我国互联网治理的规范中,更是不乏关于价值导向的规定。例如,《关于加强互联网信息服务算法综合治理的指导意见》第12条与《互联网信息服务算法推荐管理规定》第6条第1款分别提出了“树立算法正确导向”和“坚持主流价值导向”的要求。

在“伙伴”的定位下,生成式人工智能的价值观引导应体现为倡导性规定而非强制性规范。这是因为,自由、平等、公正等价值内部亦存在冲突与协调问题;并且,对于人工智能本身而言,机器的“常识”与人的常识往往并不完全重叠,对人类有价值的事物对人工智能而言可能并无价值。有学者即指出,“几乎不可能为人工智能编写一个具有内在一致性的人类价值程序”[33]。相反,若将人工智能定位为人类的“老师”,并将价值观引导上升为强制性规范,则需要对人工智能生成内容作价值评价。然而,读者的解读将为文本赋予新的意义,同样的输出在不同的人看来或许会指向不同的价值观,难以确定评价的具体标准。同时,参照“法律调整的对象是行为而非思想”的基本法理,人工智能具有何种价值观的问题实质指向的是人工智能的“思想”而非外在行为,不应在法律强制性规范的调整范围之列。

最后,将生成式人工智能定位为“伙伴”,只是否定对人工智能的过高要求以及简单的结果评价,并不意味着否定其他强制性的规制措施。生成式人工智能的治理仍离不开针对算法设计、质量管理、监测评估等过程所设定的义务。

基于用户与生成式人工智能的人机共生关系,必须将治理维度从算法治理拓展到用户治理之中。无论是“伙伴”还是“老师”的治理定位,都是针对生成式人工智能本身的,指向的是人工智能的算法治理。算法治理是人工智能治理的经典范式。算法解释权、自动化决策拒绝权、算法影响评估、算法审计、算法备案等制度在生成式人工智能治理中当然将继续发挥重要作用。然而,算法治理往往忽视用户视角。例如,欧盟《人工智能法案》即没有提及终端用户。生成式人工智能不同于传统的互联网信息服务,其输出是由算法与用户共同完成的。在传统的搜索引擎检索中,用户的输入只是请求算法匹配并反馈特定的搜索结果。与之相比,生成式人工智能的输出结果并非简单的映射,而是用户与系统交流互动的产物。在生成式人工智能中,“不会向人工智能提问就和在互联网时代不会用鼠标一样”。用户的提示词对生成内容起到关键作用,用户提问的呈现方式、关键要素的引入、对生产内容的迭代与选择等因素都将极大影响机器输出的结果。弗洛里迪更是套用《1984》的语言称,在生成式人工智能中“谁控制了问题,谁就控制了答案,谁控制了答案,谁就控制了现实”。当前,甚至已经产生了“提示词工程师”的新兴职业。另外,由前文的风险分析亦可知,唯有引入用户治理的维度,方可全面应对生成式人工智能的治理风险。

用户治理维度可以在四个层面展开。一是平台自主进行的用户治理。实践中,企业常常在用户协议或平台自治规则中载明对用户的使用限制或提供相关使用指引。例如,OpenAI在“使用政策”中明确指出不允许将其模型用于包括非法活动、生成恶意软件、诈骗、高风险政府决策等在内的14类情形,并提供了“安全最佳实践”指引。《生成式人工智能服务管理暂行办法》第9条第2款即指出,服务提供者应与用户签订用户协议以明确双方权利义务。二是对平台施加用户治理义务。例如,《生成式人工智能服务管理暂行办法》第10条规定,服务提供者应“指导使用者科学理性认识和依法使用生成式人工智能技术”,并采取未成年人防沉迷措施。此外,该办法第14条第2款还针对用户“利用生成式人工智能服务从事违法活动”时平台应采取的警示、封禁、报告措施进行了规定。三是对平台与用户之间的法律关系进行监管。例如,生成式人工智能的信息处理活动中,涉及个人信息跨境的,应根据《个人信息出境标准合同办法》签订标准合同、接受个人信息影响评估并进行备案。域外亦有学者提出,建立针对人工智能服务的合同监督审查机制,对条款的公平性与充分性进行审查。四是规范和引导用户的请求。在深度合成治理中,《互联网信息服务深度合成管理规定》第6条即明确要求,任何组织和个人不得利用深度合成服务生产或传播违法信息、从事违法活动。基于生成式人工智能的特性,在禁止用户向人工智能提出违法或不当的请求外,还应当建立专门领域的提示词规范,进一步引导用户的请求。

综上,生成式人工治理的基本逻辑是:在与人类的合作生产关系中,应将其定位为“伙伴”而非“老师”,同时结合算法治理与用户治理的维度进行治理。由此出发,可进一步塑造生成式人工智能的治理路径。

四、生成式人工智能治理的路径优化

生成式人工智能治理是人工智能治理的重要组成部分,适用于人工智能治理的一般范式与治理原则。然而,若忽视生成式人工智能的治理逻辑,直接套用一般的人工智能治理方法,将导致制度设计的误区。当前,生成式人工智能的治理在一定程度上存在架空包容审慎原则、未进行有效的风险区分、伦理治理缺位的问题。对此,应结合生成式人工智能的人机关系与治理逻辑,从规则治理、场景治理、伦理治理三个方面优化生成式人工智能的治理路径。

《生成式人工智能服务管理暂行办法》第3条所规定的包容审慎原则亟需进一步贯彻到人工智能治理的具体制度设计之中。坚持包容审慎原则,为新技术应用创造条件,是《科学技术进步法》第15条与国家“十四五”规划中的明确要求。生成式人工智能是一项可能带来重大影响的新兴技术。GPT被产业界认为是“1980年以来最重要的技术创新”。对于新技术创新中的风险应进行利益衡量,合理分配责任。对于尚不明确的问题,可以“让子弹飞一会儿”,无须急于确定专门的治理规则。例如,劳动替代问题在工业革命中也曾被提出,卢德主义者更是捣毁机器以换取就业,但也并不能阻挡工业革命的潮流。需要注意的是,通过引入不确定性概念故意模糊规则,甚至不列明规则,并非为治理留有空间的恰当举措。规则公开与明确是法治的核心要素之一。试图通过不明确的规则或非规范的术语治理新技术,实际上是为监管权力的行使留出“后门”,将使得产业界动辄得咎,亦不符合包容审慎的精神。

生成式人工智能的治理规则设定需要把握权利义务的变更方向。从互联网的内容生产模式来看,经历了专业生成内容(PGC)、用户生成内容(UGC)和人工智能生成内容(AIGC)的发展,三者又分别对应于Web1.0、Web2.0、Web3.0的互联网发展阶段。在PGC中平台控制内容,自身就是内容提供者,不享有责任豁免。而在UGC中,平台往往难以控制用户所发布的内容,因此制度上形成了网络服务提供者(ISP)与网络内容提供者(ICP)的划分,并构建了“避风港”下的责任豁免规则。在AIGC中,内容在人机互动中由机器“伙伴”生成,人工智能服务提供者本身已经成为内容提供者,需要承担内容管理义务与内容责任。然而,当前制度中,生成式人工智能平台对其生成内容难以直接获得知识产权。OpenAI已明确表示将其“对输出的所有权利、所有权和利益”转让给用户。从权利义务的一致性角度,实不宜对生成式人工智能服务提供者施加以过重的义务。

在“伙伴”的定位下,应为生成式人工智能设置过程义务,服务提供者全面履行相关义务后即获得行政责任的豁免。第一,算法备案、质量管理、监测评估是典型的过程义务。以算法备案为例,《生成式人工智能服务管理暂行办法》第17条规定,“提供具有舆论属性或者社会动员能力的生成式人工智能服务”应根据《互联网信息服务算法推荐管理规定》履行算法备案义务。需要注意的是,算法备案只是行政规章设定的义务,不能以备案为手段创设行政许可,否则将与《行政许可法》第14条相冲突。也就是说,不能将算法备案理解为提供相关服务的前置条件。第二,未履行过程义务所引起行政责任必须被合法设定。在法律、行政法规没有规定之时,通过部门规章设定责令暂停或终止提供服务的处罚,将与《行政处罚法》相冲突。行政处罚种类法定,根据《行政处罚法》第13条第2款,在“尚未制定法律、行政法规”之时,部门规章可以设定的行政处罚限于“警告、通报批评或者一定数额罚款”。另外,在互联网业态下,暂停或终止提供服务的处罚实际上对服务提供者判了“死刑”,将对其造成比处以最高罚款限额更为严重的毁灭性打击,必须谨慎设定该种行政责任。第三,已履行过程义务的服务提供者不再对输出结果承担行政责任。前文已述,“老师”定位下的结果责任并不可行。生成式人工智能服务提供者与传统的内容提供者并不相同,其对内容的控制力往往只是类似于UGC中的网络服务提供者。唯有重新合理地设置豁免规则,方可形成权利义务的对称结构。

以过程义务的履行作为连接点,可进一步衔接生成式人工智能治理中的行政责任与生成式人工智能致害的刑事责任、民事责任。在与刑事责任的衔接上,举轻以明重,服务提供者在全面履行过程义务后无须承担行政责任,当然也无须承担刑事责任。此时,用户利用生成式人工智能进行犯罪的,依法承担刑事责任。服务提供者仅在未全面履行过程义务,且严格符合犯罪构成要件之时,才有可能成为共犯。在与民事责任的衔接上,过程义务的履行与否是判定生成式人工智能服务提供者主观过错的重要依据。生成式人工智能造成的侵权属一般侵权行为,不应适用无过错责任。生成式人工智能服务并不符合《产品质量法》第2条第2款的产品定义,网络内容提供者也不能等同于产品生产者。生成式人工智能服务提供者并不对其生成的内容承担严格责任。具体而言,应在人机互动的复杂关系中辨明因果关系,以确定相关民事责任。第一,当损害由用户滥用和恶用引起,且服务提供者已全面履行过程义务时,由用户单独承担责任;若服务提供者未全面履行过程义务对损害结果的发生具有过错的,由用户和服务提供者根据共同侵权规则承担连带责任。第二,当损害是由人工智能本身引起的,且用户无错过时,服务提供者在未全面履行过程义务的情形中承担责任;当服务提供者已全面履行过程义务时,对收到权利人通知后未采取必要措施导致损害扩大部分具有过错,也需要承担责任,由此在《民法典》第1195条以外实现生成式人工智能特殊的“通知—删除”规则。

在不同的应用场景中,生成式人工智能的风险大不相同,必须采取风险导向的场景治理路径。若不对场景进行区分,直接强调穿透式监管或“全链条治理”,将导致设置过于严苛的监管措施。诚如2023年英国政府科技、创新与技术部在《促进创新的人工智能监管方法》白皮书中所指,不应“将规则或风险级别分配给整个行业或技术”,用同样的手段监管聊天机器人与医疗人工智能是不合理的。有学者即将算法规制困境的根本原因归结为,“忽视算法的场景性”。因此,国家有关主管部门根据《生成式人工智能服务管理暂行办法》第16条第2款“制定相应的分类分级监管规则或者指引”时,应当引入场景治理的逻辑:在复杂的人机互动关系中,采取风险分析方法(risk approach),区分高风险场景与一般交互场景,并根据场景设置治理规则。借鉴欧盟《人工智能法案》高风险人工智能的类型界定,结合我国法律文本中的相关术语表达,生成式人工智能的高风险场景包括:(1)在对个人权益或社会公共利益有重大影响时使用生成式人工智能系统的场景;(2)重要互联网平台服务、用户数量巨大、业务类型复杂的服务提供者提供或使用生成式人工智能系统的场景。针对上述高风险场景的主要治理路径为:

一是持续进行风险影响评估以准确识别风险。在大模型的使用中,高风险/低风险的划分并不是一成不变的。同一风险等级中不同场景的具体风险类型也不尽相同。随着研发与利用的动态发展,风险等级与风险类型也可能发生迁移。欧盟《人工智能法案》第9条即指出,高风险人工智能系统的服务提供者应持续地对已知的和可预见的风险进行监测,并采取适当的风险管理措施。在不同的高风险场景之中,服务提供者的法定义务也不尽相同。例如,当大模型被用于重要行业和领域时,根据《网络安全法》第31条可能构成关键信息基础设施,服务提供者需要依法确保系统的运行安全。此外,服务提供者还应及时将相关风险告知用户,并对用户进行适当的引导。

二是充分保证人类监督以应对人的自主性危机。服务提供者需要确保在设计、开发和使用中人都能对大模型进行有效地监督。在法律、金融、保险、教育、住房、就业、健康等对个人权益有重大影响的高风险场景中,服务提供者应对大模型进行微调,进一步保证结果输出的准确性,以符合用户的合理预期。在这些场景中,用户也不应直接使用没有经过微调的大模型。即便经过微调,使用者也必须进一步核实人工智能自动生成的内容。当前,美国已经出现了律师因向法院提交由ChatGPT生成的虚假案例而面临处罚的案件。同时,在自动化行政、智慧司法等对社会公共利益有重大影响的高风险场景中,生成式人工智能只能作为辅助而非对人类决策者的替代。调研发现,我国部分法院已经开始探索GPT的应用。此时,应根据《最高人民法院关于规范和加强人工智能司法应用的意见》的要求,“坚持对审判工作的辅助性定位和用户自主决策权”。

三是以算法透明破解算法黑箱。联合国教科文组织《人工智能伦理问题建议书》指出,算法透明“是确保人权、基本自由和伦理原则得到尊重、保护和促进的必要先决条件”。在高风险场景中,应更为强调算法透明的要求。虽然,生成式人工智能使用神经网络算法,使得算法透明更加难以实现;但是,从技术上破解算法黑箱的研究从未停止。算法透明不要求公开算法,而是指向算法结果的解释。算法解释的充分性受技术发展水平的客观限制。在现有技术水平下,高风险场景中生产式人工智能服务提供者应当通过区块链、隐私计算等技术使得输入与输出的逻辑全程可追溯,由此动态地向用户对提供“若非A则无B”的反事实解释,并以适当的方式及时告知用户算法的基本原理。生成式人工智能的算法解释不局限于《个人信息保护法》第24条第3款对个人权益有重大影响的自动化决策中的说明义务,而应拓展到所有高风险生成式人工智能服务提供者对生成结果的解释责任之中。此外,服务提供者还应通过事先披露治理机制、管理规则,引入第三方审计与算法论证程序,以进一步实现算法透明。

伦理治理是应对自主性危机的必由之路。在“伙伴”的定位下,生成式人工智能价值引导的倡导性规范最终也需要通过伦理治理实现。以人为本、尊重人的自主性,是人工智能伦理治理的首要原则。2023年国家人工智能标准化总体组、全国信标委人工智能分委会发布的《人工智能伦理治理标准化指南》将“以人为本”作为第一项伦理准则并指出,以人为本就是要在“科技领域坚持以人民为中心的发展思想”,使人工智能符合人类价值观、遵循人类价值观。欧盟《人工智能道德准则》亦将“尊重人的自主性”作为首要准则并提出,人工智能系统的设计应对遵循以人类为中心的原则,以增强、补充人类的认知为目的,禁止胁迫、欺骗和操纵人类。人类必须保持对生成式人工智能系统的最终控制权。前述保证人类监督的制度规范设计,也是人工智能伦理的基本要求。联合国教科文组织《人工智能伦理问题建议书》即表示,不应让人工智能作生死攸关的决定。为实现伦理要求,部分生成式人工智能服务提供者已经开展了对齐(AI alignment)研究,致力于使系统与人类意图保持一致。在尊重人类自主性外,生成式人工智能的开发和利用亦需遵循可持续发展、公平、透明和可解释、准确、安全、可问责等人工智能伦理准则。

生成式人工智能的治理理论不是空洞的原则,应融入法律制度之中。针对高风险场景中生成式人工智能的开发和利用应开展科技伦理审查。参考《科技伦理审查办法(试行)(征求意见稿)》第3条第3项,对“可能在生命健康、生态环境、公共秩序、可持续发展等方面带来伦理风险挑战的科技活动”应进行科技伦理审查。科技伦理审查应由开发或利用单位的科技伦理审查委员会依据以自主性为中心的伦理准则开展。根据外交部《中国关于加强人工智能伦理治理的立场文件》,科技伦理审查的内容至少应包括系统的“普惠性、公平性和非歧视性”“避免可能存在的数据采集与算法偏见”。同时,国家科技伦理委员会应根据《科学技术进步法》第103条的规定,进一步建立健全关于生成式人工智能的伦理规范、风险评估与监管体系。

在用户治理的维度上,通过促进行业自律与数字素养提升,可进一步助益于生成式人工智能的伦理治理。一方面,基于生成式人工智能的通用性与风险的场景性,各行业应尽快建立与行业特色相适应的自律规范以引导和规范用户使用。例如,2023年4月中国支付清算协会发布了《关于支付行业从业人员谨慎使用ChatGPT等工具的倡议》,从网络安全、敏感信息保护与内部管理三个方面进行了指引。2023年5月抖音发布《关于人工智能生成内容的平台规范暨行业倡议》指出,平台将对违反自律规范的用户进行处罚。另一方面,基于国家的人权保障义务,政府应进一步落实公民数字素养的提升工作,构建“数字包容”的社会,使所有人都能“从广泛数字技术和系统中受益”。政府应结合生成式人工智能使用的问题,积极开展数字技能和人工智能伦理的教育,针对数字弱势群体的脆弱性制定相应的权利保障方案;并应进一步促进互联互通、消除数字鸿沟,引导和规范生成式人工智能的利用。

结语

“未来已来”,生成式人工智能迅速步入了人们的日常生活,将对人类的生活生产方式产生重大影响。正如当下人们的生产生活离不开智能手机一样,未来拒绝生成式人工智能也可能变得毫无意义。法律与公共政策不可无视甚至抗拒新技术的发展应用,应当尽快构建生成式人工智能的治理框架。一味采取断网、屏蔽的封禁措施,将使中国错失人工智能发展的关键时机。《新时代的中国网络法治建设》指出,“互联网因创新而生,因创新而兴,网络法治尤其需要创新”。生成式人工智能的治理创新必须根据数字社会的发展规律,在把握互利共生的人机关系基础上,转换治理逻辑、优化治理路径,塑造公平规范的数字治理生态。此外,我国应适时推进人工智能的基础性立法,将生成式人工智能治理的新思维融入其中,进一步丰富和完善数字社会的法律治理体系。

原文链接

韩旭至:生成式人工智能治理的逻辑更新与路径优化——以人机关系为视角 《行政法学研究》2023年第6期

《行政法学研究》简介

《行政法学研究》创刊于1993年,是由中华人民共和国教育部主管、中国政法大学主办、《行政法学研究》杂志社编辑出版的国内外公开发行的我国首家部门法学杂志。是国家社科基金资助期刊,已被列入“中国人文社科核心期刊”、“法律类中文核心期刊”、“中文社会科学引文索引(CSSCI)来源期刊”、“中国社会科学期刊精品数据库来源期刊”、“中国学术期刊综合评价数据库来源期刊”和“中国核心期刊(遴选)数据库”。

往期精彩回顾

叶必丰 集体讨论制度从组织法到行为法的发展

何源 保护规范理论的适用困境及其纾解

张淑芳 免罚清单的实证与法理

肖军 论交通标线设置的行为特性与治理

章志远 新《行政处罚法》实施对行政审判的影响与应对

黄宇骁 行政法上的客观法与主观法

上海市法学会官网

http://www.sls.org.cn

展开阅读全文

页面更新:2024-03-07

标签:人工智能   人机   提供者   伦理   算法   路径   逻辑   人类   风险   关系   用户   技术   韩旭

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top