牟春花|算法物化、集体法律责任与分布式法律责任

牟春花 桂林电子科技大学法学院讲师

“算法规制”是利用算法进行的技术治理,“规制算法”是对“算法规制”的再治理,后者的核心问题是如何在所有算法行为者(包括集体)之间公平合理地分配责任。为此,“规制算法”需要从技术、伦理和法律三重视角递进展开。从技术角度来看,可规制的算法是情境化、可落地的物化算法。从伦理角度来看,物化算法一方面使算法在伦理上需要(能够)被规制,另一方面又要求对算法的规制从个体化内在的意向性伦理评价转向集体性外在的责任伦理评价。从法律角度来看,算法中责任伦理评价可以通过两种形式实现:一是集体法律责任。现有委托—代理框架内的法律责任识别标准不能清晰辨别出个体算法行为者和集体的责任边界,所以,以此作为兜底性责任解决算法中集体不负责难题。二是分布式法律责任。在算法输入 结果输出的前向传播和结果输出 算法输入的后向传播交互形成的“前瞻后顾”算法行为及其伦理反思架构上,通过法律上期待可能性和严格责任在算法过程中形成“散点状”法律责任网络,据此精准识别算法行为者和集体各自的法律责任,避免最终由集体买单或者是无差别的平均责任分配。

引言:是“算法规制”还是“规制算法”?

对算法落地造成的算法黑箱、算法独裁、信息茧房、算法歧视、变相而隐蔽的人身控制等结果,学界已有广泛而深入的研究。通过分析我们发现一个比较集中的特征,那就是尽管绝大部分文献从不同侧面入手对算法应用过程中会出现哪些问题,以及如何规制算法提出了比较深入而且细致的研究,但却忽略了一个前提:我们到底是在讨论利用算法来进行治理性决策,还是对算法治理性决策进行治理?前者我们可以称之为“算法规制”,后者我们可以称之为“规制算法”。

“算法规制”和“规制算法”之间绝非名词顺序问题,它们有着不同内涵及其组合方式。“算法规制”意味着作为一种社会治理方法,算法比传统社会纠纷解决方法更为有效且便捷,因此适宜通过算法对社会事务进行治理性决策。“规制算法”则意味着由于算法在适用过程中引发伦理和社会问题,需要对其予以规制。通常来讲,“算法规制”是“规制算法”的前置程序。对“规制算法”有意义的讨论,最好是建立在对利用算法对社会事务进行规制时在哪些领域、哪些环节出现什么样的问题及其原因的深入细致分析的基础上。在这个基础上,真正需要讨论的问题就是:一、“算法规制”是否必要而且可能?二、如果“算法规制”被证明是必要而且可能的话,为何以及如何“规制算法”?因为“算法规制”如果是必要而且可能的话,有没有可能以设计良好的算法本身来进化出完全自主的道德能动性(moral agency),以之比类于人的道德主体(moral agent)进行独立自主的道德推理与决策,从而在“算法规制”程序中通过深度学习而自行实现了“规制算法”的目的?这样一来从外部输入伦理和法律规范的“规制算法”就没有必要了。也就是说,当我们所面对的伦理困境已经成为算法程序的一个功能时,通过程序自身能否实现伦理优化?在弱人工智能(Narrow AI) 强(通用)(General AI)人工智能 超级人工智能(Super AI)这样一个发展态势及其背后支撑性的算法迭代与演进趋势下,伦理上自我演化和自我完善的“算法规制”看起来并非毫无根据。所以,想要为“规制算法”找到合法性依据的话,首先要搞清楚在“算法规制”中能否“规制算法”。

既有的研究大都没有专门针对这个问题予以分析,一开始要么站在技术批判论立场,要么站在技术中立论立场上来看待“算法规制”问题。表现为两种研究模式:一种是跨过了这一步,以结果为导向,以算法已经或者可能带来的风险为线索,探讨怎样对此予以伦理和法律规制。但是,这种模式其实是建立在自觉或不自觉地默认“算法规制”不能解决其造成的伦理危机和社会风险的结论上的。另外一种则直接认为“算法规制”属于技术问题,法学上只需要探讨“规制算法”,即只需要探讨算法会引起哪些权利义务、主体资格,怎样通过法律上权利义务、主体资格等法教义学视角来研究如何规制算法。这两种模式的共同之处在于很少对算法本质、结构、技术特征及其和社会接触后形成什么样的关系类型等问题进行深入的延伸分析,而是掠过复杂的算法应用过程及其伦理难题,早早地等候在最终结果发生之处,以算法引起的“异化”问题为着眼点,从算法产生控制和操纵效果入手针对性的分析原因提出对策建议,潜意识地把算法及其运用作为一个应该(而且可以)谴责的整体对待,从而不自觉地居于消极的防守性地位。深入的算法规制需要面对算法设计、开发和实现过程中做出的一系列综合选择。这些选择是关于接口、基础设施、算法、算力本体、计算代码、协议、完整性约束、体系结构、治理机构、授权矩阵、程序、法规、激励结构、监控和检查以及质量控制制度所形成的复杂体系及其过程。在此基础上讨论规制问题,我们才能够说进行了积极有效的算法规制。在我们看来,“算法规制”固然重要,但这是一种必要但不充分的消极规制。充要条件下的规制是对算法的积极规制,是建立在“算法规制”已经先行在数据驱动和动态管理设计环境中充分展开,暴露出其在哪些环节产生哪些问题基础上有针对性地再规制。在米莱尔·希尔德布兰特看来,如果没有在数据驱动环境中深入进行法律保护设计做基础,以规范性效力和国家强制力为后盾的现代法律霸权将会不可避免地终结。现代法律已经没有退路,只能前进。留给现代法律可供选择的方案只有两个:要么让法律变成行政或监管技术;要么以新的方式重新确立法律的规制。让法律变成行政或监管技术意味着法律的另一种方式的终结,这是所有法律人都不能理解和接受的。所以,智能化社会中法律人的可行方案就是在“算法规制”充分展开的背景下重新确立积极的法律规制。因此,我们所说的“规制算法”,指的就是算法的法律规制,就是在通过算法对社会事务进行治理性决策基础上再进行的法律规制。接下来,为了证明我们所说的积极的法律规制是必要而且可行的措施,首先,需要解决的问题就是伦理上自我演化和自我完善的“算法规制”不可能实现,也就是说,算法中是否有通过其自身无限递归和迭代演算但终究难以解决的伦理问题。

一、“算法物化”及其伦理效应

伦理上迭代演进和自我完善的“算法规制”其理论基础是技术算法观,认为算法即技术,或算法主要是技术。在现实中往往表现出两种倾向:一是技术万能论;二是技术中立论。其中,技术万能论观点在算法领域的主张就是“万物皆可计算”观念极其普遍的算法设计程序。技术中立论的核心要义即“技术就是技术”与价值无涉,从而使算法责任无从着落。对此,我们通过对算法定义的分析来予以辩驳。

(一)算法是什么?

学界对算法的定义有狭义、中义和广义三种。狭义的算法指的是“一组逐步执行的指令,通过机械的方式实施,以之达到某种预期的效果”。狭义的算法基本上局限在数学递归和数值计算范围内。随着现代计算机技术的出现,算法逐渐从纯粹数学迭代和递归计算转向计算机硬件物化和代码程序编程技术支持,出现了中观意义上的算法定义,即“人类和机器交互的决策,即人类通过代码设置、数据运算与机器自动化判断进行决策的一套机制”。中观算法定义从狭义的数学计算转向了基于特定的目标函数,在既有软硬件环境下设计人类决策活动的形式和过程。此时,算法本质上还是实现特定目标的工具,还没有摆脱形式化技术的烙印。随着人工智能向深度神经元网络、实时学习和集体性认知的深入发展,出现了广义的算法定义,其更进一步超越数学应用和计算机科学领域而扩展至哲学认知、社会和文化系统层面,广义算法定义认为算法是“建立在对什么是知识、一个人有应该如何区别它最相关构件的特定预设之上的一种特殊的‘知识逻辑’”。或者认为算法“不仅由理性的程序形成,还由制度、人类、交叉环境和在普通的文化生活中获得的粗糙而且现成的感官形成”,因此算法更适宜作为一种文化来看待,更具体地来说适宜作为一种“数据文化”来看待。也有认为算法是“一个多层次的概念,是一个包含了的人类和非人类代理物在社会和技术环境中的集合的过程。”不仅包括通常认为的技术性,还包括“实体的、物理的、城市基础设施的可接触层面的意涵,也指围绕算法所展开的空间的、阶层的、关系的和话语的等多元社会因素的交织与互动”。因此,从广义的定义来看,算法是建立在技术基础上的多维多层次的综合体。该定义其实已经超越了非此即彼式的简单定义方式,而将对事物本质的认知放在一个动态的可延展的开放空间中来理解。正如海德格尔将技术本质定义为“各种整体性需要的设置”“解蔽方式”“基座”“集置”一样,广义算法意味着以技术为基础的面向未来的新型社会关系的重塑和调整机制。

我们采用广义的算法定义,理由不仅在于上述广义算法定义的主张和依据,还基于以下四个方面原因:一、狭义算法只是一种数学中的优化计算方法、程序技术和思想,根本不具备可规制性;二、算法是一种广义的“抽象技术”,既有纯理念的因素,同时又需要具体落地。而“抽象技术在某种意义上扮演着社会角色”。因为“算法结果常常被翻译回传统的社会参数”,所以,对于算法的正确理解需要超越算法技术本身;三、即使是算法和人工智能技术领域的专家也越来越意识到不能够把算法和人工智能看作是纯粹的技术问题。人工智能的创始人之一马文﹒明斯基曾说过“问题并不是智能机器是否能有感情,而是没有感情的机器怎么能是智能的?”客观来看“算法中不存在中立性,不存在非政治性的编程。在训练数据、系统结构、后处理步骤和模型输出等各环节,人类的偏见和不同的价值判断无处不在”。因此,相关的伦理和社会问题得不到较好解决的话会严重影响算法技术本身的发展。四、从规制算法的角度来看,如果算法仅仅是一种中立性的技术,确实没有规制的必要和可能。但是技术的中立性是否存在呢?以一个通常的例子来说:当一把枪支孤零零的摆放在那里,没有任何人为因素介入和主导,我们是否仍然能够说这把枪支的本身及其发明制造是暴力和邪恶的?它的暴力性及其邪恶来自于杀伤性,但是这种杀伤性并非其独有的本质性特征。因为要想杀伤他人,即使没有枪支,也可以用一只筷子插入受害者的喉咙。筷子因此也具有了杀伤性,尽管我们都知道发明筷子的原本目的是为了人们方便进食。所以,孤立地看待技术没有意义。撇除任何社会关联、情境和目的性预设,技术既可以什么都不是也可以什么都是,最终的本质就被归结为与任何实质性价值判断全然无涉的工艺、程序及其会聚、整合与优化。

技术中立论站在这种抽离了社会关联而孤立的角度得出的结论其实并不可靠。技术哲学核心命题之一就是“技术负载价值”。有学者将其通俗解释为“技术有偏心眼”。兰登·温纳一方面批评了轻率地主张对技术予以防卫的观点,强调技术发展对促进人类更好生活的益处。另一方面指出技术的内禀政治性势必会“将社会塑造成适合它自身模式的样子”从而不可避免地会改变人际权力均势走向。当技术和人工造物能够给人们的道德判断提供“物质答案”时,它也就具有了道德性。沿着温纳的观点和论证方法,托默·拉兹维奇指出在深度学习及其算法设计中同样存在着政治性。近年来,国内外大量文献论述算法中存在偏见、歧视、不透明性都从不同侧面论证了算法所具有的政治和伦理属性。那么,接下来我们需要论述的是:怎样理解算法具有政治和伦理属性?

(二)“物化”与“道德能动性”双重属性的算法

在讨论算法和人工智能的伦理属性时,学界通常依据的伦理命题是:算法和人工智能的伦理属性是“人的伦理”而非“物的伦理”。该论断来自于两个相互支持的论证:一是笛卡尔心物二元论;二是亚里士多德三段论式伦理属性推理。在笛卡尔看来“理性灵魂,表明它决不能来自物质的力量”。我思故我在,实体及其概念来自于心灵的内在构造,物质世界不能够成为伦理推论的基础,所谓伦理只能是“人的伦理”而非“物的伦理”。在物质世界不可知的前提下,康德提出基于人的先验道德能力的道德律令,进一步补强“人的伦理”的合法性与唯一性。这种伦理思想迄今为止在政治、法律等领域都还居于主流地位。以法律为例,现代法律不仅不以无生命物作为法律责任主体,未成年人、饲养的动物等也不得作为法律责任主体。对于人工智能物,例如机器人的法律地位的判定也是依据这种观点。对这种由笛卡尔首开的伦理论断,马克﹒科尔伯格对之进行了亚里士多德式三段论推理转换。

(1)所有具有属性P的实体都具有道德地位S

(2)实体X具有属性P

(3)实体X具有道德地位S

马克·科尔伯格把这种不假思索地把功能与主体合二为一的,认为道德地位取决于具有特定属性实体的论断称之为笛卡尔式伦理观。并提出了与之相反的非笛卡尔式(non-cartesian)伦理观,以此作为理论基础重新认知人工智能物的伦理和法律地位。非笛卡尔式伦理观的本质在于区分功能和主体,从实体属性观转换到关系论立场上来。这样一来,人工智能物是否具有道德地位不是取决于其是否具有某种特定的道德属性,而是取决于位于什么样的主体、情境及其关系结构中。那么,这就意味着如果人工智能物影响和改变了某些人际和社会关系结构的话,它同样因此具有了道德地位。这种观点被称为“物化的伦理学”或“人工物的道德”。即抽象的伦理道德观念可以通过具体的技术设计及其物化后的载体加以体现,同时,具体的技术设计及其物化载体也会有意无意地地影响、控制和引导伦理道德观念的形成和改变。相对于传统的笛卡尔式伦理观,该观点被认为是完成了一个“道德思维范式的转换”。这种针对现代科学技术本质分析而来的“物化的伦理学”或“人工物的道德”理论观点同样适用于对算法本质的理解。从概念性的角度来说,二者都体现为是一个递归性过程和结果。算法的基本结构是在目标和所欲结果之间,使用变换操作或函数映射方法获取可靠而连续的最优化操作方案,是一个可计算的递归性过程和结果。布莱恩﹒阿瑟在为技术提供一个本质的和整体性的定义时,同样认为技术是一个由不同模块层级会聚、优化组合的递归性过程和结果。从物质性的角度来说,二者都是“人工物”。无论是算法还是技术,都是“人工物”,都需要一个物化过程,体现为可见的、可控制和操作的物及其结构化的、具有极大优化组合和创新可能性的“关系网络”。终端就是层出不穷地展现在人们眼前的各种科技“人工物”。从二者间相互支持融合角度来说。一方面大范围和深度计算离不开技术所提供的硬件化的算力设备支持。另一方面技术产品、如数码物及其预存也同样离不开以算法运行的递归函数构成的自动化环境。所以,“技术就是物理空间中的算法,算法就是赛博空间中的技术”。既然算法和科学技术具有同质性,那么,结合前述广义算法定义,算法的结构和属性起码具有两个层次:一是物化层次的算法;二是作为道德能动性的算法。物化层次的算法指的是,算法必须要落地,不能仅仅停留在数学递归和可计算理论的观念范围内,需要在物化(包括虚拟的数码化)、场景化的环境中设计目标函数。拿外卖平台的算法设计来说,送餐的算法优化设计离不开平台公司数据条件、算力条件、目标用户及其具体化需求、餐饮商家地理位置布局和出餐能力、城市交通设施和实时通行状况等一系列因素。只有当算法外化为场景化的可操控物化物时才是可以规制且必须规制的算法。当算法外化为一系列的物之后,根据“物化的伦理学”观点,这些物的存在、功能、组合形成的环境氛围可以负载、影响、和人类一起创造价值和伦理观念。也就是说这些物同样具有了像人类一样的道德能动性。在道德演化论学者范﹒德瓦尔看来,相信人类是唯一的道德主体不过是一种盲目自信。虽然对道德本质存在诸多看法,但究其本质而言就是帮助和伤害这两种行为及其延伸效果。而动物也会自发地进行帮助和伤害行为并予以相应的调整,因此,动物也应被视为道德主体。同样,算法给人类带来的无非也是帮助和伤害这两种效果,所以,当算法越来越具有主动性和自主演进功能时,相应的道德能动性也越来越强。算法物化后的物具有道德能动性是不是就自然而然地使其成为适格的道德能动者?根据前述非笛卡尔式伦理观,并不能够必然得出这个结论。我们不能再一次犯同样的错误,把功能赋予和主体本质属性想当然地混同在一起。在没有充足理由说明算法及其物化后的人工物能够作为负责任的道德行为主体来看待的情况下,应采取谨慎的做法,即认为其具有道德能动性。正如卡廷卡﹒韦尔伯斯所言“技术可以发挥道德作用,但它们并不是与人类同一意义上的道德实体”。

二、算法归责的转变

既然算法及其人工物具有道德能动性,那么,接下来我们需要分析“算法规制”的责任问题。为此,我们需要区分三个相关联的概念:道德能动性、道德行为体、责任主体。我们认为,算法及其人工物具备道德能动性,由此可以将其推论为道德行为体,但是却不能由道德行为体推论出其是责任主体。

从人类本位主义伦理观来看,道德行为体基于道德能动性为或不为某种道德上可评价行为,从而承担道德乃至法律责任,这是一个几近无缝对接式的平滑过渡。但是这种伦理道德推论应用在算法的伦理道德规制方面却出现了错位和断层。在自主化技术领域,难免会被质疑“人类究竟能在多大程度上维持其自主行动者的既定地位”?在算法治理过程中,算法及其人工物具有道德能动性的直接效果是影响人类一方的价值或伦理选择。从责任伦理和法律的角度来看,归责建立在主体能力和客观条件基础上。承担责任需要主体具有相应的认知和判断能力、身份或职责约束、先行行为、客观条件等。当人类因为算法的影响而减弱了相应的认知、选择和决断能力(例如算法正一步步替代人类进行分析、判断和选择;或算法及其人工物营造出无所不在的算法环境以暗示、诱导人们进行选择;甚至算法实际上只给人们提供唯一方案),按照一般伦理学观点,人类一方应该因此而减少或不承担责任。那么,人类减少或不承担的这部分责任能否就此转移到算法及其人工物那里?显然不行。因为前面已经说明,算法及其物化后的人工物虽然具备道德能动性,但不是能够负责任的道德行为主体。

这样一来,谁来承担这部分责任?有的认为对于普通人而言,算法就是一个黑箱子,要求算法决策者和使用者负担披露和透明化义务。有的认为应该“揭开代码炼金术的神秘面纱”,责任由算法设计者来承担。也有的认为可以将选择算法的权利留给用户,由用户承担由此而来的相关责任。也有认为应该由设计者和用户共同来承担责任。虽然关于具体的责任主体应该是谁有着不同主张,但都是从人类应该负责任的角度来说的。即使算法及其人工物影响以至替代人类的选择,人类并不因此减少或不承担责任,唯一的区别就是改变了承担责任的主体及其承担责任的方式。我们认为,以人类作为负责任主体固然没错,但是没有分析算法环境下人类承担责任的前提、条件和环境的话,归责结果极有可能是不公平不正义的。既有的算法责任观脱胎于近代以来至信息技术时代之前的一般(普通)伦理责任观。这种责任观具有四个特征:一是严格的个人主义责任。近代以来伦理学中责任主体的发展史就是一部从宗教团体、家族、家庭逐渐转换至个人的历史;二是能责相适应责任。即以责任替代美德。以个人是否具备相应的认识和控制能力及其条件为承担责任的前提,不再采用美德、公共意志等超个体化标准;三是有限因果责任。责任需具备三要素:行为、结果、行为和结果之间的因果关系。行为人的作为或不作为(有积极的作为义务却消极不作为)和结果之间有因果关系是最重要同时也是最难认定的。所以,因果链条在空间和时间上都做了必要的截断,空间上以具体的个人认知和控制能力为限,时间上不回溯过去也不向未来延伸;四是后果责任原则。以是否造成了现实和比较明显的后果为标准来倒推承担责任的主体、方式、范围。

算法时代,“技术扩展了道德概念的范围,重塑了正常的感觉,技术不仅可能会动摇或形成重要的伦理观念,而且事实上会要求发展全新的道德理论”。这种全新的道德理论就是责任伦理和应用伦理学框架下的算法伦理。这种伦理几乎从每个方面都要重构算法和信息技术时代之前的一般伦理学:一、从个人主义责任观转换至共同责任观。算法从设计、开发到落地应用已经全然不是某一个主体在单一的、可认知、可控制环境下独自完成的,这是一个多主体共同参与并且具有多样化形式的复杂过程。因而,责任主体的范围相应需要扩展开。二、能责适应观标准的再调整。如果继续以个人是否具备相应的认识和控制能力及其条件为承担责任作为归责前提的话,标准太高,以至会出现大量的难以归责于个人和集体性、有组织地不负责任现象。三、新型因果关系标准。因为算法从设计到应用被分为诸多环节,因果链条更长同时也更加隐蔽,所以,需要重新选择因果链条在空间和时间上的截断标准。四、不仅仅以是否造成了实际后果为标准来倒推承担责任。在多主体以多种形式在多个环节共同完成算法规制的情况下,多因一果、多果一因、多果多因现象频繁出现,以果推因确定清晰的责任承担方法渐渐不敷适用。基于这些原因,我们认为,适合于算法规制的责任原则主要有两项:一、集体责任原则;二、分布式责任原则。这两种责任原则和传统的个体化、能责相适应、有限因果范围界定的消极责任有较大不同,共同指向积极责任的实现,从各个方面对传统个体化消极责任可能造成的偏颇和空白予以纠正和填补。不过,为了避免矫枉过正、过犹不及,体现出算法归责中的公平合法,需要对这些归责原则及其适用进行法律的规范化调整,进而发展出集体法律责任和分布式法律责任。

三、集体法律责任

从算法的角度来说,集体法律责任的提出,是针对算法设计与运行的两个特征:一是算法行为的局部交互性和较高的整体关联性;二是责任难以分割识别从而具有整体(集体)性。

(一)为何要集体承担法律责任

根据前述广义算法定义,算法不是单纯的数学计算,包括了算法技术设计、运行和反馈、制度实施、软硬件环境、利益目标设置与调整等诸多因素,因此是发生在多主体之间的复杂性共同行为。算法时代以前,主体在做出某种行为时,行为与结果之间的射程短,介入和干扰因素少,影响行为者的行为动机、认知、意志的因素少而且清晰可辨。所以,行为者、行为、结果、行为与结果之间的因果关联这些确认责任归属的因素相对简单而且明确,在单一的个体化、及时性、强因果性的框架内就可以完成归责判定。但是,在算法设计和落地实施过程中,从主体的角度来看,涉及到基本算法程序设计者、应用性开发者、平台、用户;从行为的角度来看,有程序设计、实践应用、反馈与调试等。从最初的基本算法程序设计到社会性结果的出现,中间经过了各种主体间相互配合和进一步应用。从算法设计和开发者的角度来说,因为他没有能力预见到其所设计开发的算法会运用到哪些领域、哪些事项以及会产生哪些结果,因而承担的是狭义算法维度上的技术性责任;从平台的角度来说,其本职是使用代码进行在线执行与项目转化,算法识别和计算前提在落地适用时造成的算法歧视和算法权力不正当行使是平台始料不及的,从而也不应该由平台负责;对于用户来说,在享受算法带来的便利的同时,是否也意味着事实上已经接受了算法应用契约性条件并应该因此为实际享受的算法福利买单。但是对于平台和用户来说“算法本质上是不透明的,它们的决策标准隐藏在一层我们不容易阅读和理解的代码后面”。无论是平台自我披露、算法透明化还是用户的积极监督都面临着难以克服的技术困难,且被课以过高的义务要求。在这个过程中,个体化情境中的直接的、清晰可辨的责任在诸多主体间不断地转换、稀释、变形、模糊化,到最后每一个参与者看起来都和结果有关,但是却都不是直接可认定的责任人,责任真空就此出现。

算法本质上是一种递归计算及其技术应用。其中包含着“递归性结构”,即“技术包含着技术,直到最基础的水平”,还原至某个现象的这样一种结构。单就计算本身来讲,需要(a)足够数量的数据收集、存储、分类、结构化;(b)依据目标和条件进行算法设计及其初级运算,得出初步指令;(c)借助初步指令得出下一步指令;(d)在新的数据基础上不断重复(a) (b) (c)过程。这种层层累积叠加、优化组合的过程远非单一个体能够解决,要在大型的团队组织中协同配合才得以可能。而且,作为有机社会连接的基础要素,共同(集体)责任原本就是题中应有之意。社会关系中,每一个主体都是“互有责任的成员”。在算法和大数据架构出的现代信息社会中,社会成员之间的关联更加紧密而复杂,因此产生了比传统社会更多更复杂的责任关联。

集体法律责任是整个算法归责体系中的框架式、兜底式的责任。算法以及人工智能的发展现在还处于初始阶段,现在还不能比较清晰地勾勒出其对社会生活所产生的影响和具体内容。以集体法律责任作为初步的责任原则,可以避免在常规的因果责任原则难以适用时出现责任真空和有组织的不负责现象产生。当然,这个理由只是其一,还不能构成法律上认定集体法律责任的充要条件。集体只是一个法律上的拟制人,具体行为都是由自然人做出,因此,探讨集体责任时核心问题是依据什么标准个人行为被看作是集体行为。个人责任的判定一般来说有身份、代理关系、利益归属这三个标准。那么,这三个标准是否也适用于算法的集体责任认定?

正式的结构化组织中,外部组织边界比较固定而且清晰,内部岗位职能明确、成员身份固定,从身份来识别行为属性并确定责任承担相对简单。算法社会中,正式的结构化组织正在遭遇算法带来的冲击,组织形式产生极大变化,社会组织和社会关系越来越平面化和跨领域化,科层制组织逐渐被平台型组织所替代,体制性分配性身份关系逐渐被功能性身份关系替代。但既有的身份关系认定还停留在原先的制度框架内,难以识别越来越多出现的新型功能性身份关系,从法律上也暂时难以类别化。所以,将身份关系类别化后课以相应法律责任的做法行不通。代理关系和利益归属这两个标准同样也面临着类似的适用困难。对此,我们可以试着转变一下思路,从本文所倡导的积极法律责任的角度来分析。

身份、代理关系、利益归属这三个标准要么是站在外部识别的角度,要么是消极等待结果如何,不约而同地忽视了自始至终的一个关键性因素—集体行为。集体意向的形成到最终结果的产生,都是集体行为发起、展开、结束所产生的效应。以行为作为抓手分析集体责任的好处还在于可以避免身份、代理关系、利益归属这三个标准所带来的道德决定论的消极后果,以行为的可控性、自我审查、集体性期待等特性为行为归责找到合法性依据,也为良善的个体和集体性行为树立积极的正向标准。因此,积极的算法法律责任视角就是从集体行为出发进行分析的视角。

(二)集体法律责任的边界及其适用原则

个体行为怎样被视为集体行为?在多元化主体和多元化任务交叉并行的算法实施领域,这个问题尤其复杂。原因在于:一、期待每一个集体成员在动机、意图、行动模式、目标等方面整齐划一是不可能的。从狭义的算法技术设计开始到整体性目标的最终实现,任务被逐级分解至不同环节上的个人。个人的任务目标随着总体任务的复杂性、集体组织的庞大和新型化、程序的细化等因素的逐渐演化从而与集体目标看起来渐行渐远;二、个人普遍来说都是从具身情境出发、以较多自身利益考量较少集体利益考量的标准去实现集体分配的任务;三、相对于一般的集体关联行为而言,算法行为显示的是其技术性的一面,很难直接看出其行为的社会关联性。所以,如果将个体行为视为集体行为的代理的话,不宜从行为种类、具体行为内容和行为结果方面入手,而是从行为推理模式入手。个体行为如果被视为集体行为的话,个体的推理模式应该符合集体推理模式,让“我的”推理符合“我们的”推理所要求的法律标准。这样的话,即使在算法环境中难以准确界定与他人和集体行为的关联度以及与最终结果的关联度,也不影响对行为属性和责任归属的判定。

从法律的角度来讲,让“我的”推理符合“我们的”推理,不能够主要诉诸于一般性道德标准和集体纪律,那样的话对于法律而言提出了不必要的也是过高的要求。良好的法律制度设计应该达到的效果是:让个体基于理性计算主动地设计、调整、规范自己的行为,以配合实现集体目标(或最起码不阻碍实现集体目标)。法律需要从个体化理性选择视角设计集体法律责任的框架与内容因此成为原则性规定。但是,个体是在具体的组织环境和既定的认知条件下进行理性计算的。在算法环境中,多领域多部门共同协作、任务的层层分解、行为与结果之间漫长而隐蔽的因果链等因素可以让个体在背离集体责任时有充足理由。所以,需要法律来填补从个体认知决策的现实局限性到承担集体责任之间这个空白,即法律应该让个体知道他应该知道什么、注意什么。在此需要依据两个方面标准:一是技术标准;二是价值标准。技术标准由行业依据现有的技术发展水平和整体适用条件来制定,无需多言。价值标准虽然难以也不宜直接适用,但却是算法责任产生的基础,所以,比较妥当的方法是以算法适用各个环节中产生的价值和伦理要求为线索,凸显出需要规范的环节及其问题,然后从法律的角度对之进行可操作和公平性改造。算法适用场景可能千差万别,逐一辨别每个场景中算法适用环节及其伦理问题规制无异于为每一个个案量身定制法律法规。不过,我们前面已经分析指出,算法归责和其它行为归责的最大不同在于算法物化后的道德能动性对归责有很大影响,在算法归责时这是必须要考虑的因素,所以可以从这个因素着手来分析。从侵权法的角度来讲,一般侵权责任构成要件有四个:加害行为、损害、因果关系、过错。如果物化后的算法所具有的道德能动性对这些构成要件成立有影响的话,自然要重新判定个体责任。这四个要件中,可能受到影响的是对过错的认定。物化后的算法所具有的道德能动性极有可能影响个体对环境以及行为性质的认知和控制,所以,适用过错原则(无论故意还是过失)难以对其归责。侵权构成要件构成的是一个有机系统,“作为责任基础的过错”有疑问的话,责任就难以认定。既然适用过错原则可能会导致个体免责,那么,能否考虑适用严格责任原则?因为该原则针对的就是类似于算法环境中产生的危险责任和客观责任。我们认为可以考虑适用,但是有两个前提:一、在集体中适用严格责任,其中一个前提是这个集体中成员构成、成员身份、个体和集体性行为等,无论从集体外部还是从机体内部都要能够清晰辨别和划分。如果不能,容易出现将集体责任转变成个体责任或集体性不负责等责任空白现象;二、充分考虑个体认知和意志因素,否则不符合法律上公平责任分配原则。对于任何具体适用,我们接下来在分布式法律责任这一节中详细分析。

总之,对于算法环境中产生的危险责任和客观责任也不能因为不宜归责于个体而出现空白。我们可以考虑让集体承担。不过集体承担也不是打包式的无原则归责,也要适用法律上的归责原则,我们可以考虑设计综合归责模式,即集体承担严格责任为主加上个体公平责任的形式予以调整。这样一来,首先可以保证不出现归责空白;其次,算法适用所造成的损害不仅仅是侵权类型所能够全部包含的,其中有部分体现为主体和组织边界难以精确界定的集体或社会性“法益”,或者是随着算法性社会关系而来的新型主体“权益”。在个体适用过错责任的情况下,让集体承担严格责任加上个体承担公平责任的模式进行归责较为妥当。

四、分布式法律责任

为了保证互联网系统的稳定性和安全,互联网环境中的算法大多数采用分布式算法。我们所说的互联网算法环境是智能化主体及其行为局部交互的分布式环境。在此环境下的整体行为呈分布式分散于不同的人和人工智能物,并通过交互式形式合作完成。分布式法律责任对应于分布式算法环境,脱胎于卢西亚诺﹒弗洛瑞迪、洛伦佐﹒马格纳尼、伊曼纽尔·巴登等人提出的“分布式道德”概念。特指在多个智能体(包括自然人、智能化人工物)形成的智能化系统中,由众人之手系统性交互作用而产生的,调整非个体化责任和宏观的全球化责任均日益增长现象的道德结构及其要求,面对的是多环节、多主体、分布式计算环境下的伦理和道德归责挑战。一言以蔽之,分布式道德和法律责任就是因为难以在个体意向性范围内进行自主自足的责任判断与归责,转而在整体范围内以长时段、阶段性、个别化甄别方法进行归责的责任。

(一)分布式法律责任的必要性

算法环境下个体面临着信息不完整的状况,通过分布式算法任务配置可以有效解决信息不完整环境下个体决策难题,从而在局部的、阶段性环境中保证决策以及道德归责实现的可能性。从整个系统和组织整体的角度来看,算法的分布式设计一方面产生了越来越微观的碎片化、分散的道德情境;另一方面产生出大量具有道德中介性质的道德化人工物。这两种情形在简化和分解了总体道德任务的同时,使得个体和组织的道德能力随之下降,个体行为与损害结果发生之间因果关联特征模糊,从而难以进行归责判断。所以需要将“责任归因于分布式系统”。分布式法律责任就是探讨这种系统性智能化环境中非个体化(中立性)责任以及集体性责任的归责原则及其结构。分布式算法环境下所产生的分布式道德行为是“一些人、一些人工体(譬如程序)和一些混合体(譬如基于一个软件平台相互协作的一群人)通过一些既非善也非恶(道德中立)的局部交互,可能会导致一些善或恶(负载道德责任)的行为”。按照前面所说的集体承担严格责任原则,这部分行为或者以新型的分布式代理方式在成员之间、成员和人工智能物之间重新寻找责任主体及其实现方式,或者让集体负责。事实上还是以打包式的方式让集体承担下来了,因为这样做简单快捷,但是这样做并没有解决问题。首先,如果不区别组织集体和成员之间因新型生产力的发展呈现出何种雇佣关系,始终用一张严格责任的大网牢牢地套在组织集体头上的话,不利于互联网新科技环境下组织创新的功能实现;其次,为了规避严格责任,许多网络组织和平台企业纷纷采取劳务外包、格式合同等方式将成员和集体之间的身份关系以及职务行为稀释、转移和隐蔽起来。严格责任因此就被架空,进而产生大量社会问题。为此,我们需要在集体严格责任的基础上再进行归责的细化,目的在于识别并确定集体中这部分道德中立却负载道德行为的归责。

(二)分布式法律责任的三重结构

在集体法律责任原则下,个体基于内在的意向性承担公平责任是确定法律责任的一般性标准,但同时也是在集体中产生道德中立却负载道德行为的原因。所以,如果要对这部分行为进行归责的话,势必要把标准从内部转向外部,从主体的内在意向性以外寻找归责依据。卢西亚诺·弗洛瑞迪将以个体意向性为标准的道德归责称为个体道德的非分布式版本。由于该版本难以契合具有分布式认知和决策特征的计算机网络系统,他认为“伦理不仅是评价代理及其意向性行为,也是评价行为的接受方(所影响的受事)的状态,因此也影响到相关的代理群体。正是它们的聚合行为导致这种状态。如果驱使这种分析的是受影响的一方在行为发生后在道德上更好还是更坏的话,那么,意向性可能仍然是非常相关的,但其已经不再是必要条件”。所以,在以个体内在意向性为界限廓清集体和个体责任后,下一步就是从外部寻找归责的必要条件。我们将算法程序中在局部看来道德中立客观上却应该负载道德的行为称为分布式道德行为。既然要从外部寻找归责的必要条件,我们接下来就围绕着分布式道德行为的算法环境特征、行为性质特征、作用对象及其后果等因素进行分析。

行动者、行动与其具身环境之间是不断互动互构的建构性关系。算法设计和实施者、算法和人工智能物、算法关联性网络构成了算法环境的基本框架,事实上形成了典型的布鲁诺﹒拉图尔所说的“行动者网络”。在算法和人工智能物的道德主体地位及其功能方面,行动者网络理论和我们前述的观点一致,否认个体内在意向性在归责判断中决定性地位,以物化媒介物和行为者之间的互构和评价作为道德行为的本质及其归责的依据。由于行动者网络动态互构和及时生成的特征,道德判断及其归责由原来主—客二元结构转变为散点状分布的网络结构关系。我们把分布式道德责任的法律分析放在这种网络结构关系中进行。首先需要确定的是处在网络节点上的个体责任。不以内在意向性作为归责标准时,一般会采取后果主义归责模式。但单纯采用后果主义模式进行算法归责最终要么是集体负责,要么是每个人共同平均分配责任。后果主义归责有必要,但是需要配合以网络节点上的个体归责。从公平责任角度来看,即使不以意向性为标准,行为者也需要在基本的认知水平、一般性道德标准、行业技术标准和伦理规范下作为或不作为。在这些标准下,个体是可以而且应该自治的。既然是自治的,对之予以归责就是公平合理的。具体到算法关联性网络环境中,对个体予以归责的标准就是:是否遵守技术规范和行业伦理以负责并规范自己的行为;是否在行为输入—结果输出的过程中不断学习和矫正(如果不能从最终结果或较大范围回溯的话,起码在个体进行算法输入和事先可预判、事后及时可判断输入结果是如何发生的这个范围内有学习和矫正义务)。对个体予以归责的过程是算法输入 结果输出的“前向传播”。不过,在大型的复杂算法网络环境中,即使个体遵守了这些义务进行算法输入,还有可能会产生负面结果,这时候就需要进行反向输入或曰“后向传播”以查明每一个输入者的责任。即以负面结果为起点,以法律上严格责任为标准,反向回溯倒推至网络上的每一个关系节点。到达具体的关系节点时,辨别其算法输入行为性质有三重标准:物理标准;事理标准;伦理标准。因为不宜使用意向性标准,所以暂时忽略伦理标准,综合物理标准和事理标准构成归责的法理标准(情境化后就是法律上的严格责任)。不过,适用法律上的严格责任之前要允许主体将待评价行为在反向传播和正向传播相互之间反复权衡与矫正。在反向传播过程中,从结果回溯至行为向行为者展示了损害结果和算法行为之间客观的关联性。在接下来新一轮的正向传播过程中,给行为者在知晓客观关联性及其事实的基础上进行道德选择留下自主选择空间。至此,补齐了暂时忽略的伦理标准,法理标准从而具有完整的评价结构及其合法性效力。

当法理标准具有了物理标准、事理标准、伦理标准三重结构时,意味着在算法关联性网络中可以通过“硬性的和软性的立法、规则和行为准则,助推、激励或抑制”等方法进行全方位、立体化的分布式道德责任判断。这就是说以法律上严格责任进行反向传播归责时,开启了情境化、多主体、多因素共同作用下的多维度归责空间。从主体的角度来看,构成算法网络有算法设计输入者、算法人工智能物、算法实施对象、算法平台;从目标上来看,通过算法所要实现的目标是多元的,有自主、公平、个人保护、整体性(社会)利益保护;从算法责任产生环节来看,有个人责任确定环节和集体责任确定环节。基于主体、目标和环节之间的复杂交错的关联,从而产生诸多因果关联形式、道德决策问题及其归责方式。面对诸多的主体、程序环节和不同的标准要求,想要获取周延、客观中立的优化结果,行之有效的方法就是采用矩阵分析。诺丁汉大学本·米帕姆首创用矩阵分析方法解决伦理冲突,即伦理矩阵方法。我们将其适用于分布式环境下的算法伦理分析,因为通过该方法,实际上已经把物理标准、事理标准囊括在伦理标准中,并且由此伦理标准出发找到的法律责任种类更为细致准确。

表 算法伦理矩阵

如表中的算法伦理矩阵所示,在局部环境下,矩阵中的主体单独每一项伦理要求都有其合理性依据。但是从分布式环境整体来看,其合理性还需要结合其它主体的不同伦理要求进行整体性考量和修正。例如:对于算法设计和输入者来讲,自主性原则意味着其在分布式算法环境中局部的中立性算法行为自由。对于算法作用对象来讲,自主性则意味着即使算法设计和输入者的算法行为在伦理上无可指摘,也不意味着必须接受其行为结果。这样一来,从整体性以及行为结果角度来看,在自主原则这个维度上这两类主体之间产生了冲突。算法过程如果能够持续展开的话,需要相应的归责原则及其责任实现方式来予以调整。在个人保护原则、集体利益原则、公平正义原则上都程度不同地存在着类似的伦理冲突以及相应的归责原则和责任实现方式的需求。从表中各个主体的地位、利益与伦理诉求以及整体均衡方面来看,比较适宜的对应责任有:预期性伦理责任、前瞻责任以及回溯责任。

(三)分布式法律责任的“散点状”网络结构

预期性伦理是调整“对未来可能的设备、应用和社会后果的预期,研究技术开发的研发和引进阶段的伦理问题”而产生的伦理规范,是“分析新兴技术将如何建立、想象它们将如何被适用、并解释其后果的实践”。由技术预期分析、伦理问题识别、伦理问题评估、反馈与技术治理四个阶段和流程组成,特点是对于技术流程的分析非常精细,相应的伦理问题的把握较为精确。前瞻性责任的“第一职责”是“想象技术行动的长远后果”,侧重在面向未来的整体性后果基础上制定伦理标准。我们可以将预期性伦理责任和前瞻责任运用于算法输入 结果输出的前向传播过程中的伦理判断与归责。回溯责任以结果为导向,倒溯至行动者网络中每一个行动者,综合分析其行为、身份职责、行为环境、客观而非想象的因果关系等因素进行归责。我们可以将其运用于结果输出 算法输入的后向传播过程中的伦理判断与归责。

预期性伦理责任和前瞻责任相比一般(普通)伦理责任观多了一个未来维度,但并不因此减少其对主体行为时状况的关注,任何有效的预期与前瞻都不是无视现实的设想并对行为主体提出过高的要求,二者都必须从行为主体的现状出发。而且,这两项归责原则是原则性、背景性的伦理要求,还需要进一步予以规范性的可操作化处理。为此,我们引入“期待可能性”理论及其方法来解决这个问题。

虽然发源于刑法,但随着现代风险社会的转向,期待可能性已经不限于刑法中责任归责,因为实现了由主张抗辩事由向建立风险分担标准的转换,在民事、劳动、行政、环境法律领域中被大量适用。该理论有积极和消极的两个面相。消极的期待可能性意味着在个体能力及其环境的一般性标准上提出免责事由。积极的期待可能性意味着基于风险控制需要对行为人的“非难可能性以期待可能性为条件”。从功能实现角度来说,这两方面都具有积极意义,是经历了道义责任论、社会责任论、心理责任论三个阶段后在责任的客观化和社会化层面上进行的综合性规范责任构建。期待可能性的标准有三大类:立足于客观情形的标准、立足于人的标准和把人的因素和客观情形结合起来综合思考的折中标准。将其积极的功能特质和折中标准运用于算法前向传播过程中预期性伦理责任和前瞻责任的法律重构具有很多优势,主要有三点:一、期待可能性分析的是个体在具体情境中为或不为目标行为的可能性条件,因此可以将责任精确定位至每个行为主体而非集体打包式承担;二、以折中后形成的客观化和社会化标准可以避免因适用个体内在意向性伦理标准造成的无人负责结果;三、把非难可能性建立在对个体合理且可操作的期待可能性条件之上,避免了平均主义和后果主义归责弊端,在个体之间、个体和集体之间公平合理地分配责任。当然,需要强调一点,算法归责中适用的折中标准是多维度的,其中必须包含整体和未来维度,也就是说不仅仅要站在具体情境中个体的立场上,还要站在整体的、未来的立场上期待个体为或不为某类行为。

回溯责任是以既有结果为导向,在结果输出 算法输入的后向传播过程中架构出归责可能性框架,与之相对应的法律责任形式就是严格责任。严格责任意味着归责与潜在责任人过错与否无关,只要侵害行为和损害事实之间存在因果关系,以此不仅避开了内在意向性归责在算法归责中的不适用问题,同时还解决了算法归责中独特的、因算法智能物的算法自主性行为造成侵害结果的归责难题。因此,我们将目光聚焦侵权因果关系。因果关系是一个哲学上的多维度概念,具有多种理解维度和适用条件,在侵权法理论中就有条件说、必然因果关系说、相当因果关系说、近因说、推定因果关系说等。不过,不论是哪一种学说,都需要注意的是“在侵权法领域中,因果关系是一种责任理论,这种理论必须解决可归因的损害赔偿问题。因而,一个自然的因果关系概念可能不会具有决定意义”。一般来说“法律中使用的‘原因’主要或完全是为法律的独特目的服务的法律结构,与其它领域或学科可能采用的概念不一致”。在算法归责过程中需要注意的是,算法因果关系是在算法黑箱中产生的,与一般的社会行为相比更加多了认知上的难度,所以更加需要自然因果关系之上的其它因果关系。对此,卢西亚诺﹒弗洛瑞迪以荷兰交通运输法规中对“三名骑行人”和“四艘船”的规制为例提出算法后向传播过程中的严格责任标准。

自行车王国荷兰对公路自行车骑行有着严格法律规定。在不造成危险的前提下,可以两人并列骑行。但当有第三名骑行人加入并列骑行造成危险时,每个人都要为此承担责任,而非第三名骑行人或与之最近的骑行人共同承担。荷兰的法律允许港口外面的河上最多并排停靠三艘船,如果有第四艘船并排停靠时,只有第四艘船承担责任。之所以如此规定,理由在于:当有第三名骑行人加入并列骑行时,正常情况下每个人都可以了解到所有情况并且很容易就能够纠正或中止。但对于其它三艘船来说,想要纠正和制止第三艘船并排停靠要困难得多。通过这样的规定,排除对骑行人内在意向性的探讨,直接将责任和被普遍化接受认可的标准联系起来。这里所说的普遍化接受认可的标准有三重内涵:一、不局限于自然因果关系范畴,在集体范围内从时间、相关行为和结果等多方面予以扩展;二、是社会公认的习惯性标准,从而具有较强的客观性;三、对每个主体进行情境化、合理的期待可能性判断。

至此,我们以期待可能性和严格责任在分布式算法网络中架构起相互呼应的归责原则体系。以期待可能性在算法输入 结果输出的前向传播过程中进行客观而具体的初步筛选,以严格责任在结果输出 算法输入的后向传播过程中再一次进行个别化的甄别。期待可能性以综合性结果为范围和导向,严格责任以客观的期待可能性为前提。无论是算法中前向传播过程和后向传播过程,还是附随其上的期待可能性和严格责任的适用与调整,都不是一次性过程。通过算法输入(期待可能性) 结果输出(严格责任)和结果输出(严格责任) 算法输入(期待可能性)的不断循环和纠正,最终在分布式算法网络中形成公平合理的、对应于由算法行动者、算法人工智能物组成的“散点状”法律责任网络。

展开阅读全文

页面更新:2024-04-29

标签:分布式   算法   集体   伦理   主体   个体   法律责任   道德   标准   责任   技术

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top