【推荐】前沿肖梦黎算法行政责任的分布式重建帕兰提尔公司

肖梦黎

华东理工大学法学院讲师、法律社会学研究中心副主任

摘 要

算法行政作为一种新型的政府购买服务,其隐秘性、自主决策性、多元主体间行为的不可分性给传统责任框架造成了巨大挑战,可能产生责任鸿沟与治理缝隙。现有治理体系多采取主体行为协同、责任分离的逻辑,容易导致责任逃逸与代理洗白等问题,理想型意义上的穿透式责任面临集合行为与科层制难以穿透的实施困境,因此提出分布式责任对二者进行调和。分布式责任有较为严格的前置适用条件,可视为疑难案件的有效解决方案。分布式责任意味着从中心式的控制风格向全流程参与式问责的转换,在无法明确主观故意的算法致害中实现了对多主体间共同责任的简化。

数字政府已是大势所趋,算法行政则是其中的重要抓手。党的十九届五中全会对加强数字政府建设做出了战略部署,《国民经济和社会发展第十四个五年规划和2035年远景目标纲要》进一步明确,“要将数字技术广泛应用于政府管理服务,推动政府治理流程再造和模式优化,不断提高决策科学性和服务效率”。一方面,数字政府与智慧城市的建设为行政事务增效赋能,另一方面公共领域的算法应用也易催生出智能精英主义与技术功利主义。对于层出不穷的数字化治理手段而言,明晰政府与其他机构间的责任界定是重要的破解之道。算法系统的代理性、综合性与隐蔽性,实践运行与法律规范间的距离都给算法行政的责任界定带来了巨大挑战。为此,需要打破部门法的藩篱,打通问责、归责与定责的通道,形成穿透性、整全性的责任体系。

一、算法行政责任体系建立的切要性

典型的韦伯式官僚机构已经是过去式了,数据库和计算机稳步接管了政府工作人员的执法任务。算法系统的广泛采用意味着一个新的阶段,即基于数据分析与预测的算法政治与算法官僚密切结合。税务局开始用算法来预测纳税申报中的滥用和欺诈行为,社会福利系统因公民存在潜在欺诈风险而进行标记,健康码、行程码与场所码的算法创设揭示了疫情期间人们的相关状况。算法行政意味着算法系统从信息输入、信息处理与信息输出三个层面嵌入行政活动,既包括基于数据分析的风险评估机制,也包括辅助行政与有裁量能力的自动化行政。算法行政对行政规则、行政事务、行政知识进行算法编译,依据无人值守的传感器进行识别追踪,聚合多方数据对相对人产生规范性后果,旨在实现基于算法的新型治理方案。

算法行政责任是指在算法行政过程中不同主体可能产生的不同类型的法律责任。算法行政与传统的政府服务外包有较大差异,传统政府采购中让行政组织对外负责的责任模式难以回应算法行政中权力转移与责任混同的问题。传统的政府服务外包有明确可见的实体进行承担,而算法系统却是隐在背后难以被察觉的。算法行政中“行政的替代履行者”不是私人承包商,而是具有自主决策可能的算法系统。政府通过算法采购的是诸如通知、警告、搜证、逮捕、声誉惩罚与监禁评估等传统由公共部门所掌握的治理职能。算法系统能够捕捉决策过程,使看似单纯的工具展现出作为决策“主人”的真实性质。算法行政实质上忽略了行政主体对政策模糊性进行分析与负载价值的过程,压缩了行政活动的各个环节,进一步加深了工具理性。各方主体为避免承担决策责任,倾向于将数据视为不容置疑的事实,将信息架构视为无法接触的实体。在这一过程中,政府不能简单地隐藏在技术复杂性后面,将行政决策的责任交给算法系统以取消行政问责制。我们必须正视算法技术适用于行政领域的特殊属性,而非简单重述传统的责任体系。

(一)算法行政兼具政府购买与自主决策的双重属性

算法行政并非传统的政府购买服务,而是一种实时测量、及时调整的新型治理方式。算法行政触发了法律自身的变革与治理模式的更新,强调精准测量与完美执法,行政权的社会化、公共化与“算法卸责化”的趋势已不可避免。

算法行政的类型拓展彰示出逐渐自主决策的趋势。行政领域的算法系统根据自主程度可划分为纯粹执行者、辅助决策者与独立决策者。进一步可以将算法责任区分为纯粹执行者下的载体责任、辅助决策者下的延体责任与联体责任以及独立责任等类型。在联体责任中,预测偏好类的算法基于数据生成概率分析并对主体进行分类,可以预测诸如哪些人更有可能拥有加密货币,哪些群体有更强的犯罪风险等。算法系统也会在执法者提出的框架中进行自我实现,如将可能涉嫌恐怖行为的主体纳入禁飞名单。算法完全的自主决策是面向未来的可能范型,行政机关可能因算法不可知而对其失去控制。

在处理算法行政处于辅助决策者下的联体责任、独立责任时,传统的责任框架就需要随之调整。大多数算法行政中的索赔案件是针对政府机构而非算法供应商的,但法院多裁定政府停止使用人工智能系统以解决纠纷,无法给相对人提供真正的救济。其原因在于,与传统技术的供应商不同,算法服务商参与或提供了行政行为中的核心逻辑、处罚理由,并付诸行动,这些均可能对相对人的基本权利产生重大影响。

(二)分布式智能催生权力移转

算法合同的逐层外包通常使得算法服务对最终用户并不可见,主承包商对其分包商的技术控制水平也难以保证。算法服务合同可区分为单一来源采购和多来源采购两种模式。单一来源模式中,算法服务商实际上承担了完整的服务责任,如无需本地化部署的云服务产品SaaS等。多来源采购模式下,政府需要承担项目经理和集成商的角色,合同细节更为复杂,风险与责任交叠上升。算法行政中各参与主体实现了角色转换,公共责任存在明显的转移倾向。政府从监管者转变成人工智能的购买者和直接受益者。算法承包商也从技术承包者转变为行政过程的参与者、甚至是主导者。互联网企业的技术优势逐渐演化为一种技术权力,架构会体现出算法编写者的意图。算法行政还可能引发政府空心化的风险,进一步削弱基层公务人员的能动性。

算法行政中这种角色转变使权力结构更加隐蔽,因果关系更加不易察觉。首先,各主体间的关系距离被进一步拉长,技术中立与智能体无责任的外观使得真正的权力机构变得不可见。其次,算法系统是复杂与互联的,彼此间遵循相关性而非因果关系,系统优化随着时间推移不断学习和适应,人机间的协作很难归因。再次,算法行政中,对专家与政府的信任转变为基于数据与算法的“分布式信任”,其自动化决策似乎是“由无形之手启动预定过程的必然结果”,但这种信任可能经不起考验。最后,多重主体的耦合行为很难证明主观犯意,难以符合责任的意向性要件。

(三)算法行政易引发机制化、普遍性的法益侵害

算法行政与人类单个的决策不同,更可能产生体系化、机制化的普遍侵害后果。算法系统无法实现对真实社会的完美复刻,受制于样本量的限制可能导致算法误报与漏报等后果,算法行政系统期待实现的精细化分类与标签化处理可能对公民造成无法磨灭的声誉损害。算法与资本的结合可能使技术承包商甘冒道德风险,或植入后门、或预留风险端口,以期锁定未来的合作。

公共领域应用的算法决策与商业领域不同,可能对社群造成难以逆转的负面后果。算法行政可能通过潜在惩罚对人类进行情感监测与控制,干扰人的自主性,对其自我呈现的能力造成影响。更甚者,会直接干涉公民的基本权利。因此,欧盟的《人工智能法案》与加拿大《关于自动决策的指令》等都将公共领域的算法应用视为高风险算法。

算法行政适用领域与政企合作治理的特殊性,以及算法系统本身的隐蔽性等潜在复杂化了侵权过程。算法行政可能导致催生不平等分配、导致不平等固化与错位代表等问题。更严重的是,算法行政可能造成一种结构性剥削,导致对社会中特定群体的定向剥夺。这种剥削方式并非由特定主体造成,可能不是出于故意行为,甚至于是被剥削者主动在算法框架下进行某种不情愿的合作。

二、实践中责任分立的归责困境

“责任是现代公共行政的核心问题”。从各地建设数字政府的相关规划中,可以发现政府机构与算法服务商呈现出行为协同与责任分离的鲜明特点。这一政策表述给问责带来了较大困难,与分布式主体联合行为的行动实践产生了背离。在对算法行政的考察中,实践运行与问责规范间的距离可视为思考的起点。

(一)行为协同与责任分立的政策表述

我国各地数字政府的规划呈现出行为协同与责任分立的鲜明特点。行为协同意味着建立政企合作模式,提升政企协同能力。政府机关采取购买服务、市场化运作等多种形式,加快基础设施和各类应用建设。在多主体协同的规划方案中,政府与企业在数字政府中呈现出责任分离、彼此区隔的趋势。从各地规范性文件看来,政府在数字政府的建设中一般承担监督指导责任与考核评估责任。

从规范表述来看,算法行政中的主体责任内容异构,环节不同,尚未对其内涵达成一致意见。《国务院关于加强数字政府建设的指导意见》明确落实运营者主体责任,山东与安徽等省份的规划文件则要求政府应承担主体责任,但对于主体责任如何定义、怎样阐发还未达成共识。与此相对应,现有规范在对商业化自动决策进行规制时,也有学者支持追究平台企业的主体责任,但该内容尚未迁移到算法行政中。政府与算法服务平台究竟谁应该承担主体责任、承担何种主体责任在现有责任框架中并不明确。

(二)分布式主体联合行为的行动实践

算法行政中政府与相对人间的二元关系被重塑,行动线条与身份角色随时转变,构成了层层嵌套的多重委托关系(详见表2)。一方面,在数字政府“基座-中台-服务端”的架设中,需要科技公司的深度参与。这种合作治理与传统的政府购买并不相同。在多数案例中,公共部门将项目经营权全权交于算法服务公司,要求其派驻具体工作人员到政府机构现场办公。算法服务公司基于承揽合同或买卖合同向行政机关交付其定制的算法系统。另一方面,政府各部门都要分散化地建立数字体系,系统林立、无法并轨兼容,这可视为“以工程化为主要思路的分散治理模式”造成的机构裂化结果。

从经验实践来看,算法行政中存在的多重委托关系难以清晰剥离。疫情防控初期,浙江省卫生健康委员会迅即与阿里巴巴公司展开合作,使用其研发的“宜搭”平台,在48小时内像乐高积木一样迅速搭建疫情信息采集系统与新型肺炎防控公共服务管理平台。美国洛杉矶警察局与帕兰提尔科技公司合作建立犯罪预警中心,通过挖掘诸如聊天信息、社交媒体等潜在信息进行犯罪预测。这些关系存在于多个主体之间,涉及多方行为。其中需要明确行政决策者是否单方面推动了算法行政的使用议程,是否潜在削弱了基层公务人员的能动性,是否对公众的关切与担忧进行了回应,并解释了相关依据等。与此同时,还要回应代理人渎职、委托人监管能力不足的问题。一边是提供算法服务的行业巨头期望通过低价准入巩固垄断与数据优势,另一边是小型公司紧密依附政府项目发包,技术水平低下。政府部门基于对技术的迷信,反而增加了对结果的确信与在算法行政中的放手。

(三)责任分立下的代理洗白与责任虚置

传统的政府购买服务呈现出“政府-私人主体-公民个人”的三方构造,政府据此承担对私人承包商的监管责任、对公民个人的保护性责任与担保责任。私人承包商则主要承担与政府机关间第一性的合同责任。如果将该套责任体系转译到算法行政中,就会发现接受算法服务的公民无法通过合同责任向算法承包商提出救济(突破了合同的相对性),侵权法上的因果关系证明因算法黑箱基本无法实现,私人行政责任的认定也较为苛刻。如果公民要求政府部门承担责任,其问题在于政府并不了解算法行政的内在逻辑,算法透明与算法解释并不一定能保证实质公平。虽然政府可以要求供应商提供适当的补救措施,或直接更换供应商,但在经济上缺乏提供高额赔偿的可能,在结果上很难修复算法执行错误产生的批量性后果。

政府与算法价值链上的其他主体承担分而治之的责任时,可能引发委托者、设计者与施行主体相关责任的双重逃逸。政府部门以技术名义作为抵挡公众问责的挡箭牌;科技公司也会通过免费运营公共项目等方式避免事后问责。当自主的代理人(算法系统)逃逸了其行为责任时,会出现“代理洗白”(即将因果责任归咎于另一团体、程序或技术)的结果,被代理主体(政府机构)不用履行对特定结果的责任。其一,面对算法系统可能产生的异化,政府享有的更像是一种监督权,这种间接责任很难保证相对人的权利不受损害。其二,现有治理体系对算法行政侵害的解决方式相当有限。一般仅能通过政府更换服务商,或要求服务商提供适当补救的间接方式予以缓解。其三,公共领域的算法应用本身存在隐秘性与不可见的问题,使得许多接受算法服务者无从寻找救济主体。在这种情况下,欧盟等地通过数据治理赋予数据主体以算法权利的方案也较难激活使用,脱离自动化决策可能演化为一种“虚幻承诺”。责任的分立会导致责任真空与问责困难,甚至是“有组织地不负责任”。也就是说,算法造成了损害,却不能被追究责任,导致了责任的空置。

三、对穿透式监管下责任体系的检视与思考

既然算法行政试图在不同主体间清晰划分责任的方式面临诸多问题,无法弥合技术造成的责任鸿沟,那么需要考虑新的责任承担形式。针对这些问题,许多学者做了相关尝试,提出了穿透式监管与穿透式责任的雏形。穿透式监管下的责任意味着一种由表及里、由事前规制到事后定责的责任转变。这一责任体系源脱胎于穿透式监管的理念,要义在于穿透行为的外衣,进行技术监管,旨在实现实质重于形式的监管与侵入式的监管措施。

(一)穿透式监管下责任体系的理想构造

穿透式监管应该逐层递进:监管对象上刺破科技卸责的外衣,找寻真正的行为对象;监管内容上直接监管以数据和算法为代表的各项市场要素;监管目的致力于弥补因创新造成的监管漏洞,对技术卸责进行纠偏;监管影响上实现控制权重归监管部门的规制初衷,有效限制私权力的野蛮生长。穿透式监管应采取功能化的视角,从一种应急性的政策安排转而变为长效化、系统化的制度框架,以实现对算法过程全流程的责任穿透。

穿透式监管下责任的初衷是找到实际致害者,准确清晰地确定责任承担方。更为重要的是让算法服务商不能因技术中立与避风港原则而脱逃责任。比如卢米斯案中,开发刑期评估的算法公司就宣称刑期算法是一种商业秘密,但法院认为风险评估完全“基于被告自己对问题的回答和关于他的犯罪历史的公开数据”的论述并不充分。从责任主体来看,算法行政中让政府机关承担主体责任变得极为困难,间接会使算法致害变成一种社会共同分担的风险。如果不采取穿透式的追责方式,对政府的单方面问责无法达到规制目的,政府机关会不断外包职能以逃避问责。为此,可尝试穿透算法系统的表面责任形式,使算法承包商适当承担责任。从社会福利与受益者负责的角度来看,算法服务商通常处于控制算法的最佳位置,参与并提供了算法行政行为中的核心逻辑与处罚理由,并通过算法服务获得了超额收益。

从穿透方式来看,要打破不同部门法间构筑的藩篱,实现公私法融贯的救济方式。现有对算法的规制主要体现在单行立法中,但也为不同部门法内预留了窗口。比如刚出台的《关于加强互联网信息服务算法综合治理的指导意见》与《互联网信息服务算法推荐管理规定》等就可以回应算法行政可能产生的未来风险。《个人信息保护法》第二章第三节专门对国家机关处理个人信息的范围、限度和规则进行了较为宏观的规定。通过算法作出的行政行为在告知、送达以及真实意思表示的确定上都存在一定问题,削弱了程序护栏对个人权利的保护,因此应与侵权法中的风险规制、行政法上的私人行政、预防原则等有效结合,实现公私法上救济方式的联动。

(二)集合责任难以穿透的实施困境

穿透式监管的原理看起来很精妙,但在实施中仍存在一些问题。算法行政系统可视为AI全流程价值链上各主体的整体性意愿,找到真正的施害者并不十分容易。穿透的前提是透明度的实现,作为特殊外包合同的技术服务协议因信息差值和技术鸿沟而难以透明。比如在IBM与美国印第安纳州签订的福利资格审查算法中,政府宣称IBM提供的算法系统存在服务缺陷而要求单方面解除合同。IBM公司则提起反诉,要求政府赔偿涉及服务器、硬件系统在内的1亿美元的损失,后IBM公司胜诉。如果无法透明,就很难实现真正意义上的穿透。

算法行政中,依赖关联替代了因果关联,穿透责任主体变得更为困难。第一,各方主体都可能因自己的行为对最终决策产生影响,制造商可能安装了有缺陷的传感器,操作员可能未及时测试更新,管理员可能忽略了更新系统的通知,用户可能忽略了系统警告或提示。法理上只要求行政行为的外部责任应由行政组织体承担,这显然并不能够实现问责目的。第二,政府已经转变为提供需求的买方,事实上不再享有合同权限内的实际操作权。第三,多重主体的耦合行为中,很难证明主观犯意,难以符合责任的意向性要件。

(三)科层制与穿透式责任间的天然互斥

穿透式责任要想在算法行政中起效,至少要穿透三层关系:一是政府与技术承包商间的委托关系,二是政府与承包商内部的科层结构,三是算法系统中本身的技术黑箱。政府与算法服务商间的委托关系因集合责任与多手困境而不易穿透,算法黑箱则有赖技术突破与行为留痕。政府机关与算法服务商内部的科层制结构则天然与穿透、透明存在冲突。首先,政府应用算法系统的决定一般是集体决策做出的,其中包括决定算法使用的决策者、行政命令下达者、具体执行者以及不同机构间的协调者,很难定位责任主体。其次,行政机关内部实行纪律问责而非司法追责,如果程序正当合理,一般不应承担相关责任。再次,算法服务商内部也存在复杂的关系链条,既有作为研发者的软件控制权人,也有硬件系统的所有权人,更有数据运行平台的数据控制者,算法系统是集体智慧的结晶。没有哪个算法是毫无偏见的,算法运营者的主观犯意、算法错误的损害与权益侵害之间难以形成逻辑连贯的法律推理和论证闭环。最后,区分算法行政中作出行政行为的是政府指令、是算法设计者的夹带私货,还是算法系统的自我迭代也是一个难题,可能引发多个法律部门的共同管辖。

四、调和理念与实践:分布式责任的平衡尝试

如果实践中的责任分立在处理算法服务外包时不免捉襟见肘,作为理想型的穿透式责任只是看起来很美,那么就需要正视不断变化的技术格局和当前责任制度的局限性,尝试重塑一种体系性与整全性的救济体系。算法行政中责任主体的复杂关联对现有责任体系造成了巨大的冲击:责任主体从清晰的单一主体变为难以分离的复合主体,因果关系上从明确的因果关联变为难以解释和不可思议,损害结果从明确致害变为未知风险的可能结果,需要借助技术演进的原理来提出治理技术的方案。

在算法行政的具体参与主体无明确过错却造成了致害结果的情况下,分布式责任意味着链条上的主体均应承担相应责任,包括但不限于监管者责任、研发者责任、生产责任与保险人责任,从而形成一个完整的责任闭环。当算法行政从单一责任演化至链式责任时,监管模式也需要从中心式的控制风格向一种参与式的全流程问责转换。程序员部署的代码这种非正式、不可见的规则体系构成了权力的中心。在分布式责任的承担过程中,既要强调主体间的互助与横向影响,进行监管对话,增强知情参与;也要适度注入竞争性的理念,通过算法的随机因素减少腐败与操纵。

(一)分布式责任的原理机制

算法行政中行为的分布性决定了责任的分布性。算法行政的各项行为实践表明:其行为是由多方主体共同作用、密不可分的,多方主体均对潜在损害结果有间接作用力。算法黑箱进一步削弱了证明的可能性,难以对复杂主体的联合行为进行精准定责。去中心化的规制意味着任何处在节点中的机构均可启动规制流程,因此责任承担的结构也应该随之变化。分布式责任意味着在现有治理体系无法提供定责依据时,秉承双重对称的原则,依次根据“权力-能力”尺度、处在算法行政中的结构性位置与对结果的贡献程度确定责任。分布式技术能够为分布式责任提供技术支撑,使其成为一种基于节点而非主体的公平问责方式。

首先,分布式责任有着较为严格的适用条件,可视为疑难案件下的一种选择,尤其适用于算法对裁量事项的处理。如果现有治理体系能够明确界分算法行政各主体间的责任,就无需专门适用分布式责任。算法系统的谬误有很多类型,分布式责任适用于不存在明显的价值问题与可疑设计方法的情境中,在处理基于风险的抽象性侵害时尤其得心应手。比如在纽约某个为无家可归者提供住宿的系统中,将风险行为、受侵犯概率、试图做出的伤害行为等参数作为优先入住的依据。该数据与执法机关联网,以识别和定位潜在的嫌疑人。这就造成了一个吊诡的结果:一方面,无家可归者只有不断披露自己的负面生活细节才能获得入住资格;另一方面,这种披露可能引发执法机关的格外关注。在这种结构不正义的情况下,相关算法服务接受者诉诸一般规范无法获得救济,分布式责任则可以提供一种额外的选项。

其次,分布式责任适用于线性因果关系薄弱的复合责任,所有与结果有因果关系的人共同承担责任,实现一种链基意义上的治理重塑。与传统的“政府部门-外部服务商-公众”的清晰架构不同,算法系统本身的不可见与多重委托关系使责任界分更加复杂。分布式技术可以为之提供一些帮助,实现存储、证明与追溯的一体化,保证“源头可溯、过程可查、效果可评与责任可追”。具体来说,分布式技术与算法审计跟踪的结合可以就能够实现责任透明、记录相互连接、分布式加密存储从而防止篡改。算法致害实则是人机联合责任体作为一个整体来承担责任。

再次,分布式责任是一种新型的、基于节点而非主体的问责方式,能够简化多主体间的混同责任。算法行政中的政府部门不再像单纯的服务外包部门,而更像是一种算法服务整合的政务平台。因此可以参照商业平台运营和消费者权益保护的相关规定,赋予公共算法决策的用户以选择权,政府与算法服务商均可作为被救济对象。由于用户与算法服务商间未必存在明确的合同关系,因而应该通过强制法的规定将该种义务嫁接到提供算法服务的第三方主体上。若算法承包商对承担的责任份额有所异议,就要承担举证责任,从而反向迫使其审查算法与公开相应参数,以建立算法风险监测、安全评估、伦理审查、算法备案与违法违规行为处置等多维一体的治理体系。

最后,分布式责任有效解决了举证责任与损害赔付两个难题。在应用分布式技术的场景中,各种行政行为的记录不再集中在单一机构手中,不同主体的行为被放置在一个实时共享和同步的数据库中,权力运行全生命周期的溯源就得以实现。不同主体在此间的权力行使过程不可篡改,人与智能体可以交互编辑、互相验证。分布式责任不止回应了疑难案件中难以归责的问题,还为受到算法行政侵害的相对人提供了实际的救济手段。分布式责任可以防止风险的不均等负担,通过平等节点间的定价尽力实现一种公平的损害责任分配与微量损害的合理容忍状态。

(二)分布式责任中的监管原则重塑

分布式责任作为一种新型的责任承担方式,建立在责任分立与穿透式责任面临困境的基础上,旨在实现公平、有效的责任分配。由于分布式责任适用依赖关联而非因果关联的情形、将主体的不同身份都视为同一网格中的节点,因此需要更新监管理念,匹配前提要件。

其一,重视程序的完整性而非仅强调正当程序原则。算法行政部分替代了传统行政主体开展行政裁量的过程,比如2005年“万元罚单”案中,行政相对人反复在同一地点被电子设备抓拍105次却未收到行政机关通知。那么在此过程中,行政组织必须完整地向公民提供有关算法决策程序的相关信息,确认决策做出时程序上的规律性,并检验这一规律性是否符合法律规范。

其二,用事实评估要求补充可得性原则。由于算法行政中政府与第三方服务商不约而同地希望通过技术避责、卸责的倾向,需要保持随时的人工介入评估以防止各方逃脱责任。更为重要的是,该评估不应只针对数据进行,更应该将相对人的事实情况纳入考虑范围。比如在某个自动测算失业救济金的算法系统中,许多索赔人被判定为“故意歪曲或隐瞒信息非法接受利益”。如果单从系统的问卷收取过程中看不出问题,其原因在于多份问卷进入了休眠账户,并未送达。

其三,在无其他规范依据的疑难情形下需要更新归责方案。算法行政中的各方应对外承担连带责任,对内则承担相应的责任,允许相互间进行追偿。其中,行政机关承担无过错责任。由于向行政组织要求救济的条件苛刻、不易实现救济,从而在制度上强制要求各方承担连带责任,而并非选择让处于弱势的相对人承担共同侵权的证明责任。

其四,归责定责时秉承双重对称的原则。一方面,风险分配应与产生风险的可能性概率、获取的收益以及抵御风险的能力相对称。在处理无法明确归咎于个人过错的公共风险时,可考虑让可以风险控制者承担责任,综合风险开启与维持的可能性、风险控制能力等要素。继而,从收益和政策结果的角度来进行责任的分配。在其他要素都无法归责的情况下,算法行政的参与主体在整体的结构非正义中获益越多,就应该承担越多的责任。

最后,算法监管的强度与责任要与算法行政的类型相适应,以期实现透明度与保护商业秘密间的双重要求。对裁量型算法而言,需要设置更为严格的程序要求与监管强度,如算法影响评估、强制性的存档备案与事后的算法审查、保证随时的人工介入等。对用于核心政府职能的算法系统需要满足较强的透明度要求,可通过强制性规定或者标准迫使承包商放弃或澄清对商业秘密的保护。

(三)分布式责任中的义务配置要求

算法行政中不妨通过为各行为主体施加义务来考虑责任承担问题,即一旦出现实际损害或者妨害风险时即可要求其承担责任。如果算法行政中政府与第三方服务商违背了各自的义务或者是行为标准,便需要自动承担相关责任。

首先是政府义务的承担,该部分需要整合政府购买中的公私法责任,还要考虑算法行政的特殊性。政府需要承担三方面的义务:一是传统的持续监管责任,包括项目资金使用的审计监督、定期督查、风险监测评估、注意义务、以及对违法违规的处罚等措施。二是对用户的保护性责任与担保性责任,需要在私人服务商无法提供合适服务时实施监管介入或进行代履行、实行执行罚。三是对于算法执行裁量这种高风险的行为,特别要关注程序完整性、需要履行严格的说明义务,特别是对适用算法的说明、代码与规则间的合理转译、不同主体(包括自然人与机器间)的决策权分配进行说明,如违反这一义务,则自动需要承担相关责任。

其次是算法行政服务提供商的义务类目,包括算法系统的日常管理、与政府机构的行为衔接,及算法设计中的一些特殊注意义务。当算法系统没有执行合理预期的行动时,可视为存在操作错误,算法服务商应该承担与机器学习成比例的产品责任与严格责任。特殊的注意义务则包括算法伦理风险的预防,算法操纵禁止、纠纷预防以及最终决定的人类介入性等。如果未履行上述义务,则即使主观没有过错,也应承担相应责任。

最后,在处理算法行政产生的系统与数据时,任何未被明确禁止披露的信息都应是公开的,政府拥有其知识产权与算法系统的所有权(或使用权)。政府可有意识地生成或者要求算法服务供应商生成问责记录,以促进公众对算法过程的理解。

五、分布式责任的具体构造与实现路径

算法行政中的分布式责任是不同主体共同承担的责任,节点代表着对算法行政行为做出贡献的各个实体。这不味着责任的全然平分,毋宁说是一种处理疑难案件时的新型责任方式:即对最终损害结果(风险)有影响的主体均应承担相关责任,在无法证明具体份额时应该对外承担连带责任,后续责任份额的确定再遵循相关顺序。分布式责任通过权力过程的透明与防篡改实现了点对点的归责,建构出有效合理的共识机制、底层规范与激励机制以解算法行政中的问责难题。因此,分布式责任更多可视为一种持续责任与前瞻性责任。

(一)基于点对点的分布式归责原则

责任的去中心化意味着归责过程不区别看待个人主体、集体主体甚至非人类主体。无缺陷的算法系统是不存在的,智能算法可能误报(错误识别和执法)或者漏报(未在权限内进行识别和执法),算法预测中的假阴性和假阳性的输出结果层出不穷。没有人在这其中产生主观过错,但是损害已经造成,因此需要重塑责任观点。首先,算法行政作为一种人机交互行为,需要在不同主体间考虑多手困境的问题,即谁在其中做出关键性的决策?谁负责实施决策?谁对算法行政的行为做出了贡献,贡献是多少?首先,需要关注其中的权力参数,若不能判定对损害结果的具体影响,就根据“权力- 能力”的差异决定责任份额。其中,权力参数意味着对算法过程或侵权结果的直接影响力,能力参数则意味着对风险的控制与预防能力。其次,若“权力- 能力”的衡量尺度仍不能刻画责任,就依据主体在算法行政中所处的结构性位置决定其责任份额,当特定主体可以改善算法行政行为的结构或潜在结果,却没有这样做时,或者没有履行相应的注意义务时均应优先承担责任。再次,当相关主体有终结算法带来的结构非正义的义务时,也应承担较高的责任份额。最后,若前述方案还不能解决责任归属问题,则应继续从收益和结果的角度来进行责任分配。

(二)协同机制下的责任类型界定

分布式责任致力于在责任难以确定的情况下,提供一种公平责任以救济接受算法服务的行政相对人。这种公平责任并非单一性、中心化的,而可能是不同种类法律责任的竞合。

首先是公法层面的协同,算法侵害发生后,算法承包商可适度承担公法责任以解决民法上因果关系难以证明的问题。参与算法行政的特定行政机关当然需要承担外部责任,而如果找不到特定的过错方,或者因为算法不可知造成了相对人的损害,可以要求算法承包商一同承担公法责任,这也符合域外法中行为紧密联系的标准。

若自动化决策受到质疑,法院或其他监督机构可以迫使算法服务商披露其使用的实际策略和数据输入,以核实算法是否符合其公布或备案的各种承诺,如不符合就需要承担责任。此外,行政机构可对算法设计创建开源竞争,完善定价细则、核心算法的听证与审查制度。

其次,通过合同治理实现多主体间的责任协同。合同治理在分布式的责任建构中非常重要,特别适合平面化与分权化的治理机制,亦可以匹配场景化治理的理念。政府与算法承包商间的委托合同应该明确算法逻辑的强制公开,将事后的纠纷问责提前到事前的合同细节审定中:厘清不同主体的责任形式与问责方式,设置强度不等的追责类型。合同需要载明算法行政必须的程序机制,如是否由第三方机构进行算法验证与审计追踪,如何通过目标函数与算法基准的方式将伦理价值注入其中,以及如何确保算法的运行与合同载明的目的相符合。

算法服务合同可载明免责事由,比如在自主学习过程中形成人难以识别、更改的处理规则时,若设计者不存在主观恶性,就可适度免责。分布式责任借助合同治理可以实现个案的、情境性、类型化的规制过程。

最后是科层制间的协同。算法行政中存在着施行算法行政的政府机关内部及算法服务提供商内部的两种科层关系。算法系统造成危害时,可能产生一定程度的替代责任。司法上对行政机关的具体工作人员适用算法行政的法律应责要求非常之高,一般以明显不当为原则,是一种惩戒性的法律后果。在认定替代责任时应遵循审慎原则,要关注集体决策中的程序正义与意见吸纳,注意算法行政中不同知识系统的贯通。只要在这一过程中合理吸纳了专家与民众的意见,就可享有风险不确定时一定程度的责任豁免。算法服务商对具体的算法工程师负有监督与教育的责任,算法工程师在无主观故意下的行为属于职务行为,不应承担特殊的责任。由于算法设计是一种技术性较强的工作,需要适当开放同行评议、向无利害关系的第三方定向开源,以更好地敦促算法工程师履行职责。

(三)助推分布式责任实现的激励机制设置

算法可能产生实际损害与基于风险的抽象性妨害,算法行政也需要随之区分算法危害与算法妨害带来的不同后果,对其分别进行责任确定。当产生了实际的算法侵害时,不妨优先适用政府监管与行政禁令,强制算法服务商进行信息披露。在情况十分紧急时,政府可以直接接管、或者停止相关算法的实施,以实现对算法侵害的权利救济。当算法风险尚未展现时,可通过市场对风险行为进行定价,或者允许多家承包商竞标定价,或者放松责任认定中的因果关系,实现经济赔偿的可得性与优先性。在这一过程中,政府需要通过声誉成本与经济成本间的转换来吸引外部算法服务商。第一步,鼓励尽可能多的科技产业进入算法行政领域,通过授予徽章或给予较高信用评级的方式提升其潜在的市场声誉。第二步,为公共行政领域的算法委托合同设置指导价,该价格不应超过或显著低于市场相似产品的价格。对该类算法合同强制公开招投标过程,必须向公众告知中标单位与具体服务类目。第三步,将算法行政的服务质量测算成信用评分,经核实的算法偏差会导致评分下降,较好的服务则能显著提升该企业的信用评级,可适度赋予其相关的产业政策优惠与荣誉奖章。至此,声誉定价与市场定价可以有效转换,实现一种较为完善的赔偿及恢复机制。最后,政府财政成本与公民权利侵害成本之间应该尝试实现潜在平衡,考虑向算法行政服务提供方征收特别基金以作为有效的事后补偿方式。

余 论

行政事务发生于高度复杂、不断切换的复数场景中,在全社会的数字化未完成之际,行政事务的数字化也应该是有限度的。数字政府的治理需要达到多层级的治理目标:微观层面确保算法决策的合法性与合理性,保障政府机构工作人员应对自动化决策时的酌处权与公众退出算法行政的程序权利。中观层面需要发展更动态的方法,用算法来衡量、监测和评价公共服务的全过程以及相关的社会影响。宏观层面则需要创设出新型、交叉的个人权利和义务,重视准确性、公平性和透明度等价值。

最后,不应忘记法律的人文关怀与情感维度。奥格本提出,在技术发展与社会发展之间存在着一种“文化上的滞后”,技术异化可能导致无权力、无意义、深刻的孤独和自我疏离。算法与人类的智慧分属不同领域,算法拥有逻辑性强、高算力等特点,人类则擅长整体性判断、价值判断与常理判断。在处理人机关系时,需要关注人机融合与彼此学习。就像《威尼斯商人》中鲍西亚的雄辩展示了法律的灵性那般,如果没有人的适时介入,机械的算法行政就会像夏洛克要求的一磅肉那样残忍冰冷。应该铭记:法律不只是自动贩卖机式的执行,而是有温度的规训与引导。

来源国家检察官学院学报

上海光学影像测量机多少钱

测量仪器 上海

上海影像测量仪特价销售

ogp-cnc光学影像测量仪

上一篇: 【推荐】前沿真我GTNeo5渲染图曝光撞脸小米11Ultra股市资讯最前沿是什么股票
下一篇: 【推荐】前沿观察石油公司大幅裁员森科能源公司
相关推荐

猜你喜欢