王仁政|合作治理导向下信任结合监管的算法解释机制构建

文章正文
发布时间:2024-11-02 22:45

作为数字时代的核心,算法对普罗大众日常生活的影响逐渐显现,基于算法的生成式人工智能等新信息产品方兴未艾,传统监管手段在这一领域的失灵已经显现,采取何种新监管规制手段进行有效规制成为了课题,而基于算法本身的可解释性,算法解释作为一种规制方法与监管手段逐渐进入政策选择视野,但对于算法解释中存在的各方利益的张力与新的治理难题,现有算法备案审查制度并不能对此作出有效应对。在我国社会主义市场机制背景下,构建一套信任结合监管的算法解释机制是更合时宜的选择,这将有利于进一步在数据治理中协调市场、社会与政府的关系,使合作治理深入算法治理的各个环节,为更大范围的信息时代治理打好基础。

引言随着信息时代的快速发展,互联网在大众生活中的应用从之前的被动式响应发展为主动式数据分析,同时伴随着生成式人工智能的发展,数据模型与算法的重要性更加突出,但对于算法的法律治理问题目前还存在诸多不确定性。诚然,以个人信息保护法为主的个人层面信息保护框架已初步成型,然而,作为信息保护前端的数据模型算法的解释问题却尚未获得规制解决,就使得从技术层面推动更广泛的信息保护成为虚妄,同时,2023年《数字中国建设整体布局规划》中提出要完善法律法规体系,加强立法统筹协调,研究制定数字领域立法规划,及时按程序调整不适应数字化发展的法律制度,从而提升治理水平,健全网络综合治理体系,提升全方位多维度综合治理能力,构建科学、高效、有序的管网治网格局。因此,面对数字时代所存在的算法问题,当前理论界首先需要对算法的解释制度进行学理研究以归纳数据保护的问题,从而保证信息时代下技术发展与技术监管的良性互动,赋能数字中国建设。一、问题的提出
(一)算法解释的必要性:算法本身的权力属性与异化风险

信息时代下,算法作为计算机功能发挥的基础被日渐重视。作为自动化决策乃至人工智能的核心,算法确实提高了当前硬件条件下数据的流通与处理效率,让市场更具活力:视频软件的推荐算法让人们更便捷地看到自己喜欢的内容;购物软件的对比算法帮助人们选到自己喜欢的商品;生成式人工智能的综合算法代替人们去做冗杂的基础性工作,让人们有更多的时间去进行创新性的探索。部分学者认为算法本身就是作为纯利益的中立工具而出现的,无需规制,但一个众所周知的事实就是,任何技术都存在负面成分。作为以自主性、自发性为特点的算法,其天然会存在外界无法控制的组成部分,也即算法黑箱,这就导致算法本身运作的结果是不可知的,就比如推荐算法可能导向大数据杀熟,人工智能算法可能会生成产生违背伦理道德乃至违背法律的计算结果。换句话说,算法本身就是自动化的对海量数据进行支配,且其是在不受监管的情况下进行这一过程的,因此,在法律层面上,算法本身会带有权力属性与异化风险。推动算法解释制度的目的,一方面正是增强算法透明性,规制其权力属性,另一方面则是强化算法监督,防止算法的异化风险。
(二)算法解释的现实可能性:不应停留于私法合同解释的算法解释

参考域外经验,算法解释目前出现在《通用数据保护条例》(General Data Protection Regulation,以下简称GDPR)中,欧盟立法者就特意将其纳入该法第22条,即“算法治理框架:算法解释正在成为算法应用的一项基本伦理准则”,这一条从原则的角度明示了算法解释的重要性,但针对我国的立法实际,笔者认为还需要从技术本身与现有规定方面讨论算法解释制度建构与完善的可能性。首先,从技术本身来说,算法作为自动化决策的程式,自然存在针对其本身的内部全局解释与局部解释。内部全局解释即针对算法的输入内容与输出内容所做的关联性解释,其旨在实现算法运算过程的透明处理,使算法的整体运作逻辑能够为人们所理解。局部解释即对算法所输出的结果采取具有针对性的个别化、具体化解释,仅对存在疑问的部分作出解答,并不会全面地展现算法的核心逻辑,即不突破算法黑箱。由此可见,在技术层面,由特定机构对算法进行解释是完全可行的,但是从算法治理的角度出发,我们还需要讨论现有法律框架所给予的政策空间。当前,在法律层面,我国涉及信息安全的法律体系主要由三部法律与若干行政法规、部门规章组成,其中个人信息保护法、数据安全法、网络安全法是我国推动信息治理法治化的主要法律性文件,但目前由于对于算法本身的性质认定存在分歧,这些法律性文件未能对算法解释问题作出规定,当前的算法解释制度更多还是依靠民商事法律如反不正当竞争法中的商业秘密条款展开,然而,单纯的民商事规范会导致算法解释沦为小范围内低能效的个人利益保护工具,无法应对信息时代日新月异的算法变迁,那么算法解释是否可以突破商业秘密的范畴成为公共利益保护的客体呢?笔者认为,这个问题需要从两方面进行论述:第一,算法服务的提供者拥有侵害公共利益的能力,现实中已经出现了类似事件,此时,算法服务不再是过去民事规范中损害单一主体的商业秘密,而更像是公共利益的侵害者,甚至于会损害国家安全,这就属于企业平台自身的民事利益与社会的公共利益的交叉地带,应当将保护公共利益放在首位;第二,在个人利益角度,存在遭受算法侵害之虞的民事主体在判断自身权利可能受侵害时,为了保障自身权利,理应享有要求算法服务提供者进行算法公开的权利,这是公民知情权的应有之义。综上,现有对于算法服务的商业秘密保护已经不合时宜,而法律制度也存在允许算法解释制度的空间,因此算法解释制度在实然层面上是可行的。当然,算法解释制度的可能性还需要结合现实情况进一步评判,才能找出算法解释制度的可能问题,更好地进行制度设计。
(三)算法解释的现有问题:不同主体解释责任的缺失

不同于西方国家的社会结构,在我国,任何一个治理问题都需要讨论政府、市场与社会的关系,算法治理也不例外,当前算法解释制度之所以迟迟难以成形,是因为目前存在着不同主体解释责任的缺失问题。1.平台的算法所有权(商业秘密)解释趋向




作为算法的创造者与使用者,互联网公司,或者称之为互联网企业平台,本应当承担算法解释的义务,让用户清晰地了解其自身数据的使用情况,但在市场条件下,以营利为目的的互联网企业平台很难放弃自身利益去推动算法解释,因此会更多偏向于将算法作为商业秘密隐藏于黑箱之中,譬如滴滴在运营算法问题上的保守态度,因此只有在发生算法异化事件、出现公共安全风险后,才会采取事后补救的措施来亡羊补牢。就如同字节跳动公司宁愿海外业务被收购,也不会主动公开其算法,因此需要有新的制度设计来推动平台算法解释的转型,让其没有后顾之忧地去履行自己的解释责任。2.政府机构难以完成的黑箱穿透




在过去,政府机构的监管模式存在着路径依赖,通常对于行政管理中出现的新问题会采取增设机构,增加行政处理手段的方式来解决。而现在,伴随着政府提质增效的多次改革,政府已经从过去的强监管治理转向效能治理,其更加强调治理体系与治理能力的现代化,而治理模式也逐渐在向合作治理模式转变。因此,政府机构缺少相关的技术条件与动力去对算法进行黑箱穿透监管,也很难行使算法解释的权限,算法解释制度的设计不应当再过分依赖于政府的单方努力。3.社会公众的个人信息利益治理导向




在社会层面,与算法解释问题相对应的是公众的算法知情问题,这本应该是公民基本权利的延伸,但受限于自身条件与监督意识的匮乏,即使互联网企业能在用户协议部分详细阐述算法的内容与目的,公众也难以理解算法的运行情况。同时,因为合作协调机制的缺失,作为社会公众的一部分学者与技术人员也无法发挥自身的学识去推动算法解释制度的大众化,而更多人仅能依靠繁琐的个人利益受损后起诉追责模式去对算法进行监督,这就导致在算法解释问题上,社会功能是失效的。综上所述,当前算法解释领域存在着平台忽视,政府失能与社会失效的问题,因此在简单的民事维权体系外构建基于行政治理的算法解释模式制度势在必行。
(四)问题的解决:构建完善功能的算法解释机制

采用纯粹的行政处理去监管庞大的信息世界既不灵活高效,也不现实,一味地对抗市场机制只会迎来市场机制的反扑,况且,数据的流通性是数据得以充分利用的基础,过多的硬性监管也不符合市场机制下资源的合理配置,甚至可能会阻碍一个国家在信息技术领域的发展。那么,在强调政府效能原则的今天,可否采用更加合理的机制去解决这一问题,现有的机制又是否可以通过改造来实现对算法的合理性监管?这些问题需要一一解答。二、合作治理导向下算法解释机制的选择当前,从比较法的视角来看,各国对于数据算法的解释制度构建大相径庭,而不同模式之间各有利弊,需要谨慎斟酌。
(一)算法解释机制的构建可能及损益比较

1.个体规制型算法解释




作为一种最基本的规制思路,个体规制的做法在市场化经济进路下被广泛运用,在个人信息保护法中也提到这一规制方法,其主要是从个人利益保护的角度,赋予个人以申请权,而平台则根据个人的申请作出对应的解释。因此,个体规制的优势是能针对性地解决个人需求问题,更符合当今时代个性化的发展趋势,同时也能兼顾平台对于算法核心技术的秘密性保护,是一种互惠互利的算法解释方案。例如美国法律选择采用市场主义的开放数据观,即在市场视角下,将个人数据视为一种应受保护的市场利益,立法着眼点在于数据公平交易,并将个人视为数据的交易者进而由联邦贸易委员会等执法机构保护其不受市场欺诈与不公平对待。在我国,《互联网信息服务深度合成管理规定》(以下简称《深度合成规定》)中规定:深度合成服务提供者与技术支持者提供人脸、人声等生物识别信息编辑功能的,应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意。这一定程度上保护了数据的流通性,然而,现在算法日渐精细化,数据需求量也与日俱增,算法所损害的个人利益自然也会几何倍数地增加,在此背景下,个人规制解释方法一方面会导致平台在实际操作中难以对个体利益作出合理解释,另一方面也会导致个人申请者利益损失过小,缺乏积极性去要求平台作出解释,从而消解其规制基础。同时,作为一种新权利,个人信息权的现实性与执行性存在着不小的阻碍:个人信息的采集逐渐隐蔽化,而个人信息删除权、修改权的使用也存在着平台的阻碍。因此,个体规制解释路径存在着保护不周与保护不能的问题,无法在我国直接适用。2.算法备案解释制度




相比于个体规制,算法备案解释机制是另一种单项解释路径的选择,更多强调平台的主动备案与政府的单向监管。目前规定在《互联网信息服务算法推荐管理规定》(以下简称《管理规定》)第24条规定,具有舆论属性或者社会动员能力的算法推荐服务提供者应当在提供服务之日起十个工作日内通过互联网信息服务算法备案系统填报服务提供者的名称、服务形式、应用领域、算法类型、算法自评估报告、拟公示内容等信息,履行备案手续。同时,在《深度合成规定》《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)中也选择了备案模式去规制相应领域中的算法,这与我国在法律规范性文件审查中采用备案审查的机制具有一脉相承的选择导向,即更少的监管,更多的主动,破除之前在信息技术管制中重视制度建设、轻视管理运营的管制思路,一定程度上破除了技术发展的瓶颈,但是,在算法广泛运用的今天,备案审查与平台自身的技术保护趋向相违背,况且,目前的规定仅要求“具有舆论属性或者社会动员能力的”算法服务需要备案,而并非以可能导致个人利益或国家利益受损为备案标准,这就使得众多平台游离于监管之外,获得了随意侵害他人利益但无需承担责任的能力。进一步来说,备案审查作为一种事后监管机制,并不能应对技术迭代下的算法进步,也无法穿透算法黑箱进行监管,因此采用算法备案机制进行算法解释机制的构建将存在解决力不足的问题。3.以市场为核心的信任沟通机制




如前所述,平台作为自动化决策者,以算法执行为沟通框架,与个人之间既存在合作互惠关系,又存在对抗防范关系,那么算法解释权就应当以促进双方的合作互惠为目标,以消除个人的疑虑并防范自动化决策者的不合理支配为目标。因此,在个人利益保护趋向的基础上,部分学者提出构建以市场为核心的信任沟通方式下的算法解释机制。这种机制基于现有市场变化与市场运行逻辑,以信用构建为基础联通个人群体与平台,通过将算法解释与平台形象相挂钩,从维护自身形象的角度,赋予平台解释积极性。在解释内容上,一方面要求企业充分了解并掌握算法的系统性解释,另一方面,这一模式可以根据算法所处的领域特征、影响性不同而要求不同程度与类别的算法个案解释,也可以选择不透露核心机密的模糊解释方法,从而赋予平台自我决断的能力,允许其针对自我解释需求进行分类;在解释方法上,允许平台根据需要选择机器解释或人工解释,而非备案解释机制中的全面人工解释,一定程度上减轻平台的解释压力。这种解释方法解决了算法解释中平台自身积极性不足的痛点,相比于事后回应的第一种个人利益驱动算法解释机制与备案审查解释机制,这种解释机制将算法解释的制度设计目的放在信任关系的维持上,从而赋予平台更多的自我选择权,也能兼顾平台的技术秘密保护倾向,是一种市场机制条件下的理想构造,但是,正如前文所讲,信任解释机制的前提是信任基础,在我国,平台与消费者之间的算法信任关系的基础是否存在是个需要研究的命题,西方的信任机制是建立在大型公司需要企业声誉来维持市值稳定的基础上的,这与我国社会主义市场经济的现状不相符合,同时,赋予平台过多的自主选择权,是否会进一步导致平台的深度封闭,加剧算法黑箱现象,是该机制构建中需要防范的风险。4.以合作监管为核心的双向驱动型




在现有制度基础上,有学者提出现代数据科技的监管需要兼顾回应型监管与主动型监管。因此,算法解释这一算法治理手段也需要双向驱动型的算法解释工具,双向驱动型算法解释工具是指,当算法自动化程序决策的利益相对人认为自动化决策的具体决定对其本人利益或者公共利益造成显著影响时,其有权向算法设计人与算法使用人提出异议,请求其向算法监管部门提供针对具体决策的解释(兼顾商业秘密保护),并要求其更新数据或更正错误决策,其本身就是多元主体视域下的算法解释机制。这种双向机制的基础是默示算法共谋,即一种是证明其并不具有监督算法信使场景下的共谋协议;另一种则是对自我学习算法等高度人工智能算法是否已经达成涉嫌垄断的一致行动进行否认论证,表明其虽然使用了自我学习算法,但该算法尚未在自我学习与反复试错的基础上达成默示算法共谋。在这种场合下,政府可以基于行政管理需要对平台作出解释要求,同时,如果自动化决策的相对人认为经营者互联网领域的联合行动,譬如服务联盟、构成垄断等情况,其可以直接向算法监管部门与反垄断执法机构进行举报,从而启动监管部门的算法解释。从而引入专业平台监管,分担政府的监管压力,也不再需要政府自身去培养技术人才。因此相比于其他算法解释机制,双向机制能一定程度上加深政府与平台的双向驱动力。
(二)双向驱动机制更符合中国实际

综上所述,在现有算法解释机制的选择中,双向机制相对来说更符合中欧能过的现状,一方面在现有信用机制不完善的情况下,单纯依靠信任去推动平台的自我监管是不现实的,而备案机制与个人利益保护机制又无法兼顾平台的技术保护倾向与公共利益的保护,也就无法赋予个人与平台足够的对于算法解释的积极性;另一方面,我国正在改变政府的传统治理模式,向着新式合作治理模式探索的过程中,过去使用的强监管审查模式会逐渐不适用于当下的环境,伴随着行政复议法、行政处罚法对于行政和解与行政处罚内容的合作治理化改造,双向驱动机制的算法解释制度的采用已经成为可能,因此双向驱动机制更适于现有环境。当然,双向驱动机制的具体内容还需要商榷,目前的双向机制看似多主体,但仍然是依托政府监管的单一强制力,并未与平台形成良好的利益联动,而其对个人利益的保护也由于整体化算法解释选择而稍显欠缺,因此,构建在合作治理模式下的信任结合监管的算法解释机制更为合适,而相关的机制构建也应当从信任与监管两个维度展开。三、信任结合监管算法解释机制的制度设计作为双向机制的完善,信任集合监管的算法解释机制的核心是非透明化的技术信任与作为辅助的监管解释,如前所述,信任机制是自动化决策人与相对人之间的信任,监管机制是平台与政府的双向驱动,而整个机制的运行基础是数据本身的积极作用。当前,数据正在成为企业发展的核心竞争力,因而,企业需要数量庞大的数据去推动自己的自动化决策的准确性,从而实现自己的算法优势,也即需要一个庞大的用户数量,而用户数量的增长需要企业的良好形象,这不仅需要过去单纯的数据保护安全,也需要公众了解算法本身对自身数据的使用,譬如当下SORA对个人面部数据的随意使用可能会导致个人荣誉利益的损失,这便是自动化决策人与相对人的信任基础,前者需要后者的数据支持,后者需要前者的服务提供,而数据的增加也会推动平台服务的优化,形成一个优势的良性循环。进一步而言,这个信任基础也会推动平台间的竞争,推动监管侧的算法共谋的实现。只有这样,政府、平台与社会的三方主体才能在算法解释这一活动中都对算法监管产生实效,从而在算法解释中达到合作治理的新要求。下面笔者将分两个方面来进行制度设计。
(一)信任基础下的分级分类要求及责任区分

如前所述,信任关系的基础是数据自身价值的发挥,而单纯依靠未加整理的数据是无法达到这个信任程度的,只有在自动化决策程序的加持下,才能更好地分析数据,因此算法的解释应当从信任关系的角度对算法本身进行分类,从而进一步确定算法的解释目的,以此为标准才能对算法解释的限度作出限定,完成制度设计的第一步1.信任导向下算法的分类要求




当前,《管理规定》《深度合成规定》《暂行办法》虽然从表面上对数据算法作出一定的分类,即推荐服务算法、深度合成算法与人工智能算法。推荐服务算法属于信息自动化筛选、个性化分发的行为,需要以信息采集及分析等处理为基础,是思维模式与技术实现的组合;深度合成算法是指利用深度学习、虚拟现实等生成合成类自动决策制作文本、图像、音频、视频、虚拟场景等网络信息的一种技术算法;人工智能算法则在逻辑上是一种技术权力,是程序设计语言(机器语言、汇编语言、高级语言)构建数学模型的运行逻辑与运行过程,可以说,这样从技术层面进行的分类确实简单易懂,但是这样的分类一方面无法囊括算法的全部内涵,造成规制漏洞,另一方面当前数据模型融合化发展步伐加快,实践中很多算法会同时采用多种技术手段,例如滴滴打车程序的自动化决策就包含着推荐服务、深度合成与人工智能算法的全部,因此从算法本身角度进行分类并不能明确算法解释制度的制度目的,而应当回归到最基础的数据层面来对算法作出分类,即通过算法的用途来对算法作出分类。《关于加强互联网信息服务算法综合治理的指导意见》将算法分为五类,而在《管理规定》中,算法的分类表述对个人权益、市场秩序、公共利益、国家安全等造成危害的算法四类,很明显前者的分类更为合适,后者的市场秩序、国家安全与公共利益存在交叉,并不是合适的分类标准,但也并非不可取的,在信任机制的算法解释体系中,自然存在信任算法部分与监管算法部分,而二者的核心区别就是利益影响,而算法用途本质化的内涵也是不同主体的数据在自动化决策后对另一主体(或一些主体)所产生的实际价值利益。正如个人信息保护法第24条之规定:个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度与结果公平、公正,不得对个人在交易价格等交易条件上实行不合理的差别待遇,这一条明确了作为自动化决策也就是算法的使用者的平台在个人利益的角度需要遵守的原则,也从反面角度说明该种类算法的运用需要遵守的规则。因此,笔者认为,应当根据算法的用途与利益影响对算法进行分类,而后再确定不同种类算法解释的限度与种类,更进一步确定不同种类的算法解释的申请主体与解释主体,从而让该制度落到实处。综上所述,算法应当根据私主体利益与公共利益取向进行分类,前者则可进一步细分为针对个人利益的算法、针对平台自身的算法以及针对其他私主体的算法(例如算法垄断等场合),相对于现阶段法律文件中规定的分为有舆论影响力的算法与不具备舆论影响力的算法的分类,该分类基本可以涵盖算法的全部范畴,且判断标准就是数据的来源,同时也避免了管制漏洞,防止算法解释制度形同虚设。针对不同分类采取不同的算法解释限度与解释方法,这样才符合现阶段逐步建立的数据分类分级管理体制,下文将继续论述。2.信任机制下的算法解释的限度




算法解释的限度即在技术保护趋向下,如何平衡自动化决策使用人平台与自动化决策相对人(个人、政府代表的公共群体、其他私主体)的商业秘密权益与相对人权益,因此算法解释不是个绝对透明的制度,在算法中立的公认前提下,根据算法使用者的意图,或者说意图所影响的利益进行分类保护势在必行。如前所述,笔者将算法按照利益取向分为四类:影响个人利益的算法,影响平台自身的算法,影响其他私主体的算法与影响公共利益的算法。那么,四种算法所对应的解释的限度自然不同,解释方法也就不尽相同:对于仅影响个人或部分群体的利益的算法,解释的限度应当在个人信息保护法的框架下,进行非完全公开的解释,而解释的内容应当限于个人或群体数据在算法中的使用情况及算法生成结果即部分解释,并不需要对算法机制进行全公开,同时,针对该种算法的解释允许平台基于信任角度的主动解释(如在用户协议等处对算法进行说明);对于仅影响平台自身的算法,应当根据商业秘密的角度进行保护,以保护平台的技术迭代积极性,但是如果该算法的运用过程中使用了来自第三方的数据,应当根据知情同意原则加以解释规制;第三,影响其他私主体的算法的解释限度应当在第一类解释的基础上,对受影响的私主体作出全面解释,但接受解释的私主体不得将解释公开,也即不能实际意义上代替自动化决策使用者进行技术开源,解释的主体范围限于申请主体(具体的申请机制留待下文);最后是影响公共利益的算法解释限度,可以参考但不限于现有规定的舆论影响型算法的解释限度,对算法的数据作用机制、生成结果、可能影响等都应当进行解释,并且应当达到可被公众理解的角度,兼顾社会公众的知情权。3.算法解释的分级平台责任及解释方法




由于算法解释的完成离不开自动化决策程序构建者平台自身的努力,因此,在不同的分类的算法的解释过程中平台所承担的责任与采取的方法自然各有不同,同时如前所述,算法本社会对不同主体的利益产生影响,因此参考数据领域的类似分级规定,其根据数据在经济社会发展中的重要程度,以及一旦遭到泄露、篡改、损毁或者非法获取、非法使用、非法共享,对国家安全、经济运行、社会秩序、公共利益、组织权益、个人权益造成的危害程度,将数据从高到低分为核心数据、重要数据、一般数据三个级别,该分级规定的分级标准是结合影响对象与影响程度,对不同数据类型作出区分(如表1),因此,作为信息技术基础的算法可以参考数据的标准作出分级,结合算法本身的利益影响程度具体如下:

表1  数据级别确定规则表

(1)第一层级:一般算法,在仅涉及个人利益与其他私主体利益的场合,平台的责任在于向受损利益人或组织解释算法的侵害机制与侵害结果的因果关系,补偿其纯粹利益,而对应的解释方法可以采用机器解释与人工解释的选择模式,正如保险制度的阶梯建构的射幸利益选择一样,算法所影响的个人或私主体利益各不相同,影响程度有所差异,倘若仅允许平台采用人工解释,既减损技术效率,又增加运营成本,造成资源浪费,所以允许平台在这种情况下运用技术完成算法解释是妥当的,而且如前所述,制度也允许平台出于信任与维护自身形象的角度对一般算法进行算法的主动解释,即突出市场机制。(2)第二层级:重要算法,在严重危害经济运行、社会秩序、公共利益与一般危害国家安全的算法解释场合,平台的责任相对于第一种情况要有所提高,仅凭单纯的市场机制已经难以评估算法带来的风险,因此平台一方面需要向监管部门作出必要的算法解释,一方面需要向对应主体作出相对透明的解释以确定自身的危害程度,并主动公开算法的相关内容,当然在此情形下仍应当允许平台保护其核心算法利益。在解释方法上,应当以人工解释为原则,以机器解释为例外,体现责任维度的对应。(3)第三层级:核心算法,针对公共利益,乃至影响国家安全的具有系统性风险的算法,平台需要对算法的使用数据、具体程序与生成结果承担说明义务,在这一分类当中,平台的商业秘密所带来的利益远小于公共利益,根据狭义比例原则,平台的解释责任需要进化为说明解释义务,而解释方法的选择也需要限定于绝对人工解释,避免平台以机器解释逃避自身解释责任,敷衍了事,从而保证解释效果与目的达成。(如表2)

表2  算法分级及其责任因此,在信任导向下,允许平台针对不同分级的算法作出不同的分级解释,能较好地提升平台的解释积极性,并赋予平台一定的自主空间去进行技术革新。当然,除了确定算法解释的限度与平台的责任,算法解释机制还需要从监管角度确定算法解释的程序启动与内容限定,这样才是完整的多方主体参与的合作治理机制的完整表现。
(二)合作治理监管角度下的新监管导向

中央全面深化改革委员会第二十六次会议明确“数据治理”提法,要求将安全贯穿数据治理全过程,构建政府、企业、社会多方协同治理模式,强化分行业监管与跨行业协同监管。因而,算法解释制度的构建除去信任也需要合作治理下的监管,这就需要明确在该合作治理中政府的角色,从而明确解释程序的启动与申请主体。1.监管机关的制度角色与解释程序的启动




(1)监管机关的制度角色行政机关(或者说监管机关)在不同的算法解释场合的角色必然不同,而解释程序的启动也伴随着角色变化而变化。首先,在信任解释的个人利益与平台利益的场合,基于信任关系,行政机关应当弱化监管,充当监督角色,仅在平台利益涉及其他方数据时,才能入场,基于利益关系方申请采取约谈等方式督促平台作出解释,也就是在第一、第二层级的算法解释情况中,政府监管部门在风险事中处于被动状态,充分体现市场信任机制,而在我国目前的网络治理实践中,国家网信办是我国进行数据治理的主要监管部门,因此将其继续作为未来算法解释的政府监管部门较为合适,其次,国家网信办作为积累丰富经验的互联网监管部门,在治理实践中运用行政约谈、暂停新用户注册等柔性行政手段取得了较好的监管实效,因此在面对涉及公共利益的算法解释(即重要与核心算法的解释)中,国家网信办本身就拥有更加主动地发挥作用的权能与基础,可以突破现有的备案体制,当然这并不意味着算法解释备案机制的消逝而是在面对重要与核心算法的解释时,国家网信办可以成为主动介入的监管者,让算法备案同信任结合监管的算法解释制度相结合,在核心算法备案时就将其纳入监管,从而实现对该部分算法的全流程监督。(2)算法解释程序的启动基于在不同分级的算法解释中的政府角色不同,算法解释的启动程序也应当作出差异化规定,在一般算法与重要算法解释活动中,个人、私主体、组织都应当被赋予申请监管部门约谈平台作出算法解释的申请权,从而启动算法解释程序,突出回应型监管,贴合服务型政府定位,而在面对核心算法解释的场合,除了上文中提到的主动备案启动,还应当扩展国家网信办依职权的启动模式,采用行政约谈等方式直接督促平台对核心算法作出解释,实现穿透式监管,达成算法解释目的。(如表3)

表3  算法解释制度中的监管角色与启动程序2.合作治理角度的必然要求:算法解释内容的划定




需要注意的是,由于算法解释的内容与平台的技术、基础的数据密不可分,因此作为数据集合的算法的解释公开可能会造成数据的二次泄露,但算法解释又需要在限度范围内充分公开,因而对于算法解释的内容的划定也是制度建设所必须考虑的,笔者将其总结为数据脱敏技术的合理使用与合作治理的协商划定两方面内容。(1)数据脱敏的技术使用数据脱敏又称数据漂白、数据变形或数据去隐私化,是指在保留数据原始特征的情况下,根据给定的脱敏规则与策略对敏感数据进行变换,从而去除数据中的敏感信息,以保护敏感数据避免未经授权而被非法访问、获取,同时可以根据需要对敏感数据进行相关处理,使得敏感数据依旧可以被使用。数据脱敏在保证敏感数据安全性的同时保证了数据的有效性与流通性,既避免了敏感数据被泄露的公共风险,也较好地保证了敏感数据在非安全、非可信环境中的正常使用。作为算法解释的公布者,监管机构与平台在公布算法解释前应当对解释(无论是机器解释还是人工解释)进行数字脱敏,从源头上确保算法解释不会二次泄露他人的敏感数据,这样才符合当下行政实质法治主义的要求,在算法解释活动中保障相关各方权益。当然,数字脱敏的适用范围应当突出合作监管,由监管部门牵头利益各方进行协商,在符合个人信息保护法知情同意的原则下,可以对自愿公开的敏感数据进行公开,以完整地展现算法的运行过程与生成结果的差异。(2)算法解释内容的利益衡量与范围确定在数据治理中建构合作治理不仅能在一定程度上促进各利益相关方都有参与治理的可能,而且合作架构搭建了具体的治理场景,让各主体能在具体的治理情境下进行利益权衡与比较,而非基于抽象的规范就作出价值权衡取舍。因而,算法解释机制的利益权衡必不可少,除了上文提到的基于数据提供者与算法使用者的信任关系中的利益衡量,在纯监管场合下多方主体的利益衡量也必不可少,其主要体现为算法解释内容的划定。在行政法中,对行政相对人的行政处理通常要受到比例原则与信赖保护原则的限制,以减少对行政相对人的损害并保障其信赖利益,但是在算法治理中,仅凭借监管部门单独的力量很难确定高技术属性的算法的合理解释范围,毕竟算法的多样性与高演变性是毋庸置疑的,因此需要引入第三方主体,上文的数据脱敏环节主要是为了引入数据提供方的利益视角,而在本环节中主要是引入社会监督视角,监管部门可以组织由社会专家、类似平台技术人员等组成的座谈会,通过第三方监督明确平台的算法解释内容包含范围,真正做到合理行政。3.算法解释与传统行政的必然衔接




需要说明的是,算法解释作为一种类信息公开制度,并不必然导致负面的不利行政处理,因此算法解释需要与现有传统行政相配套才可深入推动。当下伴随着软法治理的推广,行政指导、行政约谈、行政协议等柔性行政手段的使用,算法解释也就拥有了可操作性,即对算法解释后发现的系统性风险采用一定的行政手段去加以规制,从而完成回应性治理监管的要求,最终实现算法解释机制的落地。
(三)在实践中进步的合作治理算法解释机制的运作模式

综上所述,信任结合监管的算法解释机制应当从数据信任出发,改变过去一刀切的数据治理思路,同时允许多主体的合作治理参与,扩大数据解释可申请主体的范围,并做好数据脱敏与利益均衡,切实推动算法解释机制落到实处。结语数据与算法是新时代的创新引擎,是值得挖掘的发展潜力,在新的历史机遇面前,如何用好算法,使其赋能创新发展,是一个值得研究的时代课题。高质量发展需要新的生产力理论来指导,而新质生产力已经在实践中形成并展示出对高质量发展的强劲推动力、支撑力,需要我们从理论上进行总结、概括,用以指导新的发展实践。作为新质生产力的代表之一,算法的规制研究便是保护新质生产力健康有序发展的重要基石,而任何新发展都会面临新挑战,算法解释机制构建正是应对这些新挑战的尝试,但任何机制都不能成为空中楼阁,只有将之付诸实践才能在实践中发现新制度的问题并查缺补漏、不断更新,而如何将算法解释落到实处,如何对相关行政组织进行赋能,如何保障市场机制中数据信任的落地与数据流通性的维持,都是需要日后研究的课题,算法解释只能是算法治理的一部分而不是全部,算法治理的构建还任重道远。

往期精彩回顾

田华 陈晓龙|人民法院推进行政争议“实质性”解决的价值标准和实现路径

翟文豪|区块链智能合约的合同属性困境及其化解

初亦周|我国阅读障碍者合理使用规则研究

王勇|表见代理中本人可归责性问题研究

陈恋|大数据时代监视型侦查程序研究

严雨晗|新加坡调解公约视角下我国自贸区国际商事调解制度的完善

上海市法学会官网