展会预告|9月28日!全球智能汽车产业大会(GIV2023)将在合肥召开
- 编辑:要言不烦网 - 67展会预告|9月28日!全球智能汽车产业大会(GIV2023)将在合肥召开
相较而言,我们更应关注科层化所必然引致的常态的规范过剩问题。
汉语原本只有动物的概念,并没有野生动物的概念。后端环节是《传染病防治法》,聚焦人与人之间的防疫。
从立法目的、主管部门、动物范围三方面来看,我国法律将动物一分为二,一边是《畜牧法》,以家畜家禽为对象。虽然也有观点提到建立协调机制加强法律之间的衔接,但未触及问题的症结。但是,从动物和动物疫病两个角度分析具体条文,就会发现《动物防疫法》似乎存在某种名不副实的现象。不仅如此,这一概念还反衬出了《动物防疫法》与《传染病防治法》之间的空白。所谓可能的人传人,是指《中华人民共和国突发事件应对法》(以下简称《突发事件应对法》)第三条造成或者可能造成严重社会危害,以及《突发公共卫生事件应急条例》第二条造成或者可能造成社会公众健康严重损害的重大传染病疫情。
一是突然发生,二是原因不明,三是传染病。当时的《传染病防治法》只防治法定传染病,难以及时应对非典型肺炎。参见[美]凯斯·R.桑斯坦:《信息乌托邦:众人如何生产知识》,毕竞悦译,法律出版社2008年版,第8页。
参见[奥]凯尔森:《法与国家的一般理论》,沈宗灵译,商务印书馆2013年版,第93页。这就导致在大多数情况下,大数据杀熟行为都不能被平台用户发现,在数字屏蔽技术的掩护下,数字平台能够轻易地通过算法操控实施大数据杀熟行为谋取更多的利益。而从目前规制算法侵害行为的相关成文法律规范来看,只有一部作为部门规章的《算法推荐管理规定》,并且其中也并没有关于算法侵害行政处罚归责原则的例外规定。参见林洹民:《个性化推荐算法的多维治理》,载《法制与社会发展》2022年第4期,第176页。
我们可以将平台企业视为人工智能算法复杂技术生态体系的守门人,[56]它肩负着防止算法侵害实际产生的主体责任。(一)信息操控类算法侵害信息操控类算法侵害是最常见的数字平台算法侵害类型,主要是指平台企业利用自身在收储信息数据方面的优势,通过操控平台信息数据流来实现自身收益的最大化。
但是,在数字平台算法侵害行为中,责任主体却会因算法中人工智能技术(artificiali intelligence,AI)的广泛应用而产生认定难题。于是,人工智能的机器学习能力所导致的算法黑箱过度强化的风险也能得以降低。[47]朱振:《归责何以可能:人工智能时代的自由意志与法律责任》,载《比较法研究》2022年第1期,第42页。当平台企业出于自我利益最大化的冲动利用数字平台算法对平台用户的权益造成侵害时,也会对社会成员间合作关系的达成造成负面影响。
[45]而且,对人工智能实体的相应处罚手段(如关机、断电)也难以让其他自然人产生感同身受的自然情感,也就不会对其他自然人产生必要的威慑,维持社会合作秩序的存续。那么,为何要在立法中设定数字平台算法侵害的行政法律责任?这一问题的答案也就是设置数字平台算法侵害行政法律责任的法理基础,对此可从两方面论述。因此,平台企业就有动力运用算法违反最小必要原则[13]过度收集平台用户数据(特别是个人信息数据),这就可能会对平台用户的权益产生潜在的损害。正因如此,所以我国行政处罚法第28条第1款明确要求,行政机关实施行政处罚时,应当责令当事人改正或者限期改正违法行为。
它作为人工智能算法的部署运用者,事实上处于人工智能复杂技术生态体系中的核心地位,其他多元参与主体实施的行为都是最终服务于平台企业。就法理而言,改正违法行为是社会主体违反法律规范设定的第一性义务之后,理应承担的当然责任,可以理解为属于第一性义务的附随责任。
其二是算法的设计开发主体或部署应用主体基于主观上的过错,因编写错误的程序代码、输入缺陷的训练数据、违反正确的操作流程等行为而导致的侵害。[4][美]罗伯特·塞奇威克、凯文·韦恩:《算法》(第四版),谢路云译,人民邮电出版社2012年版,第1页。
与此形成鲜明对比的是,我国立法实践中关于数字平台算法侵害的成文立法不断出现,其中设定了大量的数字平台算法侵害的行政法律责任。例如,在信息操控类算法侵害中,平台企业的大数据杀熟行为违反了《算法推荐管理规定》第21条设定的关于禁止算法推荐服务者利用算法在交易价格上实施不合理差别待遇的第一性义务。民事法律责任的追究一般都是在实际损害结果发生之后,权益受到损害的个体无法获得加害方主动赔偿的情况下,通过向法院提起民事诉讼的司法程序予以实现。参见[美]劳伦斯·弗里德曼:《碰撞:法律如何影响人的行为》,中国民主法制出版社2021年版,第131—132页。数字平台算法侵害随着数字经济的不断发展而日益频繁发生,对平台用户权益侵害的事例也层出不穷,由此引发了法学领域对数字平台算法侵害问题的关注,开始探讨通过法律的途径对数字平台算法实施必要的规制,以保护平台用户的合法权益。See Yavar Bathaee,The Artificial Intelligence Black Box and the Failure of Intent and Causation,,331 Harv.J J.L. Tech.889,,8891 (2018).[39]人工智能可以区分为弱(限制领域)人工智能和强(通用)人工智能的不同形态,前者仅能实现人类智能的某一功能,后者则可以复制与自然人相似的人类智能水平,包括自我学习进化的能力。
这意味着,平台企业对人工智能技术生态体系中的其他主体具有最为强有力的影响力,也最有可能有效约束其他主体的行为,是成本最低的违法行为的控制者。参见胡鸿高:《论公共利益的法律界定——从要素解释的路径》,载《中国法学》2008年第4期,第60页。
(二)标签设定类算法侵害标签设定类算法侵害是指算法利用大数据对个人进行风险评估与分类,将人们归入不同的风险群体,形成身份标签,并将这种身份标签在数字世界留存、流转、再利用,从而将身份标签固化为数字时代的个人身份污点。其二,数字平台基于自身中立地位为平台用户提供高效、便捷、可信的网络工具,增进平台用户间的互信,提高达成合作的可能性。
此外,在我国个人信息保护法、数据安全法、网络安全法等数字经济基础性法律中也有许多涉及数字平台算法侵害行政法律责任的相关规定。控制力构成了归责的正当性基础,[47]虽然人工智能算法所关联的技术生态非常复杂,涉及到多元的参与主体,但是平台企业是人工智能算法的实际控制主体。
[32]参见胡凌:《功能视角下个人信息的公共性及其实现》,载《法制与社会发展》2021年第5期,第176页。参见杨明:《平台经济反垄断的二元分析框架》,载《中外法学》2022年第2期,第369页。技术缺陷类算法侵害可以细分为两种下属类型:其一是因技术发展的客观水平限制产生算法侵害。参见[美]E.博登海默:《法理学:法律哲学与法律方法》,中国政法大学出版社2017年版,第363—364页。
而将过错归于其他主体是避免自身承担法律责任的有效途径,如将算法决策错误归因于算法程序设计主体或数据供应、训练主体的过错,从而使自身免责。参见任颖:《算法规制的立法论研究》,载《政治与法律》2022年第9期,第103页。
因此在这种倾向的驱使之下,算法也会成为平台企业谋取最大化利益的工具,被用来过度摄取平台用户的消费者剩余,满足自身对利润的无止境索求。[14]参见王莹:《算法侵害类型化研究与法律应对——以〈个人信息保护法〉为基点的算法规制扩展构想》,载《法制与社会发展》2021年第6期,第140页。
[16]根据这一观点,数字平台只是企业经营的一种特殊场所,与传统的大型购物中心的区别主要在于没有实体的展示区域,只是将交易物品信息放置在网络上而已。[34]这是美国麦肯锡咨询公司(Mckinsey)在其编制的《人工智能管理指南》(An Executive's Guide to AI)中对人工智能所作出的基本定义。
随着人工智能的不断发展,使运用人工智能的算法技术呈现了与传统算法不一样的特征。虽然这些主体之间可能会存在重合,但随着技术分工的细密化,主体之间的分离会是常态。[59]魏振瀛:《侵权责任方式与归责事由、归责原则的关系》,载《中国法学》2011年第2期,第32—35页。[5]参见苏宇:《算法规制的谱系》,载《中国法学》2020年第3期,第165页。
[59]同样,数字平台算法侵害行政法律责任中改正违法行为的归责原则也应采用无过错责任原则,这是因为:第一,无过错责任原则能更高效地消除算法侵害行为。其二,数字平台算法侵害通常都不会直接产生物理性质的损害后果,而是通过各种媒介间接地对平台用户的权益造成实质损害,即使是技术缺陷类的算法侵害也是通过硬件设备的故障才会对用户造成物理性损害后果。
参见雷磊:《规范、逻辑与法律论证》,中国政法大学出版社2016年版,第141页。这就导致在过错推定原则之下,平台企业会更注重制作、收集、保存证明自身无过错的证据及技术链条上其他主体有过错的证据,而不会将主要精力放在事先约束自身及技术链条上其他主体的算法侵害行为之上。
第三,平台企业作为算法侵害行政法律责任主体还能有效提高算法行政规制的效率。[52]参见张志勇:《行政法律责任探析》,学林出版社2007年版,第47页,第78—83页。