《中国共产党章程》总纲最后一段规定,党必须在宪法和法律的范围内活动。
[24] Schmidt-A?mann, Kommentierung von Art.19 Abs.4 (1985) , in: Th. Maunz/G. Dürig (Hrsg.) , Grundgesetz.参见山本隆司:『行政上の主観法と法関係』有斐閣2000年251頁。而多边法律关系等概念所意味的那些问题,基本上是通过有关①的解释论来应对的。
这就又涉及到一个机会成本的问题。同时,论题与方法的选择本身,有时就已经决定了能产生什么样的影响。大部分法律关系学理的倡导者关于法律关系中权利义务的讨论,基本都止步于具体的、各论的、问题发现式的论述,并未归纳总结出足够抽象、与现实事物结构保持一定距离、兼具实际指导力的解释规范和判定基准。期待最高人民法院能够适时发布指导案例,推动保护规范理论在司法实践中切实落地。其所引发的激烈的意见分歧,多年来仅见。
部分行政裁判在解释法律时,只着眼于根据规范的文本,只要原告所主张的利益无法从中读取出来,就认定原告不适格。即以行政机关作出行政行为时所依据的行政实体法和所适用的行政实体法律规范体系,是否要求行政机关考虑、尊重和保护原告诉请保护的权利或法律上的利益,作为判断是否存在公法上利害关系的重要标准。[45]其次,从实质平等的角度来看,算法歧视也可能是由于准确地反映了业已存在的社会歧视现象,但又没有进行人为干预,任由歧视性结果的发生。
第三,人的尊严的价值意蕴在于尊重人的多样性,包容每个个体的独特性,禁止歧视。胡玉鸿:《人的尊严的法律属性辨析》,载《中国社会科学》2016年第5期。在模型构建过程中,可以通过嵌入特定程序来构建限制歧视的算法模型。算法基于海量数据运算配置社会资源,直接作为行为规范影响人的行为,辅助甚至取代公权力决策,从而发展为一支新兴的技术权力。
[8]就某种程度上而言,算法歧视的发生是普遍的,挑战着宪法规定的平等原则。[14]参见陈鹏:《算法的权力:应用与规制》,载《浙江社会科学》2019年第4期。
[33]郑玉双:《人的尊严的价值证成与法理构造》,载《比较法研究》2019年第5期。德国学者考玛斯(Donald Kommers)指出:法院和评注学者都把人格尊严归结为客观和主观权利:客观的意义是对国家施加正向责任,去建立对实现人格所必须的条件。然而,设计算法的人是有价值判断的,决定运用算法进行决策或辅助决策的人也是有价值判断的。另外,有学者认为,人的尊严可以作为建构性(凯尔森意义上的法秩序)之基础规范的地位。
[15]算法对公权力领域的介入挑战了传统的权力专属原则和正当程序原则,难以对其实施有效的权力控制,而失范的权力最终必将导致个体权利的减损。虽然智能算法完全代替人类决策并未成为现实,但已显示出其在人类决策中扮演着不可忽略的角色,算法歧视也已成为社会普遍关注的问题,因此,规范算法的运用是不容小觑的重要课题。有研究指出,以美国为代表的算法治理方式愈来愈强调算法决策的透明度原则,要求算法决策者和使用者披露算法决策的具体过程,并试图设计一系列事前检测、验证以及事后审查的制度,其目的主要在于通过这些制度措施尽可能地平衡算法精英与普通个人之间的数字鸿沟,消除技术劣势一方对优势方的依附性,矫正算法自动化决策过程中出现的权利失衡。人的尊严引发的争议还源于人的复杂性,宪法上的尊严具有多种价值基础,这并不是价值世界的混乱,相反,这是一种价值宽容,它根源于人类生活、实践与理解的多样性,展现出可能生活的道德深度。
德国交通部部长任命的伦理委员会曾尝试制定算法设计者的伦理法则,核心内容就是把人的生命放在首位。[28]正因为人的尊严具有丰富的价值指引,并兼有宪法权利的内涵,所以在实践场景中容易引发争论。
算法治理(Algorithmic governmentality)是不允许主体性处理(subjectivation processes)的。尊严的内在价值性被界定为人的不可侵犯性(inviolability),以及附属于该属性的辅助性价值内涵和限制因素。
特定重大领域往往关系到公民重大切身利益,草率使用算法决策系统可能会侵犯公民的基本权利,减损人的尊严。当智能算法广泛运用于各领域的自动化决策以后,人的主体性还如何得以保障?算法歧视就是在运用智能算法进行决策或辅助决策时产生了歧视的后果。对技术运用的规制归根结底是对人的内在本性的克制。事实上,关于尊严的学术争议并不在于否定尊严的重要性,而是在承认尊严的重要性的基础上而展开技术性的探讨。宪法正是从人的不可替代性出发,才在国家与人的关系上确立了公民的人格尊严。数据偏差或者算法设计师的因素是导致算法歧视的表面原因,深层原因在于算法预测的性质,通过对过去来预测未来才是导致问题的根源,在一个种族分层的社会中,算法模型预测的结果势必是种族不平等。
其指出,已有证据表明,训练数据、数据处理、算法设计者的因素都可能导致算法歧视。[37]参见鲁楠:《科技革命、法哲学与后人类境况》,载《中国法律评论》2018年第2期。
注释: [1]算法社会(Algorithmic Society)是Jack M. Balkin提出的概念。(三)算法歧视排斥了人与社会发展的多样性 算法歧视性后果的发生,从根本上排斥了人与社会发展的多样性,缺乏必要的包容,背离了人的尊严的价值意蕴。
第一,人的尊严的价值内核在于强调人本身就是目的,其构成了宪法的最高价值。算法决策系统的功能实现是依靠对表征人的属性的数据的收集和分析来完成的。
当前的人工智能的发展并未超脱法律的基本规制框架,所谓的算法歧视问题也是如此,其最核心的问题仍是为什么要用算法决策的元问题,即运用算法决策的正当性问题。[32]这意味着不允许人被当作客体、被物化,更不允许人受到非人的对待。过分依赖算法,显然已经在侵蚀人类决策者的主体性。[19]然而,人的尊严入宪并没有使尊严的概念得到厘清,相反地,关于人的尊严的相关争议不断便表明对其内涵没有形成共识。
[35]参见前注[29],王旭文。在训练算法和感知歧视时,受保护的个人信息的输入有助于机器学习算法感知歧视,只要是最终的算法模型运用于决策过程中排除受保护的个人信息即可。
这关系到人如何认识自己、如何认识人的整体以及人与其他人的关系等问题,进一步而言,还涉及个体与共同体所组建的国家之间的关系。[54]平衡算法权力与公共权力及个人权利的力量对比关系,有助于规制算法权力。
人工智能提供的服务应平等地面向所有人,不应该存在偏见。在算法决策的黑箱中,一般的对象群体对于算法决策的原理、事实根据、理由均不得而知,只能被动地接受算法决策的后果。
[24]参见张翔主编:《德国宪法案例选释(第1辑):基本权利总论》,法律出版社2012年版,第237-240页。李海平:《宪法上人的尊严的规范分析》,载《当代法学》2011年第6期。[40]虽然它让决策的效率和科学性提高了,但并不意味着算法就不会犯错,相反地,算法因为隔绝了人性而可能使得作出的决策不符合人的价值判断。当阿尔法狗打败了世界围棋冠军时,人们在为技术喝彩的同时也在内心深处产生了隐忧。
于是,有人向宪法法院提起宪法诉愿,认为该规定侵犯了《德国基本法》规定的人的尊严和生命权,要求审查该法案的合宪性。[55]San Francisco votes to ban government use of facial recognition technology, 2019 WL 2149247.转引自前注[8],郑智航、徐昭曦文。
欧盟《一般数据保护条例》(GDPR)第22条便对自动化决策加以限制,如果某种包括数据画像在内的自动化决策会对数据主体产生法律效力或对其造成类似的重大影响,数据主体就有权不受上述决策的限制。[38]李林容:《网络智能推荐算法的伪中立性解析》,载《现代传播》2018年第8期。
除了算法的数据收集可能不全面、不完整或存在错误外,算法本身也并非纯粹客观的数据处理手段,其存在诸多不透明的因素。报告指出,仅因为算法是数据驱动的就认为算法是客观的,实乃美丽的误会。
Photo Credit: Depositephotos 我相信當資本開始關注到女性創業,可以讓整體社會的價值提升,所以社會氛圍應該鼓勵更多女性出來嘗試,試錯,不放棄,如此整體的創業環境才可以更被優化 [阅读]
《衛報》問,新的50英鎊紙幣是否錯過了反映多元化現代英國的機會?卡尼回應,銀行企圖做到「多樣性的各個方面」,而且如果選出來的人,不能代表英國科學成就的規模,將是個錯誤。 [阅读]
而預計今年(2019年)底即將上映的瓦昆菲尼克斯(Joaquin Phoenix)版小丑獨立電影,他在預告片裡毛骨悚然的邪笑,更被多數影迷評價「相當令人期待」。 [阅读]
台灣正面回應:盼遣返回台受審外交部發言人李憲章今天在外交部例行新聞說明會回應此事表示,捷克政府發揮道德勇氣,以實事求是態度、採取輔助性措施,確保台人權益,對此表達肯定與感謝。 [阅读]
放屁所排出的氣體大多數是無味的(氮氣、氫氣、二氧化碳都沒有氣味,甲烷也沒有),但同時被製造出來的那一絲絲帶氣味的揮發氣體就比較有意思了。 [阅读]
圖靈在1954年服毒自殺,享年41歲。 [阅读]
更重要的是,佈滿警力的三樓,是地政總署資料列明的公共空間,必須24小時開放。 [阅读]
(《風月》、《春光乍洩》、《甜蜜蜜》、《吃一碗茶》、《幸福時光》、《一個都不能少》、《盲井》)。 [阅读]