本文原载于《东方学刊》2026年春季刊,作者系中山大学法学院副教授

“斩杀线”这一源自电子竞技亚文化的术语,之所以在近期跃升为描述当代美国社会分层结构的现象级隐喻,并非偶然的语言游戏,而是因为它精准地表征了数字资本主义语境下底层群体所处的结构性临界状态。这种状态超越了官方统计工具的描述范畴,指向了庞大的“ALICE”群体(资产受限、收入微薄但已就业者)所面临的生存阈值。在此阈值之下,任何微小的外部经济冲击(诸如急诊账单或车辆故障)都不再表现为线性的生活质量波动,而是直接触发阶层坠落的不可逆机制,导致个体瞬间跌破维持生物性生存的底线。

在现代法治文明的视域中,居住空间早已超越物理场所的属性,构成法律主体资格得以确立的“空间锚点”。¹居住权实质上充当了几乎所有社会权利的“前置接口”—缺乏固定的物理住址,个体将难以开设银行账户、接收法院传票乃至维持合法的监护权。²在抽象的权利谱系中,居住权的实现涵盖住房的所有权与租赁权两种形式,然而对于“资产受限”的ALICE群体而言,通过资本积累获取住房所有权事实上已经被“结构性锁死”。换言之,房屋租赁契约并非其居住方式的备选项,而是其与现代法律秩序建立连接的唯一通道。在此语境下,租房资格的丧失,在法理上等同于通往“社会性死亡”的前置程序。³一旦失去这一物理支点,无家可归者/流浪汉(homeless)将陷入吉奥乔 · 阿甘本(Giorgio Agamben)笔下被现代法律系统性抛弃的“赤裸生命”状态。⁴然而,令人困惑且必须追问的是,正是在这一关乎基本生存权利的关键关口,算法筛选机制如何获得了规范层面的合法性外观?这不仅仅是技术对法律的僭越,更是商业主权对政治主权的隐秘替代。

或者更直白地问,美国法律体系为何不仅未能阻断这种基于贫困的社会排斥,反而异化为加剧社会隔离的制度加速器?本文旨在从批判法学(critical legal studies)出发,穿透“技术中立”的意识形态面纱,解剖“斩杀线”生成的制度逻辑。这一研究进路不仅关注透视算法逻辑在技术层面的自动化展开,更要求我们审视法律规范与数字资本在社会治理层面的“公私共谋”。我们必须追问,当形式主义的法治逻辑遭遇以效率为导向的算法权力时,法律如何在“保护产权”与“保障生存”的价值博弈中发生结构性的偏离,从而为这场社会性的“算法斩杀”提供正当性证明。

本文的论证将遵循从事实构建、规范批判到理论重构的逻辑进路。文章首先考察租房平台公司的算法系统如何借由价格合谋与资格审查,构筑起一套独立于公权力之外的“私营社会信用体系”;进而在法律适用层面,探究《公平信用报告法》(FCRA)与《公平住房法》(FHA)在面对受害者救济请求时的解释论困境,揭示形式主义法治如何通过对“商业必要性”的维护完成对实质正义的舍弃。在此基础上,文章将进一步重构算法治理的权力逻辑,论证当前的治理模式已从福柯范式下旨在制造驯服劳动力的规训权力,转向了基于风险管控与剔除的“精算正义”(actuarial justice)。唯有通过这种从微观机制到宏观法理的层层剥离,我们方能理解数字时代的法律如何在应对“算法斩杀”时陷入了某种认识论与方法论的贫困,并据此探索权利重构的可能路径。

一、 租房市场中的私营社会信用算法

如果说“斩杀线”构成了宏观层面的生存危机隐喻,那么租房市场则是这一隐喻转化为微观权力技术的实验场。在数字资本主义的逻辑重构下,传统的租赁关系正经历着一场深刻的“身份契约化”逆转:它不再是民法视域下两个平等主体间的意思自治,而是异化为一套由“定价利维坦”与“自动化审查”共同构成的社会分层机器。这台机器的运转并非依赖于亚当 · 斯密式的自发秩序,而是基于两类算法机制在权力维度上的结构性耦合:前者以RealPage公司为代表,通过数据的私有化垄断重塑了市场定价的主权;后者以SafeRent公司和CoreLogic公司为代表,利用“算法抵消”与“僵尸数据”的生命政治技术,执行了对ALICE群体精准的社会性剔除。两者合谋,将居住权的获取过程从市场博弈转化为一种必须通过的技术性审查。

(一) 筛选权力的生成:RealPage与市场结构的算法重塑

在探讨具体的算法筛选技术之前,必须先追问其赖以生存的权力基础:为何房东能够拥有近乎主权者的单方筛选权,迫使租客不得不以让渡信息隐私为代价换取生存空间?其根源不在于传统的财产所有权,而在于市场定价机制被某种“算法霸权”所僭越与重构。

首先,城市租赁住房的长期供给不足与后金融危机时代租房需求的激增,固然为卖方市场提供了基础,但算法的介入将这种供需失衡固化为一种制度性垄断。传统市场的价格发现机制依赖于分散主体的博弈与信息分散,但在RealPage的算法架构下,这种分散性被彻底消灭。该机制通过汇集数百万套房源的非公开数据,计算出旨在最大化整体收益的“建议价格”,并以技术指令的形式指导房东在市场低迷期“宁愿空置也不降价”。¹美国司法部的行动证实了这一点。2024年,美国司法部联合多个州的总检察长正式对RealPage提起民事反垄断诉讼(United States et al. v. RealPage, Inc.)。起诉书指出,RealPage的软件通过共享非公开的、敏感的租赁数据,使房东们能够步调一致地推高租金,实质上形成了一个由算法驱动的“定价卡特尔”。这一案件标志着监管部门首次在联邦层面挑战“算法合谋”的合法性,揭示了技术中立外衣下资本对生存资源的掠夺性定价权。

其次,这种算法定价机制产生了决定性的权力外溢:它通过人为制造的价格刚性,消灭了租客“用脚投票”的议价能力,从而制造了普遍的住房焦虑。在这种被算法锁定的市场中,租客彻底丧失了“用脚投票”的议价能力。进而,这又为SafeRent等第三方机构实施近乎苛刻的背景审查提供了商业必要性与合法性。换言之,正是RealPage在宏观上剥夺了租客的市场主体地位,才使微观层面的“资格阻断”具备了不容置疑的强制力。

(二) 资格阻断之一:公法福利的算法抵消

在被高昂租金锁定的封闭市场中,筛选算法得以发挥其实质性的社会清洗功能。2023年的“路易斯等诉SafeRent解决方案公司案”(Louis et al. v. SafeRent Solutions)并非一个孤立的侵权个案,它深刻揭示了数字时代的法律规范冲突:私营算法通过隐蔽的权重设计,对国家的公法福利承诺进行了结构性的“算法抵消”。在该案中,原告玛丽 · 路易斯(Mary Louis)持有联邦政府颁发的住房选择券。¹在公法逻辑中,这代表着国家信用的背书与生存保障的承诺,因为租金的主体部分由政府通过直付机制予以保障,房东面临的租金偿付中断风险在精算意义上本应低于普通市场化租客。然而,在SafeRent公司的算法逻辑中,这一国家背书被彻底无视,而代之的是基于FICO(fair, isaac and company)模式的通用信用评分逻辑。

这种冲突的本质是两种法律观的较量。算法模型通过赋予“非租金债务”(如医疗账单、助学贷款)以极高的负面权重,将贫困者的生存困境直接转译为商业上的“违约风险”。这构成了一种法律认识论上的暴力:它拒绝承认国家信用对个人支付能力的补强,坚持“个人历史决定论”,将贫困本身重构为一种难以修复的高风险标签。通过这种方式,私营算法实质上架空了《公平住房法》对弱势群体的保护,将公法上的生存受助权在私法市场上兑换成了无效的空头支票。尽管该案在2024年最终以和解告终,但这更像是一种资本对法律的策略性赎买而非逻辑纠正。SafeRent通过“打补丁”式的个案豁免,成功规避了对其核心算法模型的司法审查,使针对广大ALICE群体的“贫困惩罚”逻辑依然在算法黑箱中隐秘而高效地运行。

(三) 资格阻断之二:“僵尸数据”与自动化裁决

如果说SafeRent是通过“权重设计”来抵消福利,那么CoreLogic则展示了另一种更为直接的排斥机制:基于“僵尸数据”的自动化有罪推定。在2019年“康涅狄格州公平住房中心诉CoreLogic租赁房产解决方案公司案”(Connecticut Fair Housing Center v. CoreLogic Rental Property Solutions)中,CoreLogic公司算法模型(CrimSafe)实际上行使了一种超越司法程序的“自动化裁决”。

原告卡门 · 阿罗约(Carmen Arroyo)申请让其因事故致残、无法自理的儿子米哈伊尔 · 利伯曼(Mikhail Lieberman)搬入同住,却遭到无情拒绝,导致这对母子被迫分离,米哈伊尔只能继续滞留在养老院中。原因是CrimSafe系统抓取到了米哈伊尔几年前的一条“入店行窃”(retail theft)逮捕记录—尽管该指控早已被撤销,且属于轻微的非暴力记录。然而在算法的自动化裁决中,这条本应失效的记录被瞬间转化为算法内部的“取消资格”(disqualifying)判定,并随即输出为针对房东的、封闭性的“拒绝”(denial)指令。这一过程通过“技术代管”架空了房东作为法律主体的独立裁量权。更令人深思的是,这种技术性代管在司法实践中竟演变为算法公司逃避责任的“法律面纱”。在CoreLogic案中,尽管法院初期曾承认算法可能构成实质上的决策者,但在最终审判中,法院最终退回形式主义的窠臼,判定房东而非算法是决策者,理由仅仅是房东在系统后台进行了形式上的参数勾选。¹这一判决不仅无视了房东对算法指令普遍盲从的商业现实,更确立了一个危险的法律虚构:它假定房东拥有对抗算法指令的真实意志,从而让算法公司借由“技术中立”的外衣,完美豁免了其通过代码实施结构性歧视的责任。

这种机制导致了“僵尸数据”(zombie data)的滥用,使其成为福柯笔下“档案权力”的数字化变体。²所谓僵尸数据,并不限于那些在法律程序上已经终结(如撤诉、无罪释放)的记录,更包括数据库因过度包容式建档而制造的“误导性真实”,例如,将已消除的记录视为现行有效,甚至将同名他人的犯罪记录错配给申请者。³在算法的预测逻辑中,数据一旦生成便具有了永久的风险价值,算法逻辑在此彻底背离了现代法治的“责任自负”原则与“遗忘权”伦理,将本应随时间消逝的过去,固化为个体无法摆脱的信用污点。⁴总之,RealPage的市场封锁、SafeRent的福利抵消,以及CoreLogic的僵尸数据形成的“结构性耦合”,共同构成了美国住房租赁市场的“斩杀线”。在法律性质上,这套算法机制已经超越了商业风控的范畴,演变为一种对生存资源进行“结构性阻断”的私营化治理体系。

二、 算法“斩杀”合法化的法理逻辑

如果说RealPage与SafeRent构建了算法“斩杀”的技术架构,那么现行的美国法律体系则通过一套精密的形式理性话语,为这套架构提供了坚不可摧的合法性背书。要理解这一背书的深层逻辑谬误,我们首先需要穿透古典私法关于租赁关系的自由主义神话。在这一神话图景中,租赁被假定为两个原子化主体之间基于意思自治的财产让渡,然而,这种建立在19世纪自由竞争资本主义想象之上的法律假设,在数字资本主义的垄断架构中业已崩塌。对于庞大的ALICE群体而言,租赁住房已不再是契约自由视域下的生活方式选择,而是构成了生存本身的前置性条件。

在此语境下,耶鲁大学法学院查尔斯 · 赖希(Charles Reich)教授的经典论断亟须在当代私法扩张的背景下得到回应与更新。赖希曾敏锐地指出,在行政国时代,政府特许与福利资格构成了个人的“新财产”,对这一“新财产”的剥夺等同于生存权的剥夺,因而必须受正当程序的规制。¹而在当下的算法社会,这种威胁的主体已从公共行政权力隐秘地转移至私营算法权力。决定个体能否在城市立足的“许可证”,不再由政府机构依职权颁发,而是由SafeRent等数据商通过黑箱算法签发。当私营算法有权单方面剥夺作为“新财产”的居住资格时,它们实际上行使了一种“准主权”,即在缺乏公共问责的真空中,决定谁可以在城市空间中获得合法生存地位的权力。²这种权力的异变导致了法律关系的根本性倒置:租房资格从基于合意的“市场权利”退化为必须经过算法政审的“生存许可”。遗憾的是,以《公平信用报告法》与《公平住房法》为代表的现行法律体系,依然固守着工业时代的私法逻辑,通过确立形式真实优先于实质预测的证据规则、构建商业秘密优越于民权调查的防御体系,以及窄化“损害”的宪法定义,成功地将结构性的社会排斥转化为程序性的商业合规。这不仅仅是法律的滞后,更是法律与数字资本完成的一场结构性“共谋”。

(一) 《公平信用报告法》的异化

作为美国数据隐私法的基石,1970年颁布的《公平信用报告法》在立法之初主要面向金融信贷与就业背景调查,并未将住房租赁作为核心规制场景。然而,随着算法化租户筛选的兴起,这部诞生于前数字时代的法律,在面对其起草者未曾预料的预测性评分技术时显得左支右绌。规范原意与技术现实的张力,导致《公平信用报告法》在住房领域陷入了结构性失调:既有的“准确性义务”被机械地沿用,却无力回应预测性技术带来的新型风险。

首先,司法实践在“准确性”认定上采取了一种去语境化的历史记录真实标准,这种解释逻辑在实质上无视了算法技术准确但预测失效的悖论。在“路易斯等诉SafeRent解决方案公司案”等案件中,核心法理悖论在于:当数据在“句法”层面无误(如确实存在医疗债务),但在“语义”层面完全失效(如忽略政府担保从而错误预警风险)时,法律竟拒绝承认其构成“不准确”。法院倾向于认为,只要数据商记录的“过去事实”与公共档案一致,即满足了合规要求。这种形式主义的解释逻辑刻意切断了数据与生存语境的联系,制造了“数据拜物教”式的法律后果:它仅承认孤立的、碎片化的数据真实,却拒绝承认“持有住房券的贫困者”与“恶意违约者”在风险本质上的根本区别。当法律允许算法利用“准确”的贫困数据推导出“错误”的高风险画像时,它实际上是在维护一种片面的真实,为数据商提供了一个完美的免责避风港—它们只需对输入端的录入负责,而无需对输出端的推演逻辑承担任何伦理责任。³

其次,《公平信用报告法》提供的争议解决程序在算法高频交易中因结构性的“时间错配”而沦为具文。正如美国消费者金融保护局(CFPB)报告所指出的,法律规定的30天复核期是基于工业时代信贷节奏的产物,⁴而在房源转瞬即逝的数字租赁市场,交易窗口期往往以小时计算。法律救济的迟滞周期与算法裁断的瞬时逻辑之间存在深刻的错位。这种脱节使租客享有的更正权在算法执行的绝对即时性面前,不可避免地萎缩为一种缺乏实质效力的、事后的程序补偿。这种程序性权利的虚设,实质上经由法律的制度化安排,将数据偏误所触发的生存成本转嫁给了毫无抗风险能力的ALICE群体,从而构成了一场以法律为名的、对底层群体极其有限的“生存时间”的隐蔽剥夺。¹

(二) 《公平住房法》的困境

如果说《公平信用报告法》的困境在于对“形式真实”的执念,那么《公平住房法》在应对算法歧视时,则遭遇了韦伯意义上“工具理性”的强力阻击。在差别影响(disparate impact)的诉讼架构中,反歧视法的规范效力在“商业必要性”的抗辩面前节节败退,导致效率价值在法律位阶上凌驾于平等价值之上。

被告(数据商与房东)最强有力的反驳逻辑在于一种纯粹的精算逻辑:即便算法使用了种族相关的代理变量,只要它在统计学上确实能提高违约预测的准确率,那么这在商法逻辑下就是正当的“风险管理”。尽管,美国住房与城市发展部(HUD)在2016年明确警示“刑事史筛选可能构成差别影响”²,但在“得克萨斯州住房与社区事务部诉包容性社区项目案”(Texas Department of Housing and Community Affairs v. Inclusive Communities Project, Inc.)等先例确立的司法实践中,被告仅需依据三步举证框架证成其算法的商业效率,便可获得制度性的豁免。实际上,相关司法判决确立了一个极其危险的原则:“商业效率”事实上构成了反歧视审查的边界。这意味着,如果消除歧视的代价是降低预测精度或增加筛选成本,那么这种歧视就被法律视为“必要的”。这种逻辑的致命之处在于,它将资本的“利润最大化”提升为与“种族平等”同等甚至更高的法律价值,默许了这样一种情形:为了规避微小的商业风险,社会必须容忍对大规模少数族裔群体的系统性误伤。³

更为吊诡的是,司法实践通过举证责任的分配,为原告设置了难以逾越的逻辑陷阱:原告必须证明存在一种“替代性算法”—该算法既能减少差别影响,又“不应给被告造成不合理的成本负担”。这一要求在逻辑上几乎封死了维权之路:处于外部的原告既无法穿透“商业秘密”的铁幕来设计替代算法,也无法在不牺牲商业效率的前提下减少歧视。法律关于替代方案必须具备“同等有效性”的要求,实际上是将“保持既有利润率”作为改革算法的前置条件。如弗兰克 · 帕斯奎尔(Frank Pasquale)所揭示的,法律被用来积极地保护商业秘密,却选择性地忽视了隐私权与反歧视权。⁴在这一司法博弈中,美国法律体系隐含了一个残酷的价值排序:私营企业的“商业秘密权”在实际的法律位阶中已经凌驾于公民的“免受歧视权”之上。

由于缺乏政府的强制干预,租客根本无法穿透商业秘密的帷幕去证实算法的歧视逻辑。这种对算法黑箱的制度性保护,实质上默许了算法利用“邮政编码”“消费偏好”等看似中立的代理变量,去隐蔽地替代被法律明文禁止的种族特征。于是,在“技术中立”的掩护下,“贫困”本身被算法重构为一种可被追踪、可被惩罚的种族化特征,将历史上的种族隔离重塑为数字时代的算法红线。

(三) 诉讼资格的壁垒

在程序法层面,联邦最高法院在2016年“Spokeo公司诉罗宾斯案”(Spokeo, Inc. v. Robins)及其后一系列案件中的裁决,通过对“诉讼资格”的严格限制,为数据资本主义构筑了最后一道防线。依据美国宪法第三条,最高法院确立了以“实质性损害”为核心的起诉资格门槛,而单纯的程序性违规(如数据错误)或无形的风险增加往往不足以构成适格诉因。在算法筛选的语境下,这一判例极大地提高了维权门槛。当一个人的档案被错误标记为“高风险”时,即便他尚未实际申请房屋,他实际上已被置于一种高度危险的境地,其在社会网络中的信誉基础已遭破坏。然而,司法机关固守工业时代的“实体损害观”(即金钱损失或肉体伤害),拒绝承认这种无形的、概率性的风险暴露构成适格诉因。

这种裁判逻辑实质上是对算法权力的“法律免疫”。它确立了一个原则:只要风险尚未转化为确定的灾难,制造风险的资本便无需承担责任。这种逻辑导致数据商维持低质量、高风险数据库的法律成本极低。既然保留海量的“僵尸数据”仅仅带来抽象的风险,而无需对未被直接拒绝的大多数人承担赔偿责任,那么追求利润最大化的算法公司自然会选择将风险外部化给社会,而不是花费成本去清洗数据。¹

综上,通过《公平信用报告法》对语境的剥离、《公平住房法》对工具理性的让步以及程序法对风险责任的豁免,美国法律体系实际上构建了一套精密的公私协作治理装置。这套装置虽不直接介入算法编写,却通过赋予排斥机制以合规外观,为资本垄断生存资源提供了坚实的制度外衣。在这个意义上,租房市场“斩杀线”的形成,绝非法律缺席的产物,而是公法制度与私营算法在逻辑上相互咬合、共同“运作”的必然结果。

三、 算法权力的“风险精算”逻辑

如果说法律体系的“共谋”与“缺席”为“算法斩杀”提供了制度性的豁免空间,那么我们需要进一步追问:填补这一法律真空的,究竟是何种权力运作机制?在法社会学的视域下,RealPage与SafeRent等算法系统不仅是商业工具,更是一种替代性的治理架构。²这标志着社会治理逻辑正经历着隐性的范式迭代:从福柯范式下旨在制造驯服劳动力的“规训社会”³,向德勒兹笔下基于数据调控的“控制社会”⁴转型。正如戴昕指出的,通过海量数据汇集与分析来实现对社会主体的评价与规制,并非某一特定国家的“特产”,而是数字时代全球通用的治理技术。¹这种机制本质上是声誉机制在信息技术加持下的正式化与系统化。在这种新秩序中,针对ALICE群体的治理不再依赖于国家的强制力或法律的通过性评价,而是通过精算正义、禁令全景监视、主权外包等治理技术,构建了一套自动化且去政治化的社会隔离机制。

(一) 精算正义与风险管控的兴起

在现代刑罚学与社会治理的传统叙事中,权力的核心功能曾是“规训”。无论是边沁的全景敞视监狱还是早期的信用修复制度,其预设的伦理前提是:越轨者(如违约租客)是可以被教育、被矫正并最终回归社会的道德主体。²然而,租户筛选算法的广泛应用,标志着这一“矫正理想”的终结,取而代之的是冷酷的“精算正义”。正如这一概念的发明者马尔科姆 · 菲利(Malcolm Feeley)与乔纳森 · 西蒙(Jonathan Simon)所敏锐洞察的,新时代的治理术不再关注个体是否具备道德层面的可责性,也不试图通过惩罚实现灵魂的改造;相反,它致力于通过概率论和统计学来识别、分类和管控风险群体。³

在SafeRent的算法逻辑中,“路易斯等诉SafeRent解决方案公司案”中的申请人玛丽 · 路易斯不再是一个具体的、拥有历史情境的公民,而是被化约为一个带有“高风险标签”的数据集合。算法通过挖掘其历史数据(如医疗债务),并非为了追究其过去的惩罚责任,而是为了实施先发制人的结构性阻断。值得玩味的是,处于“斩杀线”边缘的ALICE群体规模,在统计学上呈现出一种高度稳定的结构性冗余特征。对于数字资本主义系统而言,处于“斩杀线”之下的ALICE群体并非系统运行的意外错误(bug),而是维持资本积累效率所必需的结构性冗余—他们被系统性地转化为统计学意义上的“废弃物”,作为风险的承担者被永久地隔离在正规市场之外。这正如笔者在研究美国私营监狱复兴时所指出的,当惩罚不再以改造为目的,而是以风险管控和利润榨取为目的时,被惩罚者就沦为单纯的生物性资源。⁴

(二) 精算逻辑与禁令全景敞视

精算逻辑在空间治理上的投射,构建了一种截然不同于传统监狱的监视形态。福柯笔下的“全景敞视监狱”(panopticon)通过可见的监视塔,迫使囚犯内化权力的目光、实现自我规训,其最终目的是将异质的个体“整合”进规范社会。然而,迪迪埃 · 比戈(Didier Bigo)提出的“禁令全景敞视”(ban-opticon),则更精准地描绘了算法租房市场的权力图景:监视不再是为了整合,而是为了隔离与驱逐。⁵

在算法筛选机制下,数据商通过对全美数亿条租赁、犯罪和消费记录的实时监控,建立了一道无形的“数字围墙”。这道围墙的功能不是为了让位于边缘的底层群体“看见”权力并自我改造,而是为了实现社会层面的隐形化清洗。算法通过后台的暗箱操作,在申请人尚未踏入中介大门之前,就已经完成了“识别—拦截”的阻断程序。

这制造了一种残酷的认知悖论:在数据监控的维度,ALICE群体处于一种“超可见”(hyper-visibility)的状态,其每一次违约、负债乃至轻微过失都被精准记录并永久保存;¹然而,在社会权利的维度,他们却沦为“不可见”的幽灵,被算法无声地阻隔在正规城市空间之外。如果说传统的全景敞视意在生产顺从的劳动力,那么禁令全景敞视则致力于生产被系统排除的“赤裸生命”。它无须动用物理性的驱逐暴力,仅需切断数据的合法性接口,便可将特定人群锁定于法律保护之外的“例外状态”(State of Exception)。²

(三) 算法主权:生死政治的私有化运作

最后,我们需要进一步审视这种排斥性权力的政治哲学属性。如果说算法篡取了分配“新财产”的行政职能,那么在政治哲学维度,这种权力已演变为阿基尔 · 姆贝姆贝(Achille Mbembe)笔下“死亡政治”(necropolitics)的数字化变体,即决定谁可以在社会网络中存活,谁必须遭遇“社会性死亡”的权力。³在美国高度金融化的社会结构中,剥夺租房资格虽不直接等同于生物学意义上的杀戮,却构成了法律人格的实质性瘫痪。没有固定的物理居所,个体便无法维系银行账户、雇佣关系乃至监护权,从而被抛入一种甚至不如霍布斯“自然状态”的绝境。⁴

在此意义上,算法筛选演变为一种残酷的“档案清洗”。当SafeRent的算法依据“僵尸数据”或“贫困指标”将玛丽 · 路易斯拒之门外时,它实施了一种未经司法正当程序的“数字放逐”。这种流放将个体从契约社会的保护网络中剥离,使其沦为暴露在生存风险中的赤裸生命。更为严重的是,这种决定生存状态的终极权力发生了私有化转移。在经典的主权理论中,将个体放逐出共同体本是国家主权的专有属性;但在数字资本主义语境下,这一核心权能已被让渡给了以利润最大化为导向的代码逻辑。这种“主权外包”导致了责任的彻底虚无化:国家退缩为数据的旁观者,通过《公平信用报告法》等形式合规掩盖实质的伦理崩塌;而算法公司则躲在“技术中立”和“商业秘密”的帷幕后,冷酷地执行着对底层人口的社会性裁决。⁵

综上,美国租房市场的算法筛选,绝非单纯的技术应用或市场行为,而是一套严密的数字治理术。它通过精算逻辑取代了规训逻辑,通过拒斥监视实施了社会隔离,并最终通过主权的私有化,制造了成规模的“社会性死亡”。在这一数据本体论时代,贫困不再被视为需要通过社会连带加以救助的结构性困境,而被重构为必须被系统算法自动识别并予以阻断的风险源。⁶

四、 结语

本文对美国租房市场“算法斩杀线”的考察,始于微观的商业筛选机制及其法律共谋,终于对数字资本主义治理逻辑的宏观审视。研究表明,“路易斯等诉SafeRent解决方案公司案”等所揭示的生存危机,绝非算法技术的偶然偏差,而是特定治理术运行的必然逻辑后果。美国现行法律体系在这一新形态排斥面前的结构性失语,源于其在“数据产权”与“生存底线”之间的价值失衡。这一筛选机制标示着治理范式的深刻嬗变:从旨在制造驯服劳动力的规训技术,转向了基于风险管控的排斥性技术;从致力于主体道德重塑的矫正正义,转向了将“高风险样本”预先阻断的精算正义。

基于比较法视域的审视,为理解这一困境提供了反向的参照系。¹无须上升到生存权兜底与阻断返贫的政治经济学逻辑,让我们回到租户信用筛选涉及的“算法治理”与“居住权”的法律难题。首先,对信用算法的治理是国际人工智能立法的热点问题。欧盟在近期《人工智能法》中高调禁止了所谓的“社会评分”,其立法动机在很大程度上是所谓基于防范“中国模式”的刻板意识形态预设。²然而讽刺的是,对于像SafeRent这样在美国广泛运行、对公民生存权产生实质否定性后果的私营评分系统,西方主流法律体系却往往因为其披着“商业风控”的外衣而予以宽容。实际上,无论是信用积分还是征信评分,中国法治实践已经确立了公权力对算法权力进行行政规制与司法审查的规范路径,体现了通过国家干预矫正私法自治失灵的制度意志。其次,如果说美国的算法筛选构成了一道排斥性的“阻断线”,那么中国的住房保障机制则旨在构建一条包容性的“底线”。与美国租房市场利用算法剔除低利润人口不同,中国城市的公租房体系虽然也采用了数字化“积分制”,但其核心指向是“生存保障的优先性”而非“商业风险的排除性”。在具体实践中,积分系统并非用来识别并拒绝潜在的违约者,而是依据户籍、收入困难程度、家庭结构(如是否有老人儿童)等指标,确立“轮候”顺序,优先向最脆弱的群体提供兜底性资源。

这种制度殊途的根源在于两者对核心生产要素—“土地”与“数据”—的政治经济学定性分野。在美国,数据的私有产权与商业利润被置于神圣不可侵犯的地位,导致生存权不得不向算法效率低头;而在中国,土地的公有制属性不仅仅是一项财产权利,更印证了居住权作为一种“新财产”所应具备的宪法性保障地位。土地的公共属性构成了对资本逻辑的刚性制约—无论算法如何计算“风险”与“收益”,它都不能逾越“保障基本居住权”的社会主义法治底线。所谓算法“斩杀线”,实则是技术理性对法治伦理的僭越。在这个意义上,如何防止算法筛选异化为新的“贱民制度”,进而重塑数字时代的国家责任与权利重构,不仅是法律实践的未竟之业,更是现代法治文明必须回应的核心命题。