近年来,随着数字技术的快速发展,人工智能参与劳动用工管理的场景也越来越广泛,深刻嵌入在职员工的劳动用工管理过程,由算法编制的数字化系统对劳动者的管理范围不断扩大。在享受其提升管理效能作用的同时,也应关注其因侵害劳动者权益而可能产生的社会风险。
第一,劳动者的隐私权和个人信息被侵害的风险大幅增加。在求职阶段,各类求职招聘平台收集大量求职者个人信息,在此过程中,以非法收集方式侵害或泄露个人信息的情况时有发生。2021年5月,国家互联网办公室通报,51款求职招聘类软件存在违反必要原则收集与服务无关的个人信息、未经用户同意收集使用个人信息、未公开收集使用规则等违规行为,被要求限时整改。
第二,作为人工智能核心的算法并非“技术中立”,其决策可能导致就业歧视。算法不可避免地具有偏见:一是算法代码中所包含的内部偏见,如开发人员设计的操作参数承载了开发者的优先价值,这些价值与利益在样本分类、变量拆分、数据清洗的过程中有可能放大原有偏见导致歧视;二是在算法运行的最终环境中所塑造的外部偏见,当前,人工智能技术已发展到深度学习型算法,机器学习使得算法运行日趋复杂,甚至出现设计者无法预料到的歧视性决策结果。例如,亚马逊在苏格兰爱丁堡的工程团队曾创建了复杂算法来搜索候选人简历,并获取大约5万个关键术语,用于在网络上抓取数据以推荐候选人。在使用该系统不到1年人们就观察到,自动化招聘系统的结果对女性申请人不利,由于算法主要针对男性简历进行训练,系统得出的结论是男性为首选候选人。
第三,算法的不透明性导致“算法取中”监管困难。算法系统以多个非线性方式相互作用,使得监管者要重构特定决策十分困难。以平台算法监管为例,为保障外卖送餐员正当权益,2021年市场监管总局等七部门联合印发的《关于落实网络餐饮平台责任 切实维护外卖送餐员权益的指导意见》中提出,要通过“算法取中”等方式,合理确定订单数量、准时率、在线率等考核要素,适当放宽配送时限。然而,由于算法具有不透明性,法律监管只能提供一个框架,如何“取中”的具体设计仍由算法编写者决定。
对于数字时代的人工智能技术广泛运用带来的风险,应加强从传统劳动法向智能社会劳动法转型的回应性研究,积极寻求劳动者权益保障机制与人工智能规制的双向互嵌、渗透融合与关联协同,提供更有针对性与体系性的对策建议。
针对劳动者隐私权与个人信息保护问题,应坚持用劳动法律特有的劳动合同法、劳动基准法与集体合同三条路径协作互补的方式解决。基准法是目前对劳动者个人信息保障效果最好、效率最高的途径。应通过出台不同场景下的个人信息保护标准,对求职者及劳动者个人信息处理划定立法的基准线。实践中,有关部门已经做出尝试,如人社部出台的《网络招聘服务管理规定》对个人信息被泄露等做出特别规定。就劳动者个人信息的集体保护而言,集体合同符合个人信息处理的场景化需要。工会可就劳动者的个人信息保护事宜与雇主达成约定,在保护个人信息自决权与个人信息利用之间实现动态的、符合双方主体利益的平衡。劳动立法应将劳动者个人信息保护列入集体协商的内容范围,并对相关原则进行具体规定。
针对算法可能导致歧视以及算法权力滥用的问题,需要通过算法治理工具予以规制。在此过程中,应注重从算法治理的源头控制、关系控制与外部监管等模式引入劳动者权益保障机制。同时,重视算法治理中的个人新型权利,如算法解释权、免受自动化决策约束权等,以合理形式将其纳入劳动法律规制,关注劳动者参与算法治理的具体路径构建以及劳动者新型权利的赋权进路。从集体劳动关系的视角,应强化工会的专业化赋能及与第三方专业机构的制度化协作,积极参与算法设计、算法公开的监管程序。就程序救济而言,应合理配置举证责任,完善救济渠道,同时强化企业落实算法治理责任,由企业承担违法与侵害劳动者人格尊严的后果。
总之,化解人工智能技术给劳动领域带来的用工管理风险,不应局限于单向度的算法治理或劳动法律制度完善,而应在反思算法治理的理论体系基础上超越劳动法领域,融合算法监管的法治力量,以开放性、跨越性和交叉性的研究视野建构劳动者权益保障机制。 (作者单位:上海财经大学法学院)