中工娱乐

工人日报 2024年03月25日 星期一

【热点思考】招聘场景中算法应用的歧视风险及治理路径

李凌云 杨可萌
《工人日报》(2024年03月25日 07版)

观 点

针对AI招聘引发的算法就业歧视风险,应在充分发挥现有监管体制的基础上,加强专项治理。对算法规则进行合法性和平等性评估,并向社会进行公示。

 

近年来,人工智能(以下简称AI)在招聘场景中的应用日渐兴起。欧美国家一些招聘平台、科技公司率先开发和采用了AI招聘系统。在我国,数据显示,头部招聘平台累计服务求职者超过1亿人次,求职有效简历数量超过1.5亿份,认证企业超过1000万家。多家招聘平台启用AI为海量数据赋能。

AI招聘系统可以向潜在求职者推送招聘广告,对海量简历进行解析、筛选和匹配合适候选人,规范并简化面试流程和能力测试,辅助招聘录用决策,帮助企业降低招聘成本、提高招聘效率。有观点认为,算法具有技术中立性,可以消除招聘者可能存在的个人偏见,甚至避免受到其潜意识的影响,从而保证招聘行为的公正性。然而,近年来国内外研究发现,AI招聘同时引发了算法就业歧视的风险。

招聘场景中算法应用的歧视风险

其一,招聘广告自动化推送中的歧视风险。有研究者利用软件模拟普通用户浏览求职网站,随后统计较高薪酬职位的广告数据,发现男性用户组收到的广告推送是女性用户组的6倍多。可见,在算法主导的招聘市场上,男性相较于女性获得高薪职位广告推荐的机会更多,同等条件下获得较高年薪待遇的几率也更高。

其二,简历自动化评分中的歧视风险。在求职者向目标企业投递简历后,AI会对简历进行自动化评分,在此过程中,算法可能会对某些特定群体的简历给予负面评价,甚至直接过滤。在一项国外的研究中,研究人员创建了4万份虚构的简历,并向分布在不同城市的1万多个网上职位发送了年龄不同而其他条件完全相同的虚拟申请。研究显示,在拥有相同技术能力的情况下,年轻申请者获得的反馈率远高于年长者,说明年长者的简历在初筛阶段被降级了。

其三,招聘自动化决策中的歧视风险。企业使用视频面试系统对求职者进行筛选,算法会通过分析求职者在面试中的表现,包括语言分析(通过抓取关键词等方式分析求职者的回答)和视频分析(对其面部表情、语音语速、眼神交流等进行数据收集、处理与分析),判断求职者的业务能力、工作风格、勤勉度、忠诚度与所求职岗位匹配的可能性并进行排名。此类自动化决策虽剥离了面试官个人对面试结果的影响,但蕴含着算法歧视的风险。

产生算法就业歧视的根源

看似客观中立的算法为何会产生就业歧视风险?基于国内外的研究成果,可将算法歧视产生的根源总结为以下几个方面。

一是算法具有自主性和超打探性。在数据处理过程中,算法可以通过技术追踪,打探应聘者简历之外的个人信息,并预测其未来的行为特征。例如,在面对一份女性求职者的简历时,算法可以通过掌握其身份信息自主打探其在不同网站上的浏览与消费记录,判断其身份特征,从而影响评估和决策的结果。

其二,算法具有隐蔽性。算法在数据挖掘、数据选择和模型建构时具有隐蔽性,这使得人们难以判断其在学习过程中究竟识别了哪些数据,提炼出哪些特征。因此,在未经系统训练的情况下,人们很难对算法决策过程和原理进行完整准确的解释,对维权和监管也形成了较高的技术壁垒。

其三,训练算法的数据缺陷。在算法生成之前,开发者需要投放大量数据对其进行训练。如果数据本身存在对某些群体的偏见或代表性不足,那么生成的算法就可能导致歧视。算法在具有歧视色彩的数据环境中“学习”与“成长”,会习得结构性偏见。

算法就业歧视的治理路径

近年来,针对“大数据杀熟”等算法歧视问题,国家先后出台了《互联网信息服务算法推荐管理规定》《关于加强互联网信息服务算法综合治理的指导意见》等规范性文件,针对各类主体滥用算法权力的现象展开专项整治。笔者认为,在充分发挥现有监管体制的基础上,应加强对算法就业歧视的专项治理。网信部门可联合技术专家、法律专家、人力资源专家、工会代表等各方力量成立专门委员会,对各大招聘网站和相关企业进行定期监管与技术监督,对企业提交的算法规则进行合法性和平等性评估,并向社会进行公示。

首先,针对算法的自主性和隐蔽性问题,要求算法开发设计方建立算法规则备案制度,定期记录算法模型和具体决策。借鉴外域治理经验,可采用个人数据的分级制度进行管理,即对于某些与个人隐私密切相关的数据,应禁止AI招聘系统抓取和处理,避免算法抓取个人隐私信息对其进行不合法“画像”。

其次,针对训练算法的数据缺陷问题,有关部门应监督企业在设计算法时构建更加公正的数据集。在训练算法模型时,应对遴选输入的数据进行不断地对比调试,以确保输出结果符合公平特性。具体做法是,在输入训练数据集时,要么剔除受保护特征的目标变量,要么去除敏感信息后尽可能保留原始信息;修正未被“公平呈现”的相关群体的数据比例。

最后,对平等就业观念进行宣传和引导。算法运行过程中受环境数据影响的现象,不是单纯依靠算法技术与数据监管就能够改变的事实,而是传统社会结构中存在的偏见。因此,需要从社会环境的角度出发,对平等就业进行全方位的宣传和引导,提高环境数据的公正性、包容性,减少算法受到影响的程度。

(作者单位:华东政法大学)

关于我们 | 版权声明 | 违法和不良信息举报电话:010-84151598 | 网络敲诈和有偿删帖举报电话:010-84151598
Copyright © 2008-2021 by www.workercn.cn. all rights reserved
扫码关注

中工网微信


中工网微博


中工网抖音


工人日报
客户端
×