机器人并不只抢走人类的工作,它们也开始向人类发放工作岗位了。参加招聘行业的任何一场活动,你都会发现空气中弥漫着像“”、“”和“预测分析”这样的字眼。
在招聘中使用这些的理由很简单。机器人招聘者可以快速筛选数以千计的应聘者,效率远高于人类。它们还能做到更加公平。因为它们不会像人类那样带着有意或无意的偏见,它们会招聘到一批更多元化和择优录用的员工。
这是个很诱人的想法,但也是危险的。算法的中立并非是其固有,而是因为它们看到的世界只是“0”和“1”。
首先,任何机器学习的算法,并不会比它所学习的训练数据更好。以学术研究者科林·李(Colin Lee)今年向媒体发布的博士论文为例,他分析了44.1769万份成功和不成功的求职申请,建立了一个准确度达70%至80%的模型,可预测哪些应聘者会被邀请参加面试。该新闻稿称,这一算法潜在可用作工具,用于在筛选大量简历的过程中避免“人为错误和无意识偏见”。
但这样的模型会吸收最初招聘决定中的人为职场偏见。例如,上述研究发现,年龄因素可以在最大程度上预测该应聘者是否会被邀请面试,最年轻和最年长的应聘者最不可能成功。你可能觉得这挺公平,因为没有经验的年轻人干不好,但拒绝年长应聘者的常见做法似乎值得调查,而不是被编入程序和得以延续。
科林承认这些问题的存在,并建议最好从简历中剔除一些属性(例如:性别、年龄和种族)再加以使用。即使那样,算法仍有可能带有歧视。在今年发表的一篇论文中,索伦·巴洛卡斯(Solon Barocas)和安德鲁·谢尔博斯特(Andrew Selbst)这两位学者使用了一个案例,即雇主希望挑选最有可能长期留在工作岗位上的雇员。如果显示,女性雇员在工作岗位上停留的时间大大少于雇员(可能因为当她们有了孩子便会离职),算法就有可能利用那些性别指向明确的属性,得出对女性不利的结果。
应聘者住址与办公室之间的距离如何?这也可能是预测该雇员出勤率和在公司服务年限的不错的预测因素;但它可能也会在无意间歧视某些群体,因为不同的住宅社区有不同的种族和年龄特征。
这些现象提出了一个棘手问题:在理性和非有意的情况下,歧视是否错误?这是一个模糊的法律领域。在美国,根据“差别影响”(dispara impact)原则,貌似中立的雇佣实践若超出比例地伤害了“受保护阶层”,即为不合法,即便雇主并非有意歧视。但雇主若能证明该做法有很强的商业理由,就能为自己成功辩护。如果使用算法的意图仅仅是为相关职位招募最佳人选,那可能是个足够好的辩护理由。
话虽如此,那些希望拥有更多元化的员工队伍的雇主,显然不能想当然地认为只需把招聘交给电脑去做。假如这正是他们想要的,那他们也得把数据运用得更富想象力一些。
比如说,与其将他们自己的公司文化设为既定条件,进而寻找统计学上最有可能在该文化中成功的人选,不如找到相关数据显示,一支更为多元化的员工队伍在哪些情况下会成功。
如果机器学习唯一学到的只是你的过去,那么它将无法推动你的员工队伍走向未来。
上一篇:新加坡用机器人补充服务业劳动力
下一篇:工业机器人推动智能制造,加速升级工业4.0
- Vernier_caliper
- 使用 Richtek Technology Corporation 的 RT9594B 的参考设计
- 直流936控制板
- STM32G474E-EVAL,带有 STM32G474QE MCU 的评估板
- 使用 MaxLinear, Inc 的 SPX385M1-1.2/TR 的参考设计
- 使用 Diodes Incorporated 的 ZSAT600 的参考设计
- LFRD003:水表自动抄表(AMR)参考设计
- LT1317CMS8 2 节电池至 3.3V 升压转换器的典型应用电路
- 用于消费电子产品的 0.75V、3 芯、镍镉/镍金属氢化物电池充电器
- 【征集令】基于ESP8266的WIFI遥控船——永不沉没