《Business Insider》报导,美国乔治亚理工学院最新研究显示,自驾车系统在识别路人时,可能较容易识别肤色白的人,研究人员认为,这样的差异是因为在训练这些系统时,使用的黑皮肤人种的照片不够多。
针对这次的研究,研究人员使用了8种图像侦测系统(image-detection system)来分析行人,照片里的行人被依照菲兹派崔克肤色(Fitzpatrick skin type scale)分为两类,一类肤色较白,一类肤色较黑。
接着,研究人员一一测试这些系统识别行人的能力,再比较图片中的肤色较白的行人与肤色较黑的行人被侦测出来的比例,平均看来,这些系统识别肤色较黑的行人的准确度,比识别白人来的低5%,即使控制了其他可能影响到调查结果的因素,结果仍然没有改变。
然而,由于这项研究使用的系统并非实际上自驾车所使用的系统,也没有使用自驾车制造商训练系统所用的数据集,外媒《Vox》认为不应该轻信这次的研究结果。因为公司不会公开发表自己的训练数据,所以研究人员使用的系统是学术模型,并且使用可供公众取得的数据集来训练系统。
但这并不代表这个研究没有价值,其中一位参与研究的学者Kate Crawford在推特上表示,在理想情况下,学者应该要使用自驾车厂商所用的模型以及训练步骤来进行测验,但这件事本身不可能实行。无论如何,这次的研究还是为实际存在的风险提供了深刻见解。
根据《Vox》报导,研究指出了人类的偏见可能也会导致自动决策系统产生偏颇,造成算法偏见(algorithmic bias)。由于演算系统是通过接收到的范例来学习,如果在学习阶段没有得到足够的范例,真正运用时系统就无法识别他们。
《Vox》认为,对自驾车公司来说,最有利的方式就是尽可能的解决种族歧视问题,以免人们被迫承受一切伤害。