随着人们越来越擅长使用代码,无论是在法庭还是社交媒体上,程序的设计方式变得越来越重要。机器学习的基础是人类收集的数据,如果不仔细考虑,这些机器可能会延续设计者的偏见。
有时偏见很难被人们意识到,但有时也会表现得很明显。由青年实验室(Youth Laboratory)发起的一场名为Beauty.ai的选美比赛打着人工智能评判的旗号吸引了60万参赛者,比赛由科技巨头英伟达和谷歌背书。人工智能可以通过分析皱纹、脸部对称、青春痘、斑点、种族和外表年龄进行打分。但在实际操作中,种族的决定性似乎比原本设计的更大:44名胜者中有36人是白人。
选美系统的技术支持来自于深度神经网络(deep neural networks),一种学习海量数据规律的人工智能。为了准备选美计算,系统可能研究了成千上万张有皱纹和无皱纹的人像,它能够记住皱纹的共性,从而在照片中识别出它们。但该系统的学习母版都是白人的照片,这导致它在面对黑人的照片时准确度下降(同样的问题会出现在对其他面部特征的判断上)
Motherboard的文章称,此次比赛中75%的参赛者为白人或带有欧洲血统,因此理论上这一结果并没有很大偏差。对于机器来说,评判的对象不是人,而是像素的不同组合。当像素和期待中的排列方式不同时,参赛者的照片就会被当做错误输入而丢弃,或被给出一个较低的评价。换句话说,选美评分的结果是按照机器的客观标准得出的,但这个“客观标准”是建立在白人基准上的。
“颜色确实会影响到机器的评判,” Beauty.ai的首席科学官Alex Zhavoronkov说,“并且一部分人群的数据样本数量不够,深度神经网络没办法得到与之相关的充分训练。”
解决这个问题的答案是提供更优的数据。如果系统能够从更全面的数据中学习,它们就可以做出更准确的评价了。
相同的问题也出现在谷歌的“深梦(DeepDream)”试验中。谷歌的研究员写出程序分析建筑、地形、著名的艺术品,并放大他们发现的图案。最后得到了凌乱的不规则碎片图形,还夹杂着狗脸。研究员们发现造成此结果的原因是算法使用开源数据库ImageNet进行训练,数据库里有几千张狗的照片,结果这个人工智能就非常擅长辨识狗的图案。这个问题困扰着谷歌和惠普,且经常出现在大大小小的人工智能研发过程中。
“如果一个系统依靠占多数的白人照片进行学习,它在辨识黑人照片时一定会遇到困难,” 纽约市微软研究所(Microsoft Research New York City)首席研究员Kate Crawford在《纽约时报》专栏中写道。“因此包容性是很重要的——从系统的设计者,到公司的决策层,各种种族伦理视角都要做到尽量包容。否则,我们就面临着巨大的危机,我们研发出的人工智能只反映出狭隘的、充满特权色彩的社会的一面,相比充满偏见和刻板印象的过去没有任何进步。”
Beauty.ai在10月份会举办另一场选美比赛,尽管其首席科学官Zhavoronkov称公众需要获得更全面的数据,但下一场比赛中该公司究竟会不会换数据库尚未明朗。
(翻译:冷君晓;编辑:陈升龙)
来源:qz
原标题:COLOR BIASED—When artificial intelligence judges a beauty contest, white people win
最新更新时间:09/19 20:52
评论