华盛顿大学的一项类似研究发现,在他们所测试的45种职业中,女性在谷歌图像搜索中出现的比例偏低,其中CEO的比例最为悬殊:美国27%的CEO是女性,但在谷歌图像的搜索结果中,女性只占11%。38搜索“作家”的结果也是不平衡的,谷歌图片中只有25%的搜索结果是女性,相比之下,美国作家中女性的实际占比有56%,研究还发现,至少在短期内,这种差异确实影响了人们对某个领域性别比例的看法。当然,对于算法来说,影响会更长远。谷歌翻译还在将土耳其语译成英语时,赋予了原本性别中立的句子刻板成见的意味。O bir doktor的意思是“她/他是个医生”,但被翻译成“他是一个医生而O bir hemsire(意思是“她/他是士”)被译成“她是一个护士”。研究发现,翻译软件在将芬兰语、爱沙尼亚、匈牙利语和波斯语译成英语时,也出现同样的现象。我们目前的产品设计方案对女性不利。它正在影响我们有效工作的能力一一有时甚至会影响我们找到工作的能力。它影响着我们的健康,也影响着我们的安全。也许最糟糕的是,有证据表明,算法驱动的产品会使我们的世界更加不平等。然而,只要我们承认这些问题,就会有解决这些问题的办法。2016年那篇“女性=家庭主妇”论文的作者设计了一种新的算法,将性别刻板印象 (如“他是医生,她是护士”)至少减少了三分之二,同时保证涉及性别的词语关联(如他可能会患前列腺癌,正如她可能会患卵巢癌”)不变。而2017年图像判读研究的作者们设计了一种新的算法,将偏向放大率降低了47。5%。