人工智能性别偏见并非系统故障——联合国报告

专家表示,除非在制度和系统层面采取行动,否则科技行业的性别和种族多样性问题只会变得更加严重。

虽然科技行业缺乏多样性并不是什么新鲜事,但仅仅“让女孩编码”就能纠正这种情况的想法似乎失败了。

根据即将发布的联合国报告的作者的说法,解决方案需要对政府对科技行业本身的监督和监管进行彻底的重新思考。

管道问题

虚拟演讲科格X会议上,伦敦经济学院社会学教授 Judy Wajcman 在收集了一年多的证据后描述了科技领域女性面临的问题。

“我们不想重复过去的错误,我想谈论的错误就是所谓的管道问题。 这种想法认为,不知何故,缺乏女性是一个随着时间的推移而改善的问题,这在某种程度上是一个代际问题,如果我们让女孩编码,它最终会自行解决。”

瓦伊克曼认为,解决问题的方法要更深层次。 “它(让女孩编程框架)非常关注女性对技术缺乏兴趣以及她们[缺乏]技能和能力的问题,而不是把重点放在机构本身上,”瓦伊克曼说。

“有大量证据表明,很多女性正在进入科技行业,但人员流失率很高,晋升存在问题,薪酬也存在问题。”

阅读更多 -该奖项改变了科技界女性的叙事

文化问题

“科技文化已经发展成为一种对女性相当不友好的文化,”艾伦图灵研究所研究员艾琳杨说。“这可以是任何事情,从微侵犯到性骚扰和其他形式的歧视。”

尽管近年来许多公司一直在努力打击性骚扰和歧视,但杨认为,解决方案需要对公司结构进行重大重新思考。

“研究还关注所谓的男性默认行为,”杨说。 “目前这种情况在硅谷尤其普遍,职场文化包括从育儿假政策到随意谈话和薪酬差距等方方面面。 它还包括一种趋势,特别是在科技初创公司中,工作时间长得离谱,这对于许多在家中承担大部分家庭无偿护理工作的女性来说根本不可能。”

从这个观点来看,很明显,解决科技领域性别差距的唯一有效、长期的解决方案是重新审视更广泛的工作文化和社会的构建和运作方式。

人工智能问题

“当前技术的问题在于,它不是性别或种族中立的,因为它适用于那些创造它们的人:白人,”杨说。

虽然人工智能通常被认为是近年来最重要的技术发展之一,但研究人员明确表示,就目前情况而言,该技术似乎弊大于利。

“我们不能将这些技术理解为不分性别的工具,”杨说,“而是将其视为更广泛的社会政治背景的一部分,塑造了它们的设计、目的和用途。 简而言之,科技行业缺乏多样性与这些新兴的性别偏见结构紧密相连。”

虽然这个想法可能看起来抽象且短暂,但它的影响却是真实的。 例如,一个亚马逊众所周知,招聘算法会降低简历中含有性别标志的求职者的评级。 据称,女性在申请贷款时也获得较低的信用额度苹果卡这要归功于有缺陷的高盛算法。

杨甚至指出了计算机视觉技术的缺陷,表明一个结构不良的系统错误地歪曲了年轻奥普拉·温弗瑞的图像。

虽然这些听起来像是孤立的小事件,但杨热衷于指出,世界上一些最大的科技公司并没有意识到自己的偏见。

她说:“Alexa 或 Siri 等虚拟个人助理常见的女性性别划分是另一个非常明显的带有偏见的设计案例,其中关于女性顺从、顺从和驯养的角色的传统但有害的刻板印象进一步根深蒂固。”

“我们发现自动化决策系统最有害的是,它们实际上被宣传并被认为更加客观和中立,而不是根据某些偏好和价值观来划定,”杨说。 “这会进一步重现和放大现有的不平等现象。”

“性别偏见和其他偏见并不是系统中的故障,”杨总结道。 “这并不是出于恶意,而是与这些系统的基本架构有关。 但是,正如我提到的,情况正在好转,一些公司现在正在开发性别中立的语音助手。 女权主义学者在科技行业内提高了对这些问题的认识并提出了挑战,并且这些问题正在得到解决。

监管问题

尽管取得了一些进展,但仍需要采取更重大的干预措施,以确保用于管理我们生活的人工智能工具对所有人保持公平。 在即将发布的联合国报告预览中,杨和瓦伊克曼详细介绍了他们的一些调查结果以及如何解决这些问题的建议。

“首先,各国政府应确保新技术是在优先考虑和保护妇女权利的监管框架内开发的,”杨说。 “其次,审计和监控人工智能技术的道德框架应将性别平等置于其核心。”

“女性应该成为科技工作中的平等伙伴,”瓦伊克曼说。 “不仅因为平等机会是一个社会正义问题,还因为它将确保我们获得最好的技术和最好的数据科学。”

Related Posts